SciHub
文献互助
期刊查询
一搜即达
科研导航
即时热点
交流社区
登录
注册
发布
文献
求助
首页
我的求助
捐赠本站
清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!
Y先生
Lv5
859 积分
2021-06-28 加入
最近求助
最近应助
互助留言
Data-efficient and weakly supervised computational pathology on whole-slide images
18天前
已完结
Radiotherapy-induced metabolic hallmarks in the tumor microenvironment
1个月前
已完结
Mapping cell types across human tissues
2个月前
已完结
Time Course of Orientation Ensemble Representation in the Human Brain
2个月前
已完结
Optimal Bounds for Open Addressing Without Reordering
2个月前
已完结
The role of 15 mA and 77.5 Hz transcranial alternating current stimulation in blood pressure regulation: A post hoc analysis of a randomized controlled trial
2个月前
已完结
Brain-Conditional Multimodal Synthesis: A Survey and Taxonomy
3个月前
已完结
A novel model of primary visual cortex based on biologically plausible sparse coding
3个月前
已完结
The anterior insula engages in feature- and context-level predictive coding processes for recognition judgments
3个月前
已关闭
A method for underwater acoustic signal classification using convolutional neural network combined with discrete wavelet transform
4个月前
已完结
The effect of information disclosure quality of listed companies on equity financing costs: Evidence from China
3年前
已驳回
感谢
18天前
感谢,点赞
2个月前
感谢,速度真快
2个月前
速度真快,点赞
2个月前
点赞,速度真快
3个月前
点赞,感谢
3个月前
已经从别的方式获取到了【积分已退回】
3个月前
标题错误
3个月前
感谢,速度真快
7个月前
感谢,点赞,速度真快
9个月前
最近帖子
最近评论
综合讨论
一句话的翻译
3年前
好的,了解了,谢谢!!!
3年前
谢谢!!!😊感觉上很靠谱
3年前
Thanks♪(・ω・)ノ感谢. 但我还有一些小疑问, truncated within the interval [-1, 1]指的是"均值"和"标准差", 还是design variable😭
3年前
不客气,互相帮助. btw我觉得这个网站挺不错的😝
3年前
第一步,使用js代码把页面的url打印出来,代码是: let b = document.getElementsByTagName("tbody")[0].getElementsByTagName("a"); let sum = ""; for (var i = 0; i < b.length; i++) { if (b[i].innerText.length >= 6) { sum += b[i].href; sum += "\n" } } console.log(sum) 第二步,把打印出的网址复制保存在文件夹中,使用requests库依次访问,获取每个网页对应pdf的url python代码: import requests as req import time from bs4 import BeautifulSoup from tqdm import tqdm all_pdf = [] with open("./pdf_url.txt","r",encoding="utf-8") as f: web_url = [i.strip() for i in f.readlines()] header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36 Edg/91.0.864.54'} for url in tqdm(web_url): result = req.get(url,headers=header) bs_obj = BeautifulSoup(result.text, 'lxml') pdf_url = bs_obj.find_all(class_ ="pdf-link")[0].get("href") all_pdf.append(pdf_url) time.sleep(0.5) print(all_pdf) 这样就可以获取所有的pdf链接,使用requests库继续获取所有的pdf就可以了 python代码: import os if not os.path.exists("./pdf_results/"):os.mkdir("pdf_results") for index, pdf_url in tqdm(enumerate(all_pdf)): result = req.get(pdf_url, headers=header) with open(f"./pdf_results/{index}.pdf", "wb") as f: f.write(result.content) time.sleep(0.5) 最终结果我也保存在百度云里了,分享给你 链接:https://pan.baidu.com/s/16_QpPGWGpUvRwAiveQSO_g 提取码:0000
3年前