SciHub
文献互助
期刊查询
一搜即达
科研导航
即时热点
交流社区
登录
注册
发布
文献
求助
首页
我的求助
捐赠本站
已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!
Y先生
Lv5
1
999 积分
2021-06-28 加入
最近求助
最近应助
互助留言
Origin and Phylogeny of Microbes Living in Permanent Antarctic Lake Ice
5小时前
已完结
Wearable Ultrasound System Using Low-Voltage Time Delay Spectrometry for Dynamic Tissue Imaging
23天前
已完结
A computational framework for neural network-based variational Monte Carlo with Forward Laplacian
1个月前
已完结
Deep learning-inferred multiplex immunofluorescence for immunohistochemical image quantification
2个月前
已完结
Detecting AI-generated essays: the ChatGPT challenge
4个月前
已完结
Attention multiple instance learning with Transformer aggregation for breast cancer whole slide image classification
5个月前
已关闭
Multimodal Breast Cancer Diagnosis Based on Multi-level Fusion Network
5个月前
已完结
Multimodal Breast Cancer Diagnosis Based on Multi-level Fusion Network
5个月前
已关闭
Meta-heuristics optimization in electric vehicles -an extensive review
6个月前
已完结
Dual spectral limited-angle CT imaging regularized by edge-preserving diffusion and smoothing
8个月前
已完结
The effect of information disclosure quality of listed companies on equity financing costs: Evidence from China
3年前
已驳回
感谢,速度真快
2个月前
感谢,点赞,速度真快
4个月前
已经有了【积分已退回】
5个月前
速度真快
5个月前
帮大忙了,速度真快
8个月前
并非正式发表的版本
8个月前
速度真快
8个月前
帮大忙了,速度真快
8个月前
帮大忙了,速度真快
8个月前
帮大忙了
8个月前
最近帖子
最近评论
综合讨论
一句话的翻译
3年前
好的,了解了,谢谢!!!
3年前
谢谢!!!😊感觉上很靠谱
3年前
Thanks♪(・ω・)ノ感谢. 但我还有一些小疑问, truncated within the interval [-1, 1]指的是"均值"和"标准差", 还是design variable😭
3年前
不客气,互相帮助. btw我觉得这个网站挺不错的😝
3年前
第一步,使用js代码把页面的url打印出来,代码是: let b = document.getElementsByTagName("tbody")[0].getElementsByTagName("a"); let sum = ""; for (var i = 0; i < b.length; i++) { if (b[i].innerText.length >= 6) { sum += b[i].href; sum += "\n" } } console.log(sum) 第二步,把打印出的网址复制保存在文件夹中,使用requests库依次访问,获取每个网页对应pdf的url python代码: import requests as req import time from bs4 import BeautifulSoup from tqdm import tqdm all_pdf = [] with open("./pdf_url.txt","r",encoding="utf-8") as f: web_url = [i.strip() for i in f.readlines()] header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36 Edg/91.0.864.54'} for url in tqdm(web_url): result = req.get(url,headers=header) bs_obj = BeautifulSoup(result.text, 'lxml') pdf_url = bs_obj.find_all(class_ ="pdf-link")[0].get("href") all_pdf.append(pdf_url) time.sleep(0.5) print(all_pdf) 这样就可以获取所有的pdf链接,使用requests库继续获取所有的pdf就可以了 python代码: import os if not os.path.exists("./pdf_results/"):os.mkdir("pdf_results") for index, pdf_url in tqdm(enumerate(all_pdf)): result = req.get(pdf_url, headers=header) with open(f"./pdf_results/{index}.pdf", "wb") as f: f.write(result.content) time.sleep(0.5) 最终结果我也保存在百度云里了,分享给你 链接:https://pan.baidu.com/s/16_QpPGWGpUvRwAiveQSO_g 提取码:0000
3年前