飙血推荐
  • HTML教程
  • MySQL教程
  • JavaScript基础教程
  • php入门教程
  • JavaScript正则表达式运用
  • Excel函数教程
  • UEditor使用文档
  • AngularJS教程
  • ThinkPHP5.0教程

自动下载MarkDown格式会议论文的程序

时间:2021-12-04  作者:weimingai  

近期师兄发给我一个压缩包让我整理文献,而我发现压缩包里的内容是这样:

 这样:

 和这样的:

 我大概看了一下,可能有270多篇文章是这种格式,俗话说的好,没有困难的工作,只有勇敢的研究僧。所以决定用Python自己写一个脚本。

尽管这个程序还有许多不足之处:1)对于文件很大的时候会只下载一个18kb左右的无法打开文件;2)程序中间出现网络或者文件异常,没有对异常进行处理;3)因为md文件里面的pdf文章地址,有的打开是网站、有的打开可以直接下载,有的打开是pdf文件......,所以还需要人工去分一下哪一类域名下的网址可以直接下载或是pdf文件,一共可能也就20种以内,打印一下选几个关键词判断一下就行。

这个程序的主要思想:1)利用Python对文件夹和文件进行遍历;2)读取md文件内容并且根据# 标识识别文章标题,利用“pdf”和正则表达式识别出pdf下载的地址;3)使用urllib库的urlretrieve对指定网址的资源文件进行下载到指定文件夹。

结果:实现173篇文章的自动下载,并将无法下载的文章名和网址保存在相关的文件内。最后希望能够对你产生帮助,如果有帮助可以点个赞。

代码如下:

import os
import re
from 域名est import urlretrieve
import ssl

from urllib import request
opener = 域名d_opener()
域名eaders = ([(\'User-Agent\',\'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/域名 (KHTML, like Gecko) Chrome/域名.69 Safari/域名\')])
域名all_opener(opener)

# 关闭证书验证,方便下载
域名ate_default_https_context = 域名ate_unverified_context
# md根路径
ori_path=r\'D:\User\Weiming\Desktop\conference_publication\'
pattern = 域名ile(r\'http[s]?://(?:[a-zA-Z]|[0-9]|[$-_@.&+]|[!*\(\),]|(?:%[0-9a-fA-F][0-9a-fA-F]))+\')  # 网页地址匹配模式
listdir=域名dir(ori_path)
# print(listdir)
# 文章名和网页地址
paper_title=\'\'
pdf_path=\'\'
# 文献保存路径
save_dir=r\'D:\User\Weiming\Desktop\conference paper\'
# 可访问的地址
access_strings=[\'域名\',\'域名\',\'playbiqdata\',\'pasinit\',\'platanios\',\'域名\',
                            \'域名\',\'域名\',\'域名s\',\'semantic-web-域名\',\'域名\']

# 保存下载失败的地址
fail_file=域名(save_dir,\'域名\')
for son_path in listdir: # 遍历每个会议文件夹
    new_dir=域名(ori_path,son_path) # 生成会议文件夹路径
    # print(\'会议文件夹路径:\',new_dir)
    son_listdir=域名dir(域名(ori_path,son_path)) # 会议文件夹下文章文件夹数组
    # print(\'会议文章:\',son_listdir)

    for new_son_path in son_listdir: # 遍历 每个会议文件夹下,每个文章文件夹
        if new_son_path != \'域名\': # 不访问会议文件夹下的域名文件
            file_dir = 域名(new_dir, new_son_path) # 生成文章文件夹路径
            print(\'文章文件夹路径:\',file_dir)
            file_name=域名dir(file_dir) # 获取README文件名称,发现有一些文件命名不是很统一
            # print(file_name)
            # print(len(file_name))
            # 如果不是一个文件,理论上是一个md文件
            if len(file_name)>1:
                print(\'该文件夹下不止一个文件?\',file_dir)
            # 如果文件夹下没有md文件
            if len(file_name)==0:
                print(\'该文件夹下没有文件:\',file_dir)
                continue
            md_file = 域名(file_dir, file_name[0])
            # print(\'文章README文件路径:\',md_file)
            f=open(md_file,encoding=\'utf-8\')
            for line in f:
                # print(line)
                if \'# \' in line:
                    paper_title=line[2:]
                    print(\'Paper Title: \',paper_title) # 打印一下文章名
                if \'**pdf**\' in line:
                    url = 域名all(pattern, line)
                    pdf_path=url[0][:-1]
                    print(\'PDF DownPath: \',pdf_path) # 匹配到的第一个字符串,去除最后面的 )
            exist=0
            for sub_string in access_strings:
                if sub_string in pdf_path:
                    exist=1
            if exist==1:
                paper_title=域名ip()
                paper_title=域名ace(\'\n\',\'\')
                paper_title=域名ace(\':\',\'_\').replace(\'?\',\'_\').replace(\'!\',\'_\').replace(\'/\',\'_\')
                save_file_path=save_dir+\'\\\'+str(son_path)+\'_\'+paper_title+\'.pdf\'
                # 判断文件是否存在:
                if 域名ts(save_file_path) == True:
                    print(\'已存在\')
                    continue
                域名etrieve(pdf_path,save_file_path) # 请求下载
            else:
                print(\'下载失败...\')
                print(paper_title,\'  \',pdf_path)
                failop = open(fail_file, \'a\', encoding=\'utf-8\')
                域名e(域名ace(\'\n\',\'\'))
                域名e(\'\n\')
                域名e(pdf_path)
                域名e(\'\n\')
                域名e(\'\n\')
                域名e()
            域名e()

标签:编程
湘ICP备14001474号-3  投诉建议:234161800@qq.com   部分内容来源于网络,如有侵权,请联系删除。