爬取微信公众号文章并保存为PDF文件(Python方法)(python读取pdf文件)

网友投稿 2328 2022-10-01

爬取微信公众号文章并保存为PDF文件(Python方法)(python读取pdf文件)

爬取微信公众号文章并保存为PDF文件(Python方法)(python读取pdf文件)

【相关学习推荐:微信公众号开发教程】

前言

第一次写博客,主要内容是爬取微信公众号的文章,将文章以PDF格式保存在本地。

爬取微信公众号文章(使用wechatsogou)

1.安装

pip install wechatsogou --upgrade-

wechatsogou是一个基于搜狗微信搜索的微信公众号爬虫接口

2.使用方法

使用方法如下所示

import wechatsogou# captcha_break_time为验证码输入错误的重试次数,默认为1ws_api = wechatsogou.WechatSogouAPI(captcha_break_time=3)# 公众号名称gzh_name = ''# 将该公众号最近10篇文章信息以字典形式返回data = ws_api.get_gzh_article_by_history(gzh_name)-

data数据结构:

这里需要得到两个信息:文章标题,文章url。

得到文章url以后,就可以根据url将html页面转换成pdf文件了。

生成PDF文件

1.安装wkhtmltopdf

-:https://wkhtmltopdf.org/downloads.html

2.安装pdfkit

pip install pdfkit-

3.使用方法

import pdfkit# 根据url生成pdfpdfkit.from_url('http://baidu.com','out.pdf')# 根据html文件生成pdfpdfkit.from_file('test.html','out.pdf')# 根据html代码生成pdfpdfkit.from_string('Hello!','out.pdf')-

如果直接用上面得到的文章url去生成pdf,会出现pdf文件不显示文章图片的问题。

解决办法:

# 该方法根据文章url对html进行处理,使图片显示content_info = ws_api.get_article_content(url)# 得到html代码(代码不完整,需要加入head、body等标签)html_code = content_info['content_html']-

然后根据html_code构造完整的html代码,调用pdfkit.from_string()方法生成pdf文件,这时候会发现文章中的图片在pdf文件中显示出来了。

完整代码

import osimport pdfkitimport datetimeimport wechatsogou# 初始化APIws_api = wechatsogou.WechatSogouAPI(captcha_break_time=3)def url2pdf(url, title, targetPath): ''' 使用pdfkit生成pdf文件 :param url: 文章url :param title: 文章标题 :param targetPath: 存储pdf文件的路径 ''' try: content_info = ws_api.get_article_content(url) except: return False # 处理后的html html = f''' {title} {title} {content_info['content_html']} ''' try: pdfkit.from_string(html, targetPath + os.path.sep + f'{title}.pdf') except: # 部分文章标题含特殊字符,不能作为文件名 filename = datetime.datetime.now().strftime('%Y%m%d%H%M%S') + '.pdf' pdfkit.from_string(html, targetPath + os.path.sep + filename)if __name__ == '__main__': # 此处为要爬取公众号的名称 gzh_name = '' targetPath = os.getcwd() + os.path.sep + gzh_name # 如果不存在目标文件夹就进行创建 if not os.path.exists(targetPath): os.makedirs(targetPath) # 将该公众号最近10篇文章信息以字典形式返回 data = ws_api.get_gzh_article_by_history(gzh_name) article_list = data['article'] for article in article_list: url = article['content_url'] title = article['title'] url2pdf(url, title, targetPath)-

相关学习推荐:python教程

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Deep Learning based Recommender System: A Survey and New Perspectives (1)
下一篇:mac上用hexo在github上搭建个人博客的过程
相关文章

 发表评论

暂时没有评论,来抢沙发吧~