scrapy 管理部署的爬虫项目的python类

网友投稿 760 2022-10-11

scrapy 管理部署的爬虫项目的python类

scrapy 管理部署的爬虫项目的python类

这个类可以比较方便的去管理你的爬虫服务

# 测试浏览器弹窗的验证:import requestsfrom urllib import parseimport logginglogging.basicConfig(level=logging.INFO)class ScrapyManager(object): def __init__(self, url, project_name, spider=None, username=None, pwd=None): self.url = url self.project_name = project_name self.spider = spider self.auth = (username, pwd) def start_project(self): """ 爬虫项目启动 :return: """ if not self.spider: raise Exception('未提供爬虫名称!') data = dict( project=self.project_name, spider=self.spider, ) start_url = parse.urljoin(self.url, 'schedule.json') res = requests.post(url=start_url, data=data, auth=self.auth) logging.info(res.text) def del_project(self): """ 项目删除 :return: """ data = dict( project=self.project_name, spider=self.spider, ) start_url = parse.urljoin(self.url, 'delproject.json') res = requests.post(url=start_url, data=data, auth=self.auth) logging.info(res.text) def stop_job(self, job_id): """ 停止任务 :param job_id: 任务id :return: """ data = dict( project=self.project_name, job=job_id, ) start_url = parse.urljoin(self.url, 'cancel.json') res = requests.post(url=start_url, data=data, auth=self.auth) logging.info(res.text)

还有部分api接口没有添加进来,可以参照官方的文档添加.

​​https://scrapyd.readthedocs.io/en/latest/api.html​​

懂得,原来世界如此简单!

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:一个golang的编写的情感分析小程序(golang语法奇葩)
下一篇:swiper - 小程序 自定义轮播 类旋转木马(swiper禁止手动滑动)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~