day02_Requests模块

网友投稿 582 2022-09-09

day02_Requests模块

day02_Requests模块

1、anaconda的安装

1.1 、安装可执行程序

1.2 、配置环境变量

​ 根据环境变量的先后顺序去查找可执行程序文件,如果查找到就执行,如果查找不到就报错。

​ anaconda主要配置:

​ python.exe

​ pip.exe

1.3 、python的多版本兼容问题

​ 修改可执行程序的文件名,再配置环境变量

1.4 、hash案例

import hashlib

def md5_encryption(value):

"""

对字符串进行加密

:param value:待加密的字符串

:return:进行md5加密后的值

"""

md5 = hashlib.md5()

md5.update(value.encode('utf-8'))

return md5.hexdigest()

2、requests模块

2.1、get 请求

(1)、使用步骤

import requests # 1、导包

response = requests.get(url) # 2、发送请求,获取响应

response.text# 3、获取响应内容

(2)、get请求详细参数

requests.get(

url=url, # 请求的url

headers=headers # 请求头【字典】

params=params # 请求参数【字典】

)

# 返回一个response对象

(3)、response对象的属性

获取响应正文的内容

response.text :获取字符串格式的响应正文内容

response.content:获取二进制格式的响应正文内容

获取响应正文的编码类型:response.encoding

之所以能够通过response.text获取响应内容的字符串,是因为requests底层使用response.encoding来将正文的二进制类型变成字符串的。

其他

response.status_code:状态码

response.headers:响应头

response.url:完整url

乱码问题的解决办法

产生乱码的原因就编解码时不一致,可以通过以下两种方法解决:

a、response.content.decode('页面对应的编码格式')

b、response.encoding='页面正确的编码',然后通过response.text就能获取正确的页面内容

get请求案例

案例一:将百度贴吧的前10页保存到本地

import requests

import os

base_url = 'http://tieba.baidu.com/f?'

kw = '刘亦菲' # 搜索的关键词

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',

}

filename = './tieba/' + kw # 爬取的网页存放路径

if not os.path.exists(filename):

# 如果不存在存放该网页的目录,就创建此目录

os.mkdir(filename)

# 将网页的前10页保存到本地

for i in range(10):

params = {

'kw': kw,

'ie': 'utf-8',

'pn': i*50

}

response= requests.get(url=base_url, headers=headers, params=params)

with open(filename+'/'+kw+str(i+1)+'.html', 'w', encoding='utf-8') as f:

f.write(response.text)

​ 案例二:百度翻译

import requests

base_url = 'https://fanyi.baidu.com/sug/'

kw = 'product'

data = {

'kw': kw

}

headers = {

'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',

'x-requested-with': 'XMLHttpRequest',

'cookie': cookie;

'origin': 'https://fanyi.baidu.com',

'referer': 'https://fanyi.baidu.com/',

'content-length': str(len(str(data))), # 参数内容中所有所有字符的长度

}

response = requests.post(url=base_url, headers=headers, data=data)

# 如果response的内容是json数据,可以通过reponse.json()直接获取json数据,返回的是一个字典或者list

json_data = response.json()

res = ''

for data in json_data['data']:

res += data['v'] + '\n'

print(res)

2.2、 post请求

(1)、post请求详细参数

requests.get(

url=url, # 请求的url

headers=headers # 请求头【字典】

data=data # 请求参数【字典】

)

# 返回一个response对象

通常很多网页是通过Ajax发送post请求获取数据,此时需要找发送Ajax请求携带的数据,也就是请求参数。

找请求参数有三种方法:

查看这条ajax接口之前有没有发送过一些ajax接口,如果有,可能这些接口的其中一个的响应内容里面包含这个接口的数据。

有可能这个请求参数写死到页面中的。一般这种情况出现在滚动加载的第一版数据的获取,有可能这么做。

在js文件中去寻找参数。

案例一:有道翻译

import requests

import hashlib

import time

import random

base_url = 'http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule'

kw = 'run'

def get_md5(value):

md5 = hashlib.md5()

md5.update(value.encode('utf-8'))

return md5.hexdigest()

"""

由于salt、sign和ts这3个参数由fanyi.js文件中js动态生成的

因此在发送post请求前,需要去动态地生成它们的值

salt = "" + (new Date).getTime() + parseInt(10 * Math.random(), 10)

ts = "" + (new Date).getTime()

sign = n.md5("fanyideskweb" + e + salt + "n%A-rKaT5fb[Gy?;N5@Tj")

"""

salt = str(int(time.time() * 1000)) + str(random.randint(1, 10))

sign = get_md5("fanyideskweb" + kw + salt + "n%A-rKaT5fb[Gy?;N5@Tj")

ts = str(int(time.time() * 1000))

data = {

'i': kw,

'from': 'AUTO',

'to': 'AUTO',

'smartresult': 'dict',

'client': 'fanyideskweb',

'salt': salt,

'sign': sign,

'ts': ts,

'bv': '710f3e24cb0088b9d9ea448919deb3bb',

'doctype': 'json',

'version': '2.1',

'keyfrom': 'fanyi.web',

'action': 'FY_BY_REALTlME'

}

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',

'X-Requested-With': 'XMLHttpRequest',

'Origin': 'http://fanyi.youdao.com',

'Referer': 'http://fanyi.youdao.com/',

'Cookie': 'OUTFOX_SEARCH_USER_ID_NCOO=1291930369.870429; _ga=GA1.2.27463077.1574943185; _gid=GA1.2.609141079.1574943185; OUTFOX_SEARCH_USER_ID="10809467@10.108.160.18"; JSESSIONID=aaa7W8E0vjuZ-5hRbD26w; ___rl__test__cookies=1575019115684',

'Content-Length': str(len(str(data))),

}

response = requests.post(url=base_url, headers=headers, data=data)

json_data = response.json()

res = ''

for data in json_data['smartResult']['entries']:

res += data

print(res)

2.3、Cookies 和 Session

Cookies

如果一个响应中包含了cookie,那么我们可以利用 cookies参数拿到:

import requests

base_url = "https://baidu.com"

response = requests.get(url=base_url)

# 返回CookieJar对象:

cookiejar = response.cookies # 返回CookieJar对象

print(cookiejar)

# 将CookieJar转为字典:

cookiedict = requests.utils.dict_from_cookiejar(cookiejar)

print(cookiedict)

运行结果:

]>

{'BDORZ': '27315'}

Session

在 requests 里,session对象是一个非常常用的对象,这个对象代表一次用户会话:从客户端浏览器连接服务器开始,到客户端浏览器与服务器断开。

会话能让我们在跨请求时候保持某些参数,比如在同一个 Session 实例发出的所有请求之间保持 cookie 。

实现人人网登录

import requests

# 1、创建session对象,可以保存cookie值

se = requests.session()

# 2、处理 headers

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',

}

# 3、需要登录的用户名和密码

data = {

'email':'用户名',

'password':'密码'

}

# 4、发送附带用户名和密码的请求,并获取登录后的Cookie值,保存在ssion里

se.post("http://renren.com/PLogin.do", data=data, headers=headers)

# 5、se中包含用户登录后的Cookie值,可以直接访问那些登录后才可以访问的页面

response = se.get("http://renren.com/410043129/profile")

if '用户名' in response.text:

print(response)

print('登录成功!')

else:

print('登录失败')

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:win10打开凭据管理器提示0x800706BA
下一篇:分享一些我的远程办公经验
相关文章

 发表评论

暂时没有评论,来抢沙发吧~