在数字化转型的浪潮下,小程序游戏如何成为企业吸引年轻用户的重要工具?
596
2022-09-09
day02_Requests模块
1、anaconda的安装
1.1 、安装可执行程序
1.2 、配置环境变量
根据环境变量的先后顺序去查找可执行程序文件,如果查找到就执行,如果查找不到就报错。
anaconda主要配置:
python.exe
pip.exe
1.3 、python的多版本兼容问题
修改可执行程序的文件名,再配置环境变量
1.4 、hash案例
import hashlib
def md5_encryption(value):
"""
对字符串进行加密
:param value:待加密的字符串
:return:进行md5加密后的值
"""
md5 = hashlib.md5()
md5.update(value.encode('utf-8'))
return md5.hexdigest()
2、requests模块
2.1、get 请求
(1)、使用步骤
import requests # 1、导包
response = requests.get(url) # 2、发送请求,获取响应
response.text# 3、获取响应内容
(2)、get请求详细参数
requests.get(
url=url, # 请求的url
headers=headers # 请求头【字典】
params=params # 请求参数【字典】
)
# 返回一个response对象
(3)、response对象的属性
获取响应正文的内容
response.text :获取字符串格式的响应正文内容
response.content:获取二进制格式的响应正文内容
获取响应正文的编码类型:response.encoding
之所以能够通过response.text获取响应内容的字符串,是因为requests底层使用response.encoding来将正文的二进制类型变成字符串的。
其他
response.status_code:状态码
response.headers:响应头
response.url:完整url
乱码问题的解决办法
产生乱码的原因就编解码时不一致,可以通过以下两种方法解决:
a、response.content.decode('页面对应的编码格式')
b、response.encoding='页面正确的编码',然后通过response.text就能获取正确的页面内容
get请求案例
案例一:将百度贴吧的前10页保存到本地
import requests
import os
base_url = 'http://tieba.baidu.com/f?'
kw = '刘亦菲' # 搜索的关键词
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',
}
filename = './tieba/' + kw # 爬取的网页存放路径
if not os.path.exists(filename):
# 如果不存在存放该网页的目录,就创建此目录
os.mkdir(filename)
# 将网页的前10页保存到本地
for i in range(10):
params = {
'kw': kw,
'ie': 'utf-8',
'pn': i*50
}
response= requests.get(url=base_url, headers=headers, params=params)
with open(filename+'/'+kw+str(i+1)+'.html', 'w', encoding='utf-8') as f:
f.write(response.text)
案例二:百度翻译
import requests
base_url = 'https://fanyi.baidu.com/sug/'
kw = 'product'
data = {
'kw': kw
}
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',
'x-requested-with': 'XMLHttpRequest',
'cookie': cookie;
'origin': 'https://fanyi.baidu.com',
'referer': 'https://fanyi.baidu.com/',
'content-length': str(len(str(data))), # 参数内容中所有所有字符的长度
}
response = requests.post(url=base_url, headers=headers, data=data)
# 如果response的内容是json数据,可以通过reponse.json()直接获取json数据,返回的是一个字典或者list
json_data = response.json()
res = ''
for data in json_data['data']:
res += data['v'] + '\n'
print(res)
2.2、 post请求
(1)、post请求详细参数
requests.get(
url=url, # 请求的url
headers=headers # 请求头【字典】
data=data # 请求参数【字典】
)
# 返回一个response对象
通常很多网页是通过Ajax发送post请求获取数据,此时需要找发送Ajax请求携带的数据,也就是请求参数。
找请求参数有三种方法:
查看这条ajax接口之前有没有发送过一些ajax接口,如果有,可能这些接口的其中一个的响应内容里面包含这个接口的数据。
有可能这个请求参数写死到页面中的。一般这种情况出现在滚动加载的第一版数据的获取,有可能这么做。
在js文件中去寻找参数。
案例一:有道翻译
import requests
import hashlib
import time
import random
base_url = 'http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule'
kw = 'run'
def get_md5(value):
md5 = hashlib.md5()
md5.update(value.encode('utf-8'))
return md5.hexdigest()
"""
由于salt、sign和ts这3个参数由fanyi.js文件中js动态生成的
因此在发送post请求前,需要去动态地生成它们的值
salt = "" + (new Date).getTime() + parseInt(10 * Math.random(), 10)
ts = "" + (new Date).getTime()
sign = n.md5("fanyideskweb" + e + salt + "n%A-rKaT5fb[Gy?;N5@Tj")
"""
salt = str(int(time.time() * 1000)) + str(random.randint(1, 10))
sign = get_md5("fanyideskweb" + kw + salt + "n%A-rKaT5fb[Gy?;N5@Tj")
ts = str(int(time.time() * 1000))
data = {
'i': kw,
'from': 'AUTO',
'to': 'AUTO',
'smartresult': 'dict',
'client': 'fanyideskweb',
'salt': salt,
'sign': sign,
'ts': ts,
'bv': '710f3e24cb0088b9d9ea448919deb3bb',
'doctype': 'json',
'version': '2.1',
'keyfrom': 'fanyi.web',
'action': 'FY_BY_REALTlME'
}
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',
'X-Requested-With': 'XMLHttpRequest',
'Origin': 'http://fanyi.youdao.com',
'Referer': 'http://fanyi.youdao.com/',
'Cookie': 'OUTFOX_SEARCH_USER_ID_NCOO=1291930369.870429; _ga=GA1.2.27463077.1574943185; _gid=GA1.2.609141079.1574943185; OUTFOX_SEARCH_USER_ID="10809467@10.108.160.18"; JSESSIONID=aaa7W8E0vjuZ-5hRbD26w; ___rl__test__cookies=1575019115684',
'Content-Length': str(len(str(data))),
}
response = requests.post(url=base_url, headers=headers, data=data)
json_data = response.json()
res = ''
for data in json_data['smartResult']['entries']:
res += data
print(res)
2.3、Cookies 和 Session
Cookies
如果一个响应中包含了cookie,那么我们可以利用 cookies参数拿到:
import requests
base_url = "https://baidu.com"
response = requests.get(url=base_url)
# 返回CookieJar对象:
cookiejar = response.cookies # 返回CookieJar对象
print(cookiejar)
# 将CookieJar转为字典:
cookiedict = requests.utils.dict_from_cookiejar(cookiejar)
print(cookiedict)
运行结果:
{'BDORZ': '27315'}
Session
在 requests 里,session对象是一个非常常用的对象,这个对象代表一次用户会话:从客户端浏览器连接服务器开始,到客户端浏览器与服务器断开。
会话能让我们在跨请求时候保持某些参数,比如在同一个 Session 实例发出的所有请求之间保持 cookie 。
实现人人网登录
import requests
# 1、创建session对象,可以保存cookie值
se = requests.session()
# 2、处理 headers
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',
}
# 3、需要登录的用户名和密码
data = {
'email':'用户名',
'password':'密码'
}
# 4、发送附带用户名和密码的请求,并获取登录后的Cookie值,保存在ssion里
se.post("http://renren.com/PLogin.do", data=data, headers=headers)
# 5、se中包含用户登录后的Cookie值,可以直接访问那些登录后才可以访问的页面
response = se.get("http://renren.com/410043129/profile")
if '用户名' in response.text:
print(response)
print('登录成功!')
else:
print('登录失败')
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~