当前位置:主页 > 查看内容

Python爬虫:手把手教你采集登陆后才能看到数据

发布时间:2021-10-17 00:00| 位朋友查看

简介:爬虫在采集网站的过程中,部分数据价值较高的网站,会限制访客的访问行为。这种时候建议通过登录的方式,获取目标网站的cookie,然后再使用cookie配合代理IP进行数据采集分析。 1 使用表单登陆 这种情况属于post请求,即先向服务器发送表单数据,服务器再将……

爬虫在采集网站的过程中,部分数据价值较高的网站,会限制访客的访问行为。这种时候建议通过登录的方式,获取目标网站的cookie,然后再使用cookie配合代理IP进行数据采集分析。

1 使用表单登陆

这种情况属于post请求,即先向服务器发送表单数据,服务器再将返回的cookie存入本地。

  1. #! -*- encoding:utf-8 -*- 
  2.  
  3. import requests 
  4.  
  5. import random 
  6.  
  7. import requests.adapters 
  8.  
  9.  
  10.  
  11. # 要访问的目标页面 
  12.  
  13. targetUrlList = [ 
  14.  
  15.     "https://httpbin.org/ip"
  16.  
  17.     "https://httpbin.org/headers"
  18.  
  19.     "https://httpbin.org/user-agent"
  20.  
  21.  
  22.  
  23.  
  24. # 代理服务器(产品官网 www.16yun.cn) 
  25.  
  26. proxyHost = "t.16yun.cn" 
  27.  
  28. proxyPort = "31111" 
  29.  
  30.  
  31.  
  32. # 代理隧道验证信息 
  33.  
  34. proxyUser = "username" 
  35.  
  36. proxyPass = "password" 
  37.  
  38.  
  39.  
  40. proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % { 
  41.  
  42.     "host": proxyHost, 
  43.  
  44.     "port": proxyPort, 
  45.  
  46.     "user": proxyUser, 
  47.  
  48.     "pass": proxyPass, 
  49.  
  50.  
  51.  
  52.  
  53. # 设置 http和https访问都是用HTTP代理 
  54.  
  55. proxies = { 
  56.  
  57.     "http": proxyMeta, 
  58.  
  59.     "https": proxyMeta, 
  60.  
  61.  
  62.  
  63.  
  64. # 访问三次网站,使用相同的Session(keep-alive),均能够保持相同的外网IP 
  65.  
  66. s = requests.session() 
  67.  
  68.  
  69.  
  70. # 设置cookie 
  71.  
  72. cookie_dict = {"JSESSION":"123456789"
  73.  
  74. cookies = requests.utils.cookiejar_from_dict(cookie_dict, cookiejar=None, overwrite=True
  75.  
  76. s.cookies = cookies 
  77.  
  78.  
  79.  
  80. for i in range(3): 
  81.  
  82.     for url in targetUrlList: 
  83.  
  84.         r = s.get(url, proxies=proxies) 
  85.  
  86.         print r.text 

2 使用cookie登陆

使用cookie登陆,服务器会认为你是一个已登陆的用户,所以就会返回给你一个已登陆的内容。因此,需要验证码的情况可以使用带验证码登陆的cookie解决。

  1. response_captcha = requests_session.get(url=url_login, cookies=cookies) 
  2.   
  3. response1 = requests.get(url_login) # 未登陆 
  4.   
  5. response2 = requests_session.get(url_login) # 已登陆,因为之前拿到了Response Cookie! 
  6.   
  7. response3 = requests_session.get(url_results) # 已登陆,因为之前拿到了Response Cookie! 

若存在验证码,此时采用response = requests_session.post(url=url_login, data=data)是不行的,做法应该如下:

  1. response_captcha = requests_session.get(url=url_login, cookies=cookies) 
  2.   
  3. response1 = requests.get(url_login) # 未登陆 
  4.   
  5. response2 = requests_session.get(url_login) # 已登陆,因为之前拿到了Response Cookie! 
  6.   
  7. response3 = requests_session.get(url_results) # 已登陆,因为之前拿到了Response Cookie! 
  8.   

本文转载自网络,原文链接:https://www.toutiao.com/i6893030935164355075/
本站部分内容转载于网络,版权归原作者所有,转载之目的在于传播更多优秀技术内容,如有侵权请联系QQ/微信:153890879删除,谢谢!
上一篇:看完Redis源码还不理解跳跃表吗? 下一篇:没有了

推荐图文


随机推荐