对python抓取需要登录网站数据的方法详解

 更新时间:2018年05月21日 10:19:54   作者:wppkind  
今天小编就为大家分享一篇对python抓取需要登录网站数据的方法详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

scrapy.FormRequest

login.py

class LoginSpider(scrapy.Spider):
 name = 'login_spider'
 start_urls = ['http://www.login.com']
 def parse(self, response):
  return [
   scrapy.FormRequest.from_response(
     response,
     # username和password要根据实际页面的表单的name字段进行修改
     formdata={'username': 'your_username', 'password': 'your_password'},
     callback=self.after_login)]
 def after_login(self, response):
  # 登录后的代码
  pass

selenium登录获取cookie

get_cookie_by_selenium.py

import pickle
import time
from selenium import webdriver
def get_cookies():
 url = 'https://www.test.com'
 web_driver = webdriver.Chrome()
 web_driver.get(url)
 username = web_driver.find_element_by_id('login-email')
 username.send_keys('username')
 password = web_driver.find_element_by_id('login-password')
 password.send_keys('password')
 login_button = web_driver.find_element_by_id('login-submit')
 login_button.click()
 time.sleep(3)
 cookies = web_driver.get_cookies()
 web_driver.close()
 return cookies
if __name__ == '__main__':
 cookies = get_cookies()
 pickle.dump(cookies, open('cookies.pkl', 'wb'))

获取浏览器cookie(以Ubuntu的Firefox为例)

get_cookie_by_firefox.py

import sqlite3
import pickle
def get_cookie_by_firefox():
 cookie_path = '/home/name/.mozilla/firefox/bqtvfe08.default/cookies.sqlite'
 with sqlite3.connect(cookie_path) as conn:
  sql = 'select name,value from moz_cookies where baseDomain="test.com"'
  cur = conn.cursor()
  cookies = [{'name': name, 'value': value} for name, value in cur.execute(sql).fetchall()]
  return cookies
if __name__ == '__main__':
 cookies = get_cookie_from_firefox()
 pickle.dump(cookies, open('cookies.pkl', 'wb'))

scrapy使用获取后的cookie

cookies = pickle.load(open('cookies.pkl', 'rb'))
yield scrapy.Request(url, cookies=cookies, callback=self.parse)

requests使用获取后的cookie

cookies = pickle.load(open('cookies.pkl', 'rb'))
s = requests.Session()
for cookie in cookies:
 s.cookies.set(cookie['name'], cookie['value'])

selenium使用获取后的cookie

from selenium import webdriver
cookies = pickle.load(open('cookies.pkl', 'rb'))
w = webdriver.Chrome()
# 直接添加cookie会报错,下面是一种解决方案,可能有更好的
# -- start --
w.get('http://www.test.com')
w.delete_all_cookies()
# -- end --
for cookie in cookies:
 w.add_cookie(cookie)

以上这篇对python抓取需要登录网站数据的方法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • python中的netCDF4批量处理NC文件的操作方法

    python中的netCDF4批量处理NC文件的操作方法

    这篇文章主要介绍了python的netCDF4批量处理NC格式文件的操作方法,使用python批量提取所有数据,查看数据属性,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2022-03-03
  • python 定时器每天就执行一次的实现代码

    python 定时器每天就执行一次的实现代码

    这篇文章主要介绍了python 定时器每天就执行一次的实现代码,代码简单易懂非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下
    2019-08-08
  • Pycharm安装第三方库时Non-zero exit code错误解决办法

    Pycharm安装第三方库时Non-zero exit code错误解决办法

    这篇文章主要介绍了Pycharm安装第三方库时Non-zero exit code错误解决办法,最好的解决办法可以通过“Pycharm”左下角的“Terminal”,在pycharm内使用pip安装,以安装“requests”为例,需要的朋友可以参考下
    2023-01-01
  • python代码过长的换行方法

    python代码过长的换行方法

    今天小编就为大家分享一篇python代码过长的换行方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-07-07
  • Python通过调用有道翻译api实现翻译功能示例

    Python通过调用有道翻译api实现翻译功能示例

    这篇文章主要介绍了Python通过调用有道翻译api实现翻译功能,结合实例形式分析了基于Python实现的有道翻译api调用相关操作技巧,需要的朋友可以参考下
    2018-07-07
  • python自动安装pip

    python自动安装pip

    这篇文章主要介绍了python自动安装pip的示例,需要的朋友可以参考下
    2014-04-04
  • Python高效处理大文件的方法详解

    Python高效处理大文件的方法详解

    在这篇文章中,我们将学习如何使用multiprocessing、joblib和tqdm Python包减少大文件的处理时间。这是一个简单的教程,可以适用于任何文件、数据库、图像、视频和音频,感兴趣的可以了解一下
    2022-07-07
  • 基于python判断目录或者文件代码实例

    基于python判断目录或者文件代码实例

    这篇文章主要介绍了基于python判断目录或者文件代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-11-11
  • python 利用Pyinstaller打包Web项目

    python 利用Pyinstaller打包Web项目

    这篇文章主要介绍了python 利用Pyinstaller打包Web项目,帮助大家更好的理解和使用python,感兴趣的朋友可以了解下
    2020-10-10
  • python实现日常记账本小程序

    python实现日常记账本小程序

    这篇文章主要为大家详细介绍了python实现日常记账本小程序,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2018-03-03

最新评论