python自动保存百度盘资源到百度盘中的实例代码

 更新时间:2019年08月26日 10:13:45   作者:小贝书屋  
这篇文章主要介绍了python自动保存百度盘资源到百度盘中的实例代码,代码简单易懂,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下

本实例的实现逻辑是,应用selenium UI自动化登录百度盘,读取存储百度分享地址和提取码的txt文档,打开百度盘分享地址,填入提取码,然后保存到指定的目录中

全部代码如下:

# -*-coding:utf8-*-
# encoding:utf-8
import time
from selenium import webdriver
browser = webdriver.Chrome()
def loginphont():
 browser.get("https://pan.baidu.com/")#打开链接
 browser.maximize_window()
 browser.find_element_by_id("TANGRAM__PSP_4__footerULoginBtn").click()
 browser.find_element_by_id("TANGRAM__PSP_4__userName").send_keys("百度盘账号")
 browser.find_element_by_id("TANGRAM__PSP_4__password").send_keys("百度盘密码")
 browser.find_element_by_id("TANGRAM__PSP_4__submit").click()
 time.sleep(3)
 browser.find_element_by_id("TANGRAM__23__button_send_mobile").click()#发送验证码
 time.sleep(20)
loginphont()
def keep():
 for line in open('C:\\Users\\Beckham\\Desktop\\python\\1.txt'):#循环读取百度地址和提取码
  address = line[0:47]#分离出百度盘地址
  code = line[47:51]#分割出提取码
  browser.get(address)#打开链接
  browser.find_element_by_id("ksrmwk1v").send_keys(code)#输入提取码
  time.sleep(2)
  browser.find_element_by_xpath("//span[contains(text(),'提取文件')]").click()
  time.sleep(2)
  browser.find_element_by_xpath("//span[contains(text(),'保存到网盘')]").click()
  time.sleep(2)
  browser.find_element_by_xpath("//span[contains(text(),'存储文件目录')]").click()
  time.sleep(2)
  browser.find_element_by_xpath("//span[contains(text(),'确定')]").click()
  time.sleep(5)
keep()
def over():
 print("game over")
over()

百度盘资源的链接和提取码的爬取来源请参考这一实例:https://www.jb51.net/article/168449.htm

爬取后生成的txt文档如下图

每一条数据的后4位为提取码,其余前面的内容为百度分享链接,所以有了下面的步骤,分离出分享地址和提取码

for line in open('C:\\Users\\Beckham\\Desktop\\python\\1.txt'):#循环读取百度地址和提取码
  address = line[0:47]#分离出百度盘地址
  code = line[47:51]#分割出提取码
  browser.get(address)#打开链接

过程,步骤都相对简单,就不用每一步都讲解拉

总结

以上所述是小编给大家介绍的python自动保存百度盘资源到百度盘中的实例代码,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对脚本之家网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!

相关文章

  • python爬虫入门教程--HTML文本的解析库BeautifulSoup(四)

    python爬虫入门教程--HTML文本的解析库BeautifulSoup(四)

    Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据。下面这篇文章主要给大家介绍了python爬虫之HTML文本的解析库BeautifulSoup的相关资料,文中介绍的非常详细,对大家具有一定的参考学习价值,需要的朋友们下面来一起看看吧。
    2017-05-05
  • Python实现base64编码

    Python实现base64编码

    这篇文章介绍了Python实现base64编码的方法,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2022-06-06
  • python实现大文件分割与合并

    python实现大文件分割与合并

    这篇文章主要为大家详细介绍了python实现大文件分割与合并,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2019-07-07
  • Python+wxPython实现文件内容搜索工具

    Python+wxPython实现文件内容搜索工具

    在本篇文章中,我们将介绍如何使用 wxPython 库创建一个简单的文件搜索工具,文中的示例代码讲解详细,具有一定的学习价值,感兴趣的小伙伴可以了解一下
    2023-08-08
  • Python Sweetviz轻松实现探索性数据分析

    Python Sweetviz轻松实现探索性数据分析

    Sweetviz是一个开放源代码Python库,可生成精美的高密度可视化文件,以单行代码启动EDA(探索性数据分析)。输出是一个完全独立的HTML应用程序,该系统围绕快速可视化目标值和比较数据集而构建。其目标是帮助快速分析目标特征,训练与测试数据以及其他此类数据表征任务
    2021-11-11
  • 对numpy 数组和矩阵的乘法的进一步理解

    对numpy 数组和矩阵的乘法的进一步理解

    下面小编就为大家分享一篇对numpy 数组和矩阵的乘法的进一步理解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-04-04
  • 使用Django2快速开发Web项目的详细步骤

    使用Django2快速开发Web项目的详细步骤

    这篇文章主要介绍了使用Django2快速开发Web项目的详细步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2019-01-01
  • python复制列表时[:]和[::]之间有什么区别

    python复制列表时[:]和[::]之间有什么区别

    这篇文章主要给大家介绍了关于python复制列表时[:]和[::]之间有什么区别的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2018-10-10
  • AMP Tensor Cores节省内存PyTorch模型详解

    AMP Tensor Cores节省内存PyTorch模型详解

    这篇文章主要为大家介绍了AMP Tensor Cores节省内存PyTorch模型详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2022-10-10
  • 详解pycharm配置python解释器的问题

    详解pycharm配置python解释器的问题

    这篇文章主要介绍了安装好Pycharm后如何配置Python解释器简易教程,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-10-10

最新评论