python 爬虫爬取京东ps4售卖情况
更新时间:2020年12月18日 10:51:45 作者:雾霾王者
这篇文章主要介绍了python 如何用爬虫爬取京东ps4售卖情况,帮助大家更好的利用python爬取自己想要的数据,感兴趣的朋友可以了解下
代码
#!/usr/bin/env python # -*- coding: utf-8 -*- # @File : HtmlParser.py # @Author: 赵路仓 # @Date : 2020/3/17 # @Desc : # @Contact : 398333404@qq.com import json from lxml import etree import requests from bs4 import BeautifulSoup url="https://search.jd.com/Search?keyword=ps4&enc=utf-8&wq=ps4&pvid=cf0158c8664442799c1146a461478c9c" head={ 'authority': 'search.jd.com', 'method': 'GET', 'path': '/s_new.php?keyword=%E6%89%8B%E6%9C%BA&enc=utf-8&qrst=1&rt=1&stop=1&vt=2&wq=%E6%89%8B%E6%9C%BA&cid2=653&cid3=655&page=4&s=84&scrolling=y&log_id=1529828108.22071&tpl=3_M&show_items=7651927,7367120,7056868,7419252,6001239,5934182,4554969,3893501,7421462,6577495,26480543553,7345757,4483120,6176077,6932795,7336429,5963066,5283387,25722468892,7425622,4768461', 'scheme': 'https', 'referer': 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BA&enc=utf-8&qrst=1&rt=1&stop=1&vt=2&wq=%E6%89%8B%E6%9C%BA&cid2=653&cid3=655&page=3&s=58&click=0', 'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36', 'x-requested-with': 'XMLHttpRequest', } def page(page): print("开始") url = "https://search.jd.com/Search?keyword=ps4&enc=utf-8&qrst=1&rt=1&stop=1&vt=1&wq=ps4&page="+page+"&s=181&click=0" r=requests.get(url,timeout=3,headers=head) r.encoding=r.apparent_encoding # print(r.text) b=BeautifulSoup(r.text,"html.parser") #print(b.prettify()) _element = etree.HTML(r.text) datas = _element.xpath('//li[contains(@class,"gl-item")]') print(datas) for data in datas: p_price = data.xpath('div/div[@class="p-price"]/strong/i/text()') p_comment = data.xpath('div/div[5]/strong/a/text()') p_name = data.xpath('div/div[@class="p-name p-name-type-2"]/a/em/text()') p_href = data.xpath('div/div[@class="p-name p-name-type-2"]/a/@href') comment=' '.join(p_comment) name = ' '.join(p_name) price = ' '.join(p_price) href = ' '.join(p_href) print(name,price,p_comment,href) if __name__=="__main__": page("5")
爬取结果
以上就是python 爬虫爬取某东ps4售卖情况的详细内容,更多关于python 爬虫的资料请关注脚本之家其它相关文章!
您可能感兴趣的文章:
- python使用Word2Vec进行情感分析解析
- Python实现购物评论文本情感分析操作【基于中文文本挖掘库snownlp】
- python snownlp情感分析简易demo(分享)
- Python 京东云无线宝消息推送功能
- python基于scrapy爬取京东笔记本电脑数据并进行简单处理和分析
- python pyppeteer 破解京东滑块功能的代码
- Python实现京东抢秒杀功能
- Python之京东商品秒杀的实现示例
- Python基于BeautifulSoup爬取京东商品信息
- 使用 Python 在京东上抢口罩的思路详解
- springboot使用@value读取配置的方法
- 基于Python+Appium实现京东双十一自动领金币功能
- python 爬取京东指定商品评论并进行情感分析
相关文章
python笔记(1) 关于我们应不应该继续学习python
关于Python,如果你要学习,建议大家查看一下网站:因为本人也是刚刚决定收集点零碎时间来学习下它,推荐可能并不是最好的2012-10-10DataFrame 数据合并实现(merge,join,concat)
这篇文章主要介绍了DataFrame 数据合并实现(merge,join,concat),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧2020-06-06
最新评论