使用Selenium驱动chrome页面,获得淘宝信息并用BeautifulSoup分析得到结果。
使用Selenium时注意页面的加载判断,以及加载超时的异常处理。
import json
import re
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.common.exceptions import TimeoutException
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
browser = webdriver.Chrome()
# 浏览器需要多次使用,所以单独拿出来。设置一个最长的等待时间,等待目标加载完成
wait = WebDriverWait(browser, 10)
def search(keyword):
# wait容易出现加载时间长的问题,因此用try来捕捉异常
try:
browser.get('https://www.taobao.com')
# 加载需要一定时间的,设置了等待时间,等待加载
# 输入按钮的加载等待
input = wait.until(
# 设置加载目标,它是一个选择器,参数是需要选择方式和等待加载的内容
EC.presence_of_element_located((By.CSS_SELECTOR, "#q")) # 选择CSS选择器和选择内容
)
# 提交按钮
submit = wait.until(
# EC后面是选择条件,按钮的加载条件最好的是element_to_be_clickable,意思为元素可以点击的
EC.element_to_be_clickable((By.CSS_SELECTOR, "#J_TSearchForm > div.search-button > button"))
)
input.send_keys(keyword) # send_keys对输入框输入内容
submit.click() # 提交搜索内容,进入下一个页面
# 等待页码元素加载完成,并返回最大页码数
total = wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.total"))
)
# 等待加载完成后获取信息
get_products()
return total.text
except TimeoutException:
# 超时后重新请求,因此递归调用
return search()
def next_page(page_number):
try:
# 页码输入框和翻页按钮
input = wait.until(
EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > input"))
)
# 提交按钮
submit = wait.until(
EC.element_to_be_clickable(
(By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit"))
)
input.clear()
input.send_keys(page_number)
submit.click()
# 判断翻页成功
wait.until(
EC.text_to_be_present_in_element((By.CSS_SELECTOR,
'#mainsrp-pager > div > div > div > ul > li.item.active > span'),
str(page_number)))
get_products()
except TimeoutException:
return next_page(page_number)
def get_products():
# 判断单个页面是否被加载出来
wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-itemlist .items .item')))
html = browser.page_source # 获取页面源代码,所有的
# 使用BS进行分析
soup = BeautifulSoup(html, 'lxml')
items = soup.select('#mainsrp-itemlist .items .item')
for item in items:
image = item.select('.pic .img')[0]['data-src']
price = item.select('.price strong')[0].text
deal = item.select('.deal-cnt')[0].text[:-3]
title = item.select('.title')[0].text.strip()
shop = item.select('.shop')[0].text.strip()
location = item.select('.location')[0].text
product = {
'image': image,
'price': price,
'deal': deal,
'title': title,
'shop': shop,
'location': location
}
save_text(product) # 下载内容
def save_text(product):
# 保存为txt文件,a追加写模式,编码模式utf-8
with open('text.txt', 'a', encoding='utf-8') as f:
# 使用JSON把字典转换为str格式,加换行符
f.write(json.dumps(product, ensure_ascii=False) + '\n')
f.close()
def main():
# 通过关键字在淘宝进行搜索
total = search('美食')
# 用正则提取页码数字
total = int(re.compile('(\d+)').search(total).group(1))
# 翻页
for i in range(2, total+1): # 循环包含前,不包含尾
next_page(i)
browser.close()
if __name__ == '__main__':
main()
更多内容请参考专题《python爬取功能汇总》进行学习。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
白云城资源网 Copyright www.dyhadc.com
暂无“Python使用Selenium+BeautifulSoup爬取淘宝搜索页”评论...
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
2025年11月11日
2025年11月11日
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]