本文为大家分享了Python爬虫包BeautifulSoup学习实例,具体内容如下
BeautifulSoup
使用BeautifulSoup抓取豆瓣电影的一些信息。
# -*- coding: utf-8 -*- # @Author: HaonanWu # @Date: 2016-12-24 16:18:01 # @Last Modified by: HaonanWu # @Last Modified time: 2016-12-24 17:25:33 import urllib2 import json from bs4 import BeautifulSoup def nowplaying_movies(url): user_agent = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36' headers = {'User-Agent':user_agent} request = urllib2.Request(url = url, headers = headers) response = urllib2.urlopen(request) soup_packetpage = BeautifulSoup(response, 'lxml') items = soup_packetpage.findAll("li", class_="list-item") # items = soup_packetpage.findAll("li", {"class" : "list-item"}) 等价写法 movies = [] for item in items: if item.attrs['data-category'] == 'nowplaying': movie = {} movie['title'] = item.attrs['data-title'] movie['score'] = item.attrs['data-score'] movie['director'] = item.attrs['data-director'] movie['actors'] = item.attrs['data-actors'] movies.append(movie) print('%(title)s|%(score)s|%(director)s|%(actors)s' % movie) return movies if __name__ == '__main__': url = 'https://movie.douban.com/nowplaying/beijing/' movies = nowplaying_movies(url) print('%s' % json.dumps(movies, sort_keys=True, indent=4, separators=(',', ': ')))
HTMLParser
使用HTMLParser实现上述功能
这里有一些HTMLParser的基础教程
由于HtmlParser自2006年以后就再没更新,目前很多人推荐使用jsoup代替它。
# -*- coding: utf-8 -*- # @Author: HaonanWu # @Date: 2016-12-24 15:57:54 # @Last Modified by: HaonanWu # @Last Modified time: 2016-12-24 17:03:27 from HTMLParser import HTMLParser import urllib2 import json class MovieParser(HTMLParser): def __init__(self): HTMLParser.__init__(self) self.movies = [] def handle_starttag(self, tag, attrs): def _attr(attrlist, attrname): for attr in attrlist: if attr[0] == attrname: return attr[1] return None if tag == 'li' and _attr(attrs, 'data-title') and _attr(attrs, 'data-category') == 'nowplaying': movie = {} movie['title'] = _attr(attrs, 'data-title') movie['score'] = _attr(attrs, 'data-score') movie['director'] = _attr(attrs, 'data-director') movie['actors'] = _attr(attrs, 'data-actors') self.movies.append(movie) print('%(title)s|%(score)s|%(director)s|%(actors)s' % movie) def nowplaying_movies(url): headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36'} req = urllib2.Request(url, headers=headers) s = urllib2.urlopen(req) parser = MovieParser() parser.feed(s.read()) s.close() return parser.movies if __name__ == '__main__': url = 'https://movie.douban.com/nowplaying/beijing/' movies = nowplaying_movies(url) print('%s' % json.dumps(movies, sort_keys=True, indent=4, separators=(',', ': ')))
以上全部为本篇文章的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
白云城资源网 Copyright www.dyhadc.com
暂无“Python爬虫包BeautifulSoup学习实例(五)”评论...
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
2025年04月29日
2025年04月29日
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]