Python爬豆瓣電影實例
文件結(jié)構(gòu)

html_downloader.py - 下載網(wǎng)頁html內(nèi)容
#!/usr/bin/python
# -*- coding: UTF-8 -*-
import urllib2
class HtmlDownloader(object):
def downlod(self, url):
if url is None:
return None
response = urllib2.urlopen(url)
if response.getcode() != 200:
return None
return response.read()
html_outputer.py - 輸出結(jié)果到文件中
#!/usr/bin/python
# -*- coding: UTF-8 -*-
class HtmlOutputer(object):
def collect_data(self, movie_data):
if movie_data is None:
return
fout = open('output.html', 'a+')
for data in movie_data:
print data['name'] + '|', data['rate'] + '|', data['actor'], '\n'
fout.write('%s,' % data['name'].encode('utf-8'))
fout.write('%s,' % data['rate'])
fout.write('%s\n' % data['actor'].encode('utf-8'))
fout.close()
html_parser.py: 解析器:解析html的dom樹
#!/usr/bin/python
# -*- coding: UTF-8 -*-
from bs4 import BeautifulSoup
class HtmlParser(object):
def __init__(self):
pass
def parser_html(self, cnt):
if cnt is None:
return
soup = BeautifulSoup(cnt, 'html.parser', from_encoding='utf-8')
# movie_name, movie_desc, movie_rate =
return self.get_movie_names(soup)
def get_movie_names(self, soup):
movie_data = []
movie_all = soup.find('div', class_='article').find_next('table').find_next_sibling('div').find_next_sibling('div').find_all('table')
count = 1
for movie_one in movie_all:
movie_data.append(self.get_movie_name(movie_one))
# if count > 2:
# break
count += 1
return movie_data
def get_movie_name(self, cnt):
info = {}
soup = BeautifulSoup(str(cnt), 'html.parser', from_encoding='utf-8')
movie_one = soup.find('tr', class_='item').find_next('td').find_next_sibling('td').find('div', class_='pl2')
info['name'] = movie_one.find('a').get_text().replace("\n", "").replace(" ", "")
info['actor'] = movie_one.find('p', class_='pl').get_text().replace("\n", "").replace(" ", "")
info['rate'] = movie_one.find('div', class_='star clearfix').find('span', class_='rating_nums').get_text()
return info
spider_main.py - 主函數(shù)
#!/usr/bin/python
# -*- coding: UTF-8 -*-
import html_parser, html_outputer, html_downloader
class SpiderMain(object):
def __init__(self):
self.parser = html_parser.HtmlParser()
self.outputer = html_outputer.HtmlOutputer()
self.downloader = html_downloader.HtmlDownloader()
def craw(self, url):
html_cnt = self.downloader.downlod(url)
movie_data = self.parser.parser_html(html_cnt)
self.outputer.collect_data(movie_data)
if __name__ == '__main__':
url = 'https://movie.douban.com/tag/2017?start=100&type=T'
spider = SpiderMain()
spider.craw(url)
綜述
其實就是使用了urllib2和BeautifulSoup庫,沒啥好說的,你也可以直接改url,然后更改html_parser.py文件來滿足你自己的爬蟲需求。當(dāng)前也可以更改html_outputer.py來定義保存格式,目前是csv。
相關(guān)文章
使用 Python ssh 遠(yuǎn)程登陸服務(wù)器的最佳方案
這篇文章主要介紹了使用 Python ssh 遠(yuǎn)程登陸服務(wù)器的最佳方案,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-03-03
Python讀取含url圖片鏈接的txt文檔方法小結(jié)
這篇文章主要為大家詳細(xì)介紹了三種Python讀取含url圖片鏈接的txt文檔方法,文中的示例代碼講解詳細(xì),感興趣的小伙伴可以跟隨小編一起學(xué)習(xí)一下2024-04-04
python面向?qū)ο蠖嗑€程爬蟲爬取搜狐頁面的實例代碼
這篇文章主要介紹了python面向?qū)ο蠖嗑€程爬蟲爬取搜狐頁面的實例代碼,需要的朋友可以參考下2018-05-05
python+webdriver自動化環(huán)境搭建步驟詳解
在本篇文章里小編給大家分享了關(guān)于python+webdriver自動化環(huán)境搭建的詳細(xì)步驟以及注意點,需要的朋友們參考下。2019-06-06
報錯No?module?named?numpy問題的解決辦法
之前安裝了Python,后來因為練習(xí)使用Python寫科學(xué)計算的東西,又安裝了Anaconda,但是安裝Anaconda之后又出現(xiàn)了一個問題,下面這篇文章主要給大家介紹了關(guān)于報錯No?module?named?numpy問題的解決辦法,需要的朋友可以參考下2022-08-08
基于Python和TFIDF實現(xiàn)提取文本中的關(guān)鍵詞
TFIDF 的工作原理是按比例增加一個詞語在文檔中出現(xiàn)的次數(shù),但會被它所在的文檔數(shù)量抵消。本文將利用TFIDF實現(xiàn)提取文本中的關(guān)鍵詞,感興趣的小伙伴快跟隨小編一起學(xué)習(xí)一下吧2022-04-04
簡單介紹Python中利用生成器實現(xiàn)的并發(fā)編程
這篇文章主要介紹了簡單介紹Python中利用生成器實現(xiàn)的并發(fā)編程,使用yield生成器函數(shù)進行多進程編程是Python學(xué)習(xí)進階當(dāng)中的重要知識,需要的朋友可以參考下2015-05-05

