Python爬蟲抓取代理IP并檢驗可用性的實例
經(jīng)常寫爬蟲,難免會遇到ip被目標網(wǎng)站屏蔽的情況,銀次一個ip肯定不夠用,作為節(jié)約的程序猿,能不花錢就不花錢,那就自己去找吧,這次就寫了下抓取 西刺代理上的ip,但是這個網(wǎng)站也反爬?。?!
至于如何應對,我覺得可以通過增加延時試試,可能是我抓取的太頻繁了,所以被封IP了。
但是,還是可以去IP巴士試試的,條條大路通羅馬嘛,不能吊死在一棵樹上。
不廢話,上代碼。
#!/usr/bin/env python
# -*- coding:utf8 -*-
import urllib2
import time
from bs4 import BeautifulSoup
import sys
reload(sys)
sys.setdefaultencoding( "utf-8" )
req_header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
#'Accept-Language': 'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3',
'Accept-Charset':'ISO-8859-1,utf-8;q=0.7,*;q=0.3',
'Accept-Encoding':'en-us',
'Connection':'keep-alive',
'Referer':'http://www.baidu.com/'
}
req_timeout = 5
testUrl = "http://www.baidu.com/"
testStr = "wahaha"
file1 = open('proxy.txt' , 'w')
# url = ""
# req = urllib2.Request(url,None,req_header)
# jsondatas = urllib2.urlopen(req,None,req_timeout).read()
cookies = urllib2.HTTPCookieProcessor()
checked_num = 0
grasp_num = 0
for page in range(1, 160):
req = urllib2.Request('http://www.xici.net.co/nn/' + str(page), None, req_header)
html_doc = urllib2.urlopen(req, None, req_timeout).read()
# html_doc = urllib2.urlopen('http://www.xici.net.co/nn/' + str(page)).read()
soup = BeautifulSoup(html_doc)
trs = soup.find('table', id='ip_list').find_all('tr')
for tr in trs[1:]:
tds = tr.find_all('td')
ip = tds[1].text.strip()
port = tds[2].text.strip()
protocol = tds[5].text.strip()
if protocol == 'HTTP' or protocol == 'HTTPS':
#of.write('%s=%s:%s\n' % (protocol, ip, port))
print '%s=%s:%s' % (protocol, ip, port)
grasp_num +=1
proxyHandler = urllib2.ProxyHandler({"http": r'http://%s:%s' % (ip, port)})
opener = urllib2.build_opener(cookies, proxyHandler)
opener.addheaders = [('User-Agent',
'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36')]
t1 = time.time()
try:
req = opener.open(testUrl, timeout=req_timeout)
result = req.read()
timeused = time.time() - t1
pos = result.find(testStr)
if pos > 1:
file1.write(protocol+"\t"+ip+"\t"+port+"\n")
checked_num+=1
print checked_num, grasp_num
else:
continue
except Exception,e:
continue
file1.close()
print checked_num,grasp_num
個人感覺代碼里沒有太復雜的,就沒有加注釋,相信大家基本可以理解,如有問題也請多批評指正,共同進步!
以上這篇Python爬蟲抓取代理IP并檢驗可用性的實例就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python爬蟲之Selenium多窗口切換的實現(xiàn)
這篇文章主要介紹了Python爬蟲之Selenium多窗口切換的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-12-12
python讀寫數(shù)據(jù)讀寫csv文件(pandas用法)
這篇文章主要介紹了python讀寫數(shù)據(jù)讀寫csv文件(pandas用法),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-12-12
在Python dataframe中出生日期轉(zhuǎn)化為年齡的實現(xiàn)方法
這篇文章主要介紹了在Python dataframe中出生日期轉(zhuǎn)化為年齡的實現(xiàn)方法,非常不錯,具有一定的參考借鑒價值,需要的朋友可以參考下2018-10-10
Python進階之使用selenium爬取淘寶商品信息功能示例
這篇文章主要介紹了Python進階之使用selenium爬取淘寶商品信息功能,結(jié)合實例形式詳細分析了Python使用selenium與requests模塊爬取淘寶商品信息的相關(guān)操作技巧,需要的朋友可以參考下2019-09-09
詳解pandas繪制矩陣散點圖(scatter_matrix)的方法
這篇文章主要介紹了詳解pandas繪制矩陣散點圖(scatter_matrix)的方法,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-04-04

