python采集百度搜索結(jié)果帶有特定URL的鏈接代碼實(shí)例
這篇文章主要介紹了python采集百度搜索結(jié)果帶有特定URL的鏈接代碼實(shí)例,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
#coding utf-8
import requests
from bs4 import BeautifulSoup as bs
import re
from Queue import Queue
import threading
from argparse import ArgumentParser
arg = ArgumentParser(description='baidu_url_collet py-script by xiaoye')
arg.add_argument('keyword',help='keyword like inurl:?id=for searching sqli site')
arg.add_argument('-p','--page',help='page count',dest='pagecount',type=int)
arg.add_argument('-t','--thread',help='the thread_count',dest='thread_count',type=int,default=10)
arg.add_argument('-o','--outfile',help='the file save result',dest='oufile',type=int,default='result.txt')
result = arg.parse_args()
headers = {'User-Agent':'Mozilla/5.0(windows NT 10.0 WX64;rv:50.0) Gecko/20100101 Firefox/50.0'}
class Bg_url(threading.Thread):
def __init__(self,que):
threading.Thread.__init__(self)
self._que = que
def run(self):
while not self._que.empty():
URL = self._que.get()
try:
self.bd_url_collet(URL)
except Exception,e:
print(e)
pass
def bd_url_collect(self, url):
r = requests.get(url, headers=headers, timeout=3)
soup = bs(r.content, 'lxml', from_encoding='utf-8')
bqs = soup.find_all(name='a', attrs={‘data-click‘:re.compile(r'.'), 'class':None})#獲得從百度搜索出來(lái)的a標(biāo)簽的鏈接
for bq in bqs:
r = requests.get(bq['href'], headers=headers, timeout=3)#獲取真實(shí)鏈接
if r.status_code == 200:#如果狀態(tài)碼為200
print r.url
with open(result.outfile, 'a') as f:
f.write(r.url + '\n')
def main():
thread = []
thread_count = result.thread_count
que = Queue()
for i in range(0,(result.pagecount-1)*10,10):
que.put('https://www.baidu.com/s?wd=' + result.keyword + '&pn=' + str(i))
or i in range(thread_count):
thread.append(Bd_url(que))
for i in thread:
i.start()
for i in thread:
i.join()
if __name__ == '__main__':
main()
#執(zhí)行格式
python aaaaa.py "inurl:asp?id=" -p 30 -t 30
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- Python使用Selenium自動(dòng)進(jìn)行百度搜索的實(shí)現(xiàn)
- Python通過(guò)tkinter實(shí)現(xiàn)百度搜索的示例代碼
- Python爬蟲(chóng)爬取百度搜索內(nèi)容代碼實(shí)例
- python+selenium實(shí)現(xiàn)自動(dòng)化百度搜索關(guān)鍵詞
- python實(shí)現(xiàn)百萬(wàn)答題自動(dòng)百度搜索答案
- python實(shí)現(xiàn)提取百度搜索結(jié)果的方法
- Python實(shí)現(xiàn)抓取百度搜索結(jié)果頁(yè)的網(wǎng)站標(biāo)題信息
- Python10行代碼實(shí)現(xiàn)模擬百度搜索的示例
相關(guān)文章
Anaconda+pycharm安裝及環(huán)境配置全過(guò)程
在使用pyCharm進(jìn)行開(kāi)發(fā)時(shí),需要用到Anaconda創(chuàng)建的環(huán)境,下面這篇文章主要給大家介紹了關(guān)于Anaconda+pycharm安裝及環(huán)境配置的相關(guān)資料,文中通過(guò)實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-09-09
Python pymysql向SQL語(yǔ)句中傳參的多種方法
這篇文章主要介紹了Python-pymysql如何向SQL語(yǔ)句中傳參,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2023-05-05
Python實(shí)現(xiàn)抖音熱搜定時(shí)爬取功能
這篇文章主要為大家介紹了利用Python制作的一個(gè)新摸魚(yú)神器,可以實(shí)現(xiàn)抖音熱搜定時(shí)爬取。文中的實(shí)現(xiàn)步驟講解詳細(xì),感興趣的可以試一試2022-03-03
Tornado實(shí)現(xiàn)多進(jìn)程/多線(xiàn)程的HTTP服務(wù)詳解
這篇文章主要介紹了Tornado實(shí)現(xiàn)多進(jìn)程/多線(xiàn)程的HTTP服務(wù)詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值2019-07-07

