python中urllib模塊用法實例詳解
本文實例講述了python中urllib模塊用法。分享給大家供大家參考。具體分析如下:
一、問題:
近期公司項目的需求是根據(jù)客戶提供的api,我們定時去獲取數(shù)據(jù), 之前的方案是用php收集任務(wù)存入到redis隊列,然后在linux下做一個常駐進程跑某一個php文件, 該php文件就一個無限循環(huán),判斷redis隊列,有就執(zhí)行,沒有就break.
二、解決方法:
最近剛好學(xué)了一下python, python的urllib模塊或許比php的curl更快,而且簡單. 貼一下代碼
import sys
reload(sys)
sys.setdefaultencoding( "utf-8" )
import os
import json
from urllib import urlopen
doc = urlopen("http://xxxx?webid=1&tid=901&cateid=101").read()
doc = json.loads(doc)
print doc
print doc.keys()
print doc["msg"]
print doc['data']
print doc['ret']
發(fā)現(xiàn)第一次訪問所需要的時間為[Finished in 3.0s]
而第二次訪問的時間為[Finished in 0.2s]
可見python的urllib模塊是加有緩存的
urllib/2用法典型的例子
import cookielib
import urllib
class Hi_login:
def __init__(self):
cookie = cookielib.CookieJar()
self.cookie = urllib2.HTTPCookieProcessor(cookie) ##### 生成cookie ###
def login(self,user,pwd):
url='http://passport.baidu.com/?login'
postdata=urllib.urlencode({
'mem_pass':'on',
'password':pwd
'Submit':'',
'tpl':'sp',
'tp_reg':'sp',
'u' :'http://hi.baidu.com',
'username':user})
### proxy_support = urllib2.ProxyHandler({"http":"http://ahad-haam:3128"}) 然后加入opener方法里####
opener = urllib2.build_opener(self.cookie) ### 使用cookie ###
headers = { ####### dict結(jié)構(gòu),可以加入x-forward-for甚至refer等 #######
'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}
urllib2.install_opener(opener)
request = urllib2.Request(url,urllib.urlencode(postdata),headers = headers)
urllib2.urlopen(request)
if __name__=='__main__':
pwd='123456'
user='xiaofu'
test=Hi_login()
test.login(user,pwd)
假如訪問需要認證的頁面比如nagios監(jiān)控頁面等,
password_mgr = urllib2.HTTPPasswordMgrWithDefaultRealm()
url = "http://202.1.x.y/nagios"
password_mgr.add_password(None, url, user='abc',passwd='xxxxxx')
handler = urllib2.HTTPBasicAuthHandler(password_mgr)
opener = urllib2.build_opener(handler)
urllib2.install_opener(opener)
f=urllib2.urlopen(url)
print f.code
返回結(jié)果200,否則就是401認證錯誤
希望本文所述對大家的Python程序設(shè)計有所幫助。
相關(guān)文章
Python實現(xiàn)創(chuàng)建詞云的示例詳解
詞云一般是根據(jù)輸入的大量詞語生成的,如果某個詞語出現(xiàn)的次數(shù)越多,那么相應(yīng)的大小就會越大,本文將利用wordcloud模塊實現(xiàn)詞云生成,需要的可以參考下2023-10-10
python面向?qū)ο蠖嗑€程爬蟲爬取搜狐頁面的實例代碼
這篇文章主要介紹了python面向?qū)ο蠖嗑€程爬蟲爬取搜狐頁面的實例代碼,需要的朋友可以參考下2018-05-05
Python-pip配置國內(nèi)鏡像源快速下載包的方法詳解
pip如果不配置國內(nèi)鏡像源的話,下載包的速度非常慢,畢竟默認的源在國外呢,這篇文章主要介紹了Python-pip配置國內(nèi)鏡像源快速下載包的方法詳解,需要的朋友可以參考下2024-01-01
python dict.get()和dict[''key'']的區(qū)別詳解
下面小編就為大家?guī)硪黄猵ython dict.get()和dict['key']的區(qū)別詳解。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2016-06-06

