讓python在hadoop上跑起來
本文實例講解的是一般的hadoop入門程序“WordCount”,就是首先寫一個map程序用來將輸入的字符串分割成單個的單詞,然后reduce這些單個的單詞,相同的單詞就對其進行計數,不同的單詞分別輸出,結果輸出每一個單詞出現的頻數。
注意:關于數據的輸入輸出是通過sys.stdin(系統標準輸入)和sys.stdout(系統標準輸出)來控制數據的讀入與輸出。所有的腳本執(zhí)行之前都需要修改權限,否則沒有執(zhí)行權限,例如下面的腳本創(chuàng)建之前使用“chmod +x mapper.py”
1.mapper.py
#!/usr/bin/env python
import sys
for line in sys.stdin: # 遍歷讀入數據的每一行
line = line.strip() # 將行尾行首的空格去除
words = line.split() #按空格將句子分割成單個單詞
for word in words:
print '%s\t%s' %(word, 1)
2.reducer.py
#!/usr/bin/env python
from operator import itemgetter
import sys
current_word = None # 為當前單詞
current_count = 0 # 當前單詞頻數
word = None
for line in sys.stdin:
words = line.strip() # 去除字符串首尾的空白字符
word, count = words.split('\t') # 按照制表符分隔單詞和數量
try:
count = int(count) # 將字符串類型的‘1'轉換為整型1
except ValueError:
continue
if current_word == word: # 如果當前的單詞等于讀入的單詞
current_count += count # 單詞頻數加1
else:
if current_word: # 如果當前的單詞不為空則打印其單詞和頻數
print '%s\t%s' %(current_word, current_count)
current_count = count # 否則將讀入的單詞賦值給當前單詞,且更新頻數
current_word = word
if current_word == word:
print '%s\t%s' %(current_word, current_count)
在shell中運行以下腳本,查看輸出結果:
echo "foo foo quux labs foo bar zoo zoo hying" | /home/wuying/mapper.py | sort -k 1,1 | /home/wuying/reducer.py # echo是將后面“foo ****”字符串輸出,并利用管道符“|”將輸出數據作為mapper.py這個腳本的輸入數據,并將mapper.py的數據輸入到reducer.py中,其中參數sort -k 1,1是將reducer的輸出內容按照第一列的第一個字母的ASCII碼值進行升序排序
其實,我覺得后面這個reducer.py處理單詞頻數有點麻煩,將單詞存儲在字典里面,單詞作為‘key',每一個單詞出現的頻數作為'value',進而進行頻數統計感覺會更加高效一點。因此,改進腳本如下:
mapper_1.py

但是,貌似寫著寫著用了兩個循環(huán),反而效率低了。關鍵是不太明白這里的current_word和current_count的作用,如果從字面上老看是當前存在的單詞,那么怎么和遍歷讀取的word和count相區(qū)別?
下面看一些腳本的輸出結果:

我們可以看到,上面同樣的輸入數據,同樣的shell換了不同的reducer,結果后者并沒有對數據進行排序,實在是費解~
讓Python代碼在hadoop上跑起來!
一、準備輸入數據
接下來,先下載三本書:
$ mkdir -p tmp/gutenberg $ cd tmp/gutenberg $ wget http://www.gutenberg.org/ebooks/20417.txt.utf-8 $ wget http://www.gutenberg.org/files/5000/5000-8.txt $ wget http://www.gutenberg.org/ebooks/4300.txt.utf-8
然后把這三本書上傳到hdfs文件系統上:
$ hdfs dfs -mkdir /user/${whoami}/input # 在hdfs上的該用戶目錄下創(chuàng)建一個輸入文件的文件夾
$ hdfs dfs -put /home/wuying/tmp/gutenberg/*.txt /user/${whoami}/input # 上傳文檔到hdfs上的輸入文件夾中
尋找你的streaming的jar文件存放地址,注意2.6的版本放到share目錄下了,可以進入hadoop安裝目錄尋找該文件:
$ cd $HADOOP_HOME $ find ./ -name "*streaming*"
然后就會找到我們的share文件夾中的hadoop-straming*.jar文件:

尋找速度可能有點慢,因此你最好是根據自己的版本號到對應的目錄下去尋找這個streaming文件,由于這個文件的路徑比較長,因此我們可以將它寫入到環(huán)境變量:
$ vi ~/.bashrc # 打開環(huán)境變量配置文件 # 在里面寫入streaming路徑 export STREAM=$HADOOP_HOME/share/hadoop/tools/lib/hadoop-streaming-*.jar
由于通過streaming接口運行的腳本太長了,因此直接建立一個shell名稱為run.sh來運行:
hadoop jar $STREAM \ -files ./mapper.py,./reducer.py \ -mapper ./mapper.py \ -reducer ./reducer.py \ -input /user/$(whoami)/input/*.txt \ -output /user/$(whoami)/output
然后"source run.sh"來執(zhí)行mapreduce。結果就響當當的出來啦。這里特別要提醒一下:
1、一定要把本地的輸入文件轉移到hdfs系統上面,否則無法識別你的input內容;
2、一定要有權限,一定要在你的hdfs系統下面建立你的個人文件夾否則就會被denied,是的,就是這兩個錯誤搞得我在服務器上面痛不欲生,四處問人的感覺真心不如自己清醒對待來的好;
3、如果你是第一次在服務器上面玩hadoop,建議在這之前請在自己的虛擬機或者linux系統上面配置好偽分布式然后入門hadoop來的比較不那么頭疼,之前我并不知道我在服務器上面運維沒有給我運行的權限,后來在自己的虛擬機里面運行一下example實例以及wordcount才找到自己的錯誤。
好啦,然后不出意外,就會complete啦,你就可以通過如下方式查看計數結果:

以上就是本文的全部內容,希望對大家學習python軟件編程有所幫助。
相關文章
安裝python依賴包psycopg2來調用postgresql的操作
這篇文章主要介紹了安裝python依賴包psycopg2來調用postgresql的操作,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2021-01-01
Python 實現OpenCV格式和PIL.Image格式互轉
今天小編就為大家分享一篇Python 實現OpenCV格式和PIL.Image格式互轉,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01

