python使用hdfs3模塊對(duì)hdfs進(jìn)行操作詳解
之前一直使用hdfs的命令進(jìn)行hdfs操作,比如:
hdfs dfs -ls /user/spark/ hdfs dfs -get /user/spark/a.txt /home/spark/a.txt #從HDFS獲取數(shù)據(jù)到本地 hdfs dfs -put -f /home/spark/a.txt /user/spark/a.txt #從本地覆蓋式上傳 hdfs dfs -mkdir -p /user/spark/home/datetime=20180817/ ....
身為一個(gè)python程序員,每天操作hdfs都是在程序中寫(xiě)各種cmd調(diào)用的命令,一方面不好看,另一方面身為一個(gè)Pythoner這是一個(gè)恥辱,于是乎就挑了一個(gè)hdfs3的模塊進(jìn)行hdfs的操作,瞬間就感覺(jué)優(yōu)雅多了:
hdfs 官方API:https://hdfs3.readthedocs.io/en/latest/api.html
>>> from hdfs3 import HDFileSystem
#鏈接HDFS
>>> hdfs = HDFileSystem(host='localhost', port=8020)
>>> hdfs.ls('/user/data')
>>> hdfs.put('local-file.txt', '/user/data/remote-file.txt')
>>> hdfs.cp('/user/data/file.txt', '/user2/data')
#文件讀取
#txt文件全部讀取
>>> with hdfs.open('/user/data/file.txt') as f:
... data = f.read(1000000)
#使用pandas讀取1000行數(shù)據(jù)
>>> with hdfs.open('/user/data/file.csv.gz') as f:
... df = pandas.read_csv(f, compression='gzip', nrows=1000)
#寫(xiě)入文件
>>> with hdfs.open('/tmp/myfile.txt', 'wb') as f:
... f.write(b'Hello, world!')
#多節(jié)點(diǎn)連接設(shè)置
host = "nameservice1"
conf = {"dfs.nameservices": "nameservice1",
"dfs.ha.namenodes.nameservice1": "namenode113,namenode188",
"dfs.namenode.rpc-address.nameservice1.namenode113": "hostname_of_server1:8020",
"dfs.namenode.rpc-address.nameservice1.namenode188": "hostname_of_server2:8020",
"dfs.namenode.http-address.nameservice1.namenode188": "hostname_of_server1:50070",
"dfs.namenode.http-address.nameservice1.namenode188": "hostname_of_server2:50070",
"hadoop.security.authentication": "kerberos"
}
fs = HDFileSystem(host=host, pars=conf)
#API
hdfs = HDFileSystem(host='127.0.0.1', port=8020)
hdfs.cancel_token(token=None) #未知,求大佬指點(diǎn)
hdfs.cat(path) #獲取指定目錄或文件的內(nèi)容
hdfs.chmod(path, mode) #修改制定目錄的操作權(quán)限
hdfs.chown(path, owner, group) #修改目錄所有者,以及用戶組
hdfs.concat(destination, paths) #將指定多個(gè)路徑paths的文件,合并成一個(gè)文件寫(xiě)入到destination的路徑,并刪除源文件(The source files are deleted on successful completion.成功完成后將刪除源文件。)
hdfs.connect() #連接到名稱節(jié)點(diǎn) 這在啟動(dòng)時(shí)自動(dòng)發(fā)生。 LZ:未知作用,按字面意思,應(yīng)該是第一步HDFileSystem(host='127.0.0.1', port=8020)發(fā)生的
hdfs.delegate_token(user=None)
hdfs.df() #HDFS系統(tǒng)上使用/空閑的磁盤(pán)空間
hdfs.disconnect() #跟connect()相反,斷開(kāi)連接
hdfs.du(path, total=False, deep=False) #查看指定目錄的文件大小,total是否把大小加起來(lái)一個(gè)總數(shù),deep是否遞歸到子目錄
hdfs.exists(path) #路徑是否存在
hdfs.get(hdfs_path, local_path, blocksize=65536) #將HDFS文件復(fù)制到本地,blocksize設(shè)置一次讀取的大小
hdfs.get_block_locations(path, start=0, length=0) #獲取塊的物理位置
hdfs.getmerge(path, filename, blocksize=65536) #獲取制定目錄下的所有文件,復(fù)制合并到本地文件
hdfs.glob(path) #/user/spark/abc-*.txt 獲取與這個(gè)路徑相匹配的路徑列表
hdfs.head(path, size=1024) #獲取指定路徑下的文件頭部分的數(shù)據(jù)
hdfs.info(path) #獲取指定路徑文件的信息
hdfs.isdir(path) #判斷指定路徑是否是一個(gè)文件夾
hdfs.isfile(path) #判斷指定路徑是否是一個(gè)文件
hdfs.list_encryption_zones() #獲取所有加密區(qū)域的列表
hdfs.ls(path, detail=False) #返回指定路徑下的文件路徑,detail文件詳細(xì)信息
hdfs.makedirs(path, mode=457) #創(chuàng)建文件目錄類似 mkdir -p
hdfs.mkdir(path) #創(chuàng)建文件目錄
hdfs.mv(path1, path2) #將path1移動(dòng)到path2
open(path, mode='rb', replication=0, buff=0, block_size=0) #讀取文件,類似于python的文件讀取
hdfs.put(filename, path, chunk=65536, replication=0, block_size=0) #將本地的文件上傳到,HDFS指定目錄
hdfs.read_block(fn, offset, length, delimiter=None) #指定路徑文件的offset指定讀取字節(jié)的起始點(diǎn),length讀取長(zhǎng)度,delimiter確保讀取在分隔符bytestring上開(kāi)始和停止
>>> hdfs.read_block('/data/file.csv', 0, 13)
b'Alice, 100\nBo'
>>> hdfs.read_block('/data/file.csv', 0, 13, delimiter=b'\n')
b'Alice, 100\nBob, 200'
hdfs.rm(path, recursive=True) #刪除指定路徑recursive是否遞歸刪除
hdfs.tail(path, size=1024) #獲取 文件最后一部分的數(shù)據(jù)
hdfs.touch(path) #創(chuàng)建一個(gè)空文件
hdfs.walk(path) #遍歷文件樹(shù)
補(bǔ)充知識(shí):HDFS命令批量創(chuàng)建文件夾和文件
批量創(chuàng)建測(cè)試文件夾:
hadoop fs -mkdir -p /user/hivedata/temp/201912311001/d={27..30}/h={10..17}/m5={5,15,25}/
批量創(chuàng)建測(cè)試文件:
hadoop fs -touchz /user/hivedata/temp/201912311001/d={27..30}/h={10..17}/m5={5,15,25}/{0..5}.orc
最終效果:
hadoop fs -ls -R /user/hivedata/

以上這篇python使用hdfs3模塊對(duì)hdfs進(jìn)行操作詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
在Python中使用Neo4j數(shù)據(jù)庫(kù)的教程
這篇文章主要介紹了在Python中使用Neo4j數(shù)據(jù)庫(kù)的教程,Neo4j是一個(gè)具有一定人氣的非關(guān)系型的數(shù)據(jù)庫(kù),需要的朋友可以參考下2015-04-04
使用Python中的Playwright制作測(cè)試視頻的實(shí)現(xiàn)步驟
Playwright 是一種流行的用于測(cè)試 Web 應(yīng)用程序的自動(dòng)化工具,它提供了多種功能來(lái)使測(cè)試更加高效和可靠,這些功能之一是能夠捕獲測(cè)試運(yùn)行的視頻,在此博客中,田辛老師將探索如何使用 Python 中的 Playwright 制作測(cè)試視頻,感興趣的同學(xué)可以參考本文自己動(dòng)手嘗試2023-10-10
Python自動(dòng)檢測(cè)SSL證書(shū)是否過(guò)期的實(shí)現(xiàn)示例
SSL證書(shū)是有有效期的,一旦過(guò)期就會(huì)失效,從而帶來(lái)安全風(fēng)險(xiǎn),本文主要介紹了Python自動(dòng)檢測(cè)SSL證書(shū)是否過(guò)期的實(shí)現(xiàn)示例,具有一定的參考價(jià)值,感興趣的可以了解一下2023-11-11
Python使用matplotlib給柱狀圖添加數(shù)據(jù)標(biāo)簽bar_label()
這篇文章主要介紹了Python使用matplotlib給柱狀圖添加數(shù)據(jù)標(biāo)簽bar_label(),記錄如何用使用matplotlib給柱狀圖添加數(shù)據(jù)標(biāo)簽,是以matplotlib.pyplot.bar_label()為例,需要的朋友可以參考一下2022-03-03
python 根據(jù)excel中顏色區(qū)分讀取的操作
這篇文章主要介紹了python 根據(jù)excel中顏色區(qū)分讀取的操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-03-03
Python中利用pyqt5制作指針鐘表顯示實(shí)時(shí)時(shí)間(指針時(shí)鐘)
這篇文章主要介紹了Python中利用pyqt5制作指針鐘表顯示實(shí)時(shí)時(shí)間(動(dòng)態(tài)指針時(shí)鐘),本文通過(guò)示例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2022-02-02
Python利用 utf-8-sig 編碼格式解決寫(xiě)入 csv 文件亂碼問(wèn)題
這篇文章主要介紹了Python利用 utf-8-sig 編碼格式解決寫(xiě)入 csv 文件亂碼問(wèn)題,本文給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-02-02
使用Python在Excel中實(shí)現(xiàn)自動(dòng)查找并替換數(shù)據(jù)
隨著項(xiàng)目的進(jìn)展,需要經(jīng)常在Excel業(yè)務(wù)表格中查找及替換數(shù)據(jù),已保證數(shù)據(jù)與實(shí)際項(xiàng)目進(jìn)度一致,手動(dòng)一個(gè)一個(gè)查找,然后替換,效率太低,還容易遺漏,現(xiàn)在我們來(lái)試試用Python自動(dòng)完成查找及替換吧,需要的朋友可以參考下2023-12-12

