Python常用的內(nèi)置序列結(jié)構(gòu)(列表、元組、字典)學(xué)習(xí)筆記
列表與元組
列表用大括號(hào)[]表示,元組用圓括號(hào)()表示。
列表可以修改,字符串與元組不可修改。
元組的分片還是元組,列表的分片還是列表。
1.列表方法:
name=["zhang3","li4","wang5"]
name.append("gou6") #添加項(xiàng)
name.remove("gou6") #移除第一個(gè)匹配項(xiàng),也可用del name[3]來(lái)移除
name.insert(3,"gou6") #插入項(xiàng)
name.index("gou6") #找出第一個(gè)匹配項(xiàng)的位置
name.extend(["gou6","xuan7"]) #擴(kuò)展
name.pop(0) #返回列表的第一項(xiàng)值并從列表中刪除之
2.列表函數(shù):
>>> a=list("hi guys") #把字符串轉(zhuǎn)換為列表
>>> print a
['h', 'i', ' ', 'g', 'u', 'y', 's']
>>> ''.join(a) #把列表還原成字符串
'hi guys'
>>> max(a) #取得列表的最大元素
'y'
>>> len(a) #取得列表長(zhǎng)度
7
>>> min(a) #取得最小元素
' '
>>> tuple(a) #將列表轉(zhuǎn)換為元組
('h', 'i', ' ', 'g', 'u', 'y', 's')
>>> sorted(a) #將列表元素排序
[' ', 'g', 'h', 'i', 's', 'u', 'y']
3.列表遍歷:
A,使用for語(yǔ)句遍歷
for each_item in name: print(each_item)
B,使用while語(yǔ)句遍歷
i=0 while i < len(name): print(name[i]) i += 1
4.成員資格1:
>>> sub="hello, you are a bear"
>>> "bear" in sub
True
>>> "y" in sub
True
>>> raw_input("what's your name?") in sub
what's your name?bear
True
5.成員資格2:
database=[
["zhang3","0111"],
["li4","0112"],
["wang5","0113"]
]
username=raw_input("what's your user name?")
id=raw_input("what's your id?")
if [username,id] in database: print "access granted"
6.找出10以內(nèi)的整數(shù)
s = [x for x in range(0, 10) if x % 2 == 0]
7.生成九九乘法表
s = [(x, y, x*y) for x in range(1, 10) for y in range(1,10) if x>=y]
字符串
1.獲取字符串
name=raw_input("what's your name?")
print "Hello," + name + ".welcome to us"
注意:Pyhton3.x版本取消了raw_input,統(tǒng)一使用input
輸出值:
print name + repr(x) #str用于把值轉(zhuǎn)換為合理的字符串,repr創(chuàng)建一個(gè)字符串,返回值的字符串形式 #str是一種類型(和int一樣),repr是函數(shù)
2.換行符用\n表示
原始字符串,以字符串前加一個(gè)r即可,如
print r"c:\nowindows\no" path="c:\nowindows\no"; print repr(path)
3.Unicode字符串
print u"redhat"
注意:Pyhton3.x版本所有字符串都是unicode字符串
定義字符串時(shí),雙引號(hào)和單引號(hào)都是可以用的,只不過(guò)用單引號(hào)的時(shí)候可以在字符串里面使用雙引號(hào)
布爾值:
>>> bool('i love you')
True
>>> bool(42)
True
>>> bool(1)
True
>>> bool('0')
True
>>> bool(0)
False
>>> bool('')
False
4.字符串方法
>>> tag="<a href=http://www.baidu.com>baidu indexpage</a>"
>>> print tag[8:28] #字符串分片
http://www.baidu.com
>>> print tag[29:-4] #字符串分片
baidu indexpage
>>> tag.replace("www.baidu.com","home.sina.com") #字符串替換
'<a href=http://home.sina.com>baidu indexpage</a>'
>>> dirs=["","usr","bin","env"]
>>> "/".join(dirs) #將列表拼接成字符串
'/usr/bin/env'
>>> print ("C:" + "\\".join(dirs))
C:\usr\bin\env
>>> path="/usr/bin/env"
>>> path.split("/") #將字符串分割成列表
['', 'usr', 'bin', 'env']
5.其它字符串方法
>>> s=' I Love you! '
>>> s.lower() #轉(zhuǎn)換字符串的小寫
' i love you! '
>>> s.upper() #轉(zhuǎn)換字符串的大寫
' I LOVE YOU! '
>>> s.title() #換換字符串為標(biāo)題(所有單詞首字母大寫)
' I Love You! '
>>> s.islower() #判斷字符串是否為小寫(也可判斷大寫和標(biāo)題)
False
>>> s.strip() #去除首尾空格,lstrip去除左邊空格,rstrip去除右邊空格
'I Love you!'
>>> word=s.split() #分割
>>> word
['I', 'Love', 'you!']
>>> '::'.join(word) #合并
'I::Love::you!'
>>> s.count('o') #統(tǒng)計(jì)出現(xiàn)次數(shù)
2
>>> s.find('you') #查找位置,如果找不到,則返回-1
9
>>> s.startswith('python')
False
>>> s.replace('you','yours')
' I Love yours! '
相關(guān)文章
python中文件變化監(jiān)控示例(watchdog)
這篇文章主要介紹了python中文件變化監(jiān)控示例(watchdog),小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-10-10
Pandas||過(guò)濾缺失數(shù)據(jù)||pd.dropna()函數(shù)的用法說(shuō)明
這篇文章主要介紹了Pandas||過(guò)濾缺失數(shù)據(jù)||pd.dropna()函數(shù)的用法說(shuō)明,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-05-05
Python使用APScheduler實(shí)現(xiàn)定時(shí)任務(wù)過(guò)程解析
這篇文章主要介紹了Python使用APScheduler實(shí)現(xiàn)定時(shí)任務(wù)過(guò)程解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-09-09
巧用python和libnmapd,提取Nmap掃描結(jié)果
本文將會(huì)講述一系列如何使用一行代碼解析 nmap 掃描結(jié)果,其中會(huì)在 Python 環(huán)境中使用到 libnmap 里的 NmapParser 庫(kù),這個(gè)庫(kù)可以很容易的幫助我們解析 nmap 的掃描結(jié)果2016-08-08
Python實(shí)現(xiàn)員工信息管理系統(tǒng)
這篇文章主要為大家詳細(xì)介紹了Python實(shí)現(xiàn)員工信息管理系統(tǒng),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-06-06
Python爬蟲教程使用Scrapy框架爬取小說(shuō)代碼示例
相信學(xué)Python爬蟲的小伙伴聽(tīng)說(shuō)過(guò)Scrapy框架,也用過(guò)Scrapy框架,今天我們邊學(xué)習(xí)Scrapy框架邊爬取整部小說(shuō),讓大家在不知不覺(jué)的學(xué)習(xí)過(guò)程中使用Scrapy框架完成整部小說(shuō)的爬取2021-09-09

