校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > python爬蟲學習筆記--BeautifulSoup4庫的使用詳解

python爬蟲學習筆記--BeautifulSoup4庫的使用詳解

熱門標簽:外呼并發線路 ai電銷機器人源碼 ai電話機器人哪里好 宿遷星美防封電銷卡 百度地圖標注沒有了 長沙高頻外呼系統原理是什么 地圖標注審核表 湛江智能外呼系統廠家 西藏房產智能外呼系統要多少錢

使用范例

from bs4 import BeautifulSoup
#創建 Beautiful Soup 對象
# 使用lxml來進行解析
soup = BeautifulSoup(html,"lxml")
print(soup.prettify())

返回結果

常用的對象–Tag

就是 HTML 中的一個個標簽

在上面范例的基礎上添加

from bs4 import BeautifulSoup
#創建 Beautiful Soup 對象
# 使用lxml來進行解析
soup = BeautifulSoup(html,"lxml")
#print(soup.prettify())


#創建 Beautiful Soup 對象
soup = BeautifulSoup(html,'lxml')

print (soup.title)#None因為這里沒有tiele標簽所以返回none

print (soup.head)#None因為這里沒有head標簽所以返回none

print (soup.a)#返回 a class="fill-dec"  target="_blank">編輯自我介紹,讓更多人了解你span class="write-icon">/span>/a>


print (type(soup.p))#返回 class 'bs4.element.Tag'>

print( soup.p)

其中print( soup.p)

返回結果為


同樣地,在上面地基礎上添加

print (soup.name)# [document] #soup 對象本身比較特殊,它的 name 即為 [document]

返回

print (soup.head.name)#head #對于其他內部標簽,輸出的值為標簽本身的名稱
print (soup.p.attrs)##把p標簽的所有屬性打印出來,得到的類型是一個字典。

返回

print (soup.p['class'])#獲取P標簽下地class標簽
soup.p['class'] = "newClass"
print (soup.p) # 可以對這些屬性和內容等等進行修改

返回

常用的對象–NavigableString

前面地基礎上添加

print (soup.p.string)
# The Dormouse's story
print (type(soup.p.string))
# class 'bs4.element.NavigableString'>thon

返回結果

常用的對象–BeautifulSoup

beautiful soup對象表示文檔的全部內容。大多數情況下,它可以被視為標記對象。它支持遍歷文檔樹并搜索文檔樹中描述的大多數方法因為Beauty soup對象不是真正的HTML或XML標記,所以它沒有名稱和屬性。但是,有時查看其內容很方便。Name屬性,因此美麗的湯對象包含一個特殊屬性。值為“[文檔]”的名稱

print(soup.name)
#返回 '[document]'

常用的對象–Comment

用于解釋注釋部分的內容

markup = "b>!--Hey, buddy. Want to buy a used parser?-->/b>"
soup = BeautifulSoup(markup)
comment = soup.b.string
type(comment)
# class 'bs4.element.Comment'>

對文檔樹的遍歷

在上面的基礎上添加

head_tag = soup.div
# 返回所有子節點的列表
print(head_tag.contents)

返回


同理

head_tag = soup.div

# 返回所有子節點的迭代器
for child in head_tag.children:
    print(child)

返回

tag中包含多個字符串的情況

可用 .strings 來循環獲取

for string in soup.strings:
    print(repr(string))

返回

.stripped_strings 去除空白內容

for string in soup.stripped_strings:
    print(repr(string))

返回

搜索文檔樹–find和find_all

找到所有

print(soup.find_all("a",id='link2'))

find方法是找到第一個滿足條件的標簽后立即返回,返回一個元素。find_all方法是把所有滿足條件的標簽都選到,然后返回。

select方法(各種查找)

#通過標簽名查找:
print(soup.select('a'))
#通過類名查找:
#通過類名,則應該在類的前面加一個'.'
print(soup.select('.sister'))
#通過id查找:
#通過id查找,應該在id的名字前面加一個#號
print(soup.select("#link1"))

查找a標簽返回的結果


其他因為網頁本身沒有,返回的是一個空列表

組合查找

print(soup.select("p #link1"))#查找 p 標簽中,id 等于 link1的內容

子標簽查找

print(soup.select("head > title"))

通過屬性查找

print(soup.select('a[))#屬性與標簽屬同一節點,中間不能有空格

獲取內容

先查看類型

print (type(soup.select('div')))

for title in soup.select('div'):
    print (title.get_text())

返回

print (soup.select('div')[20].get_text())#選取第20個div標簽的內容

返回

總結

本篇文章就到這里了,希望能給你帶來幫助,也希望您能夠多多關注腳本之家的更多內容!

您可能感興趣的文章:
  • Python BeautifulSoup基本用法詳解(通過標簽及class定位元素)
  • python beautiful soup庫入門安裝教程
  • Python爬蟲進階之Beautiful Soup庫詳解
  • python爬蟲beautifulsoup庫使用操作教程全解(python爬蟲基礎入門)
  • python網絡爬蟲精解之Beautiful Soup的使用說明

標簽:普洱 林芝 漯河 盤錦 南平 寧夏 大同 海南

巨人網絡通訊聲明:本文標題《python爬蟲學習筆記--BeautifulSoup4庫的使用詳解》,本文關鍵詞  python,爬蟲,學習,筆記,--BeautifulSoup4,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python爬蟲學習筆記--BeautifulSoup4庫的使用詳解》相關的同類信息!
  • 本頁收集關于python爬蟲學習筆記--BeautifulSoup4庫的使用詳解的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 方城县| 池州市| 邵武市| 辉南县| 沈阳市| 蒲城县| 东丽区| 彭阳县| 石家庄市| 彭阳县| 湖口县| 马山县| 东至县| 松溪县| 成安县| 托里县| 娱乐| 谷城县| 宁安市| 禹州市| 登封市| 广饶县| 高青县| 眉山市| 车险| 封丘县| 田阳县| 裕民县| 通河县| 开原市| 麻栗坡县| 平遥县| 长兴县| 宁化县| 祁门县| 稷山县| 那曲县| 都昌县| 普洱| 禄丰县| 勃利县|