校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識(shí)庫 > python 用遞歸實(shí)現(xiàn)通用爬蟲解析器

python 用遞歸實(shí)現(xiàn)通用爬蟲解析器

熱門標(biāo)簽:電話機(jī)器人貸款詐騙 佛山通用400電話申請(qǐng) 蘇州人工外呼系統(tǒng)軟件 看懂地圖標(biāo)注方法 淮安呼叫中心外呼系統(tǒng)如何 打印谷歌地圖標(biāo)注 電話外呼系統(tǒng)招商代理 京華圖書館地圖標(biāo)注 廣東旅游地圖標(biāo)注

我們?cè)趯懪老x的過程中,除了研究反爬之外,幾乎全部的時(shí)間都在寫解析邏輯。那么,生命苦短,為什么我們不寫一個(gè)通用解析器呢?對(duì)啊!為什么不呢?開整!

需求分析

爬蟲要解析的網(wǎng)頁類型無外乎 html、json 以及一些二進(jìn)制文件(video、excel 文件等)。既然要做成通用解析器,我們有兩種實(shí)現(xiàn)方式,一種是將網(wǎng)頁內(nèi)容轉(zhuǎn)換成統(tǒng)一的形式,然后用對(duì)應(yīng)的解析規(guī)則去解析,比如全部將網(wǎng)頁內(nèi)容轉(zhuǎn)換成 html 形式,然后用 xpath 去提取。

另外一種是配置文件預(yù)先告知的方式,你配置成什么類型,解析器就通過對(duì)應(yīng)的解析規(guī)則去解析。

統(tǒng)一網(wǎng)頁形式,需要做大量的網(wǎng)頁內(nèi)容形式轉(zhuǎn)換,而配置文件預(yù)先告知?jiǎng)t需要在配置時(shí)指定更多解析字段。相比較而言,通過第二種方式,未來改變較多的是配置規(guī)則,不需要?jiǎng)雍诵拇a,引入 bug 的可能性較低。因此這里我們采用第二種方式實(shí)現(xiàn)解析器

進(jìn)一步分析

解析器對(duì)于網(wǎng)頁內(nèi)容的提取,本質(zhì)上和我們?cè)诒镜仉娔X上查找和整理文件,沒有什么差別。比如像下面這樣

解析內(nèi)容就是從中提取我們想要的信息,然后整理成我們希望的格式。比如上面的內(nèi)容,我們提取出來的形式應(yīng)該是這樣

{
  "design": "設(shè)計(jì)圖.psd",
  "software": "sketch.dmg"
}

而在實(shí)際的爬蟲開發(fā)過程中,網(wǎng)頁形式遠(yuǎn)比以上的復(fù)雜。其實(shí)遇到最多的問題是在一組列表中嵌套一個(gè)列表,我們需要把這種形式提取出來。比如像下面這種形式

{
    "a": "a",
    "b": [
        {"c": "c1", "d": "d1"},
        {"c": "c2", "d": "d2"}]
}

他提取出信息后應(yīng)該是這樣

[
  {
    "a": "a",
    "c": "c1",
    "d": "d1"
  },
  {
    "a": "a",
    "c": "c2",
    "d": "d2"
  }
]

如果小伙伴對(duì)于算法熟悉的話,應(yīng)該能察覺出這種遍歷用遞歸來寫是非常方便的。但要注意的是 python 會(huì)限定遞歸的層數(shù),小伙伴可以通過下面這個(gè)方法查看遞歸限定的層數(shù)

import sys
print(sys.getrecursionlimit())

>>>1000

我這邊限定的層數(shù)是 1k。對(duì)于解析網(wǎng)頁來說完全夠用了,如果哪個(gè)人把網(wǎng)頁解析邏輯嵌套了 1000 層,我建議你直接跟老板提放棄這個(gè)網(wǎng)頁吧!

再進(jìn)一步分析

我們已經(jīng)知道對(duì)于通用解析來說,就是通過配置解析規(guī)則提取頁面的對(duì)應(yīng)信息。而針對(duì)有列表層級(jí)的網(wǎng)頁可能還涉及遞歸遍歷問題。那如何去配置這種解析規(guī)則呢?其實(shí)很簡單,只需要在進(jìn)入每一個(gè)層級(jí)之前先指定該層的數(shù)據(jù)形式,比如下面這個(gè)原數(shù)據(jù)

{
  "a": "a",
  "b": [
          {"c": "c1", "d": "d1"},
          {"c": "c2", "d" : "d2"}
       ]
}

想提取嵌套信息,我們的解析規(guī)則就應(yīng)該是這樣的

[
 {
  "$name": "a",
  "$value_type": "raw",
  "$parse_method": "json",
  "$parse_rule": "a",
  "$each": []
 },
 {
  "$name": "__datas__",
  "$value_type": "recursion",
  "$parse_method": "json",
  "$parse_rule": "b",
  "$each": [
        {  
         "$name": "c",
          "$value_type": "raw",
         "$parse_method": "json",
         "$parse_rule": "c",
         "$each": []
        },
        {  
         "$name": "d",
          "$value_type": "raw",
         "$parse_method": "json",
         "$parse_rule": "d",
         "$each": []
        }
      ]
 }
]

其中 $name 字段表示我們最終希望最外層數(shù)據(jù)所擁有的字段名,當(dāng)然如果是需要遞歸到內(nèi)層的字段,則將列表保存為 __datas__ ,然后根據(jù)這個(gè) __datas__ 進(jìn)行內(nèi)層結(jié)構(gòu)的解析。最終我們得到的數(shù)據(jù)結(jié)構(gòu)應(yīng)該是這樣的

[
  {"a": "a", "c": "c1", "d": "d1"}, 
  {"a": "a", "c": "c2", "d": "d2"}
]

以上我們只演示了 json 的解析規(guī)則,如果要拿來解析 html 對(duì)象呢?很簡單,將解析方式改為 xpath 對(duì)象,然后傳入 xpath 解析語法即可。

代碼實(shí)現(xiàn)

總共分成兩部分,一部分根據(jù)原最終結(jié)果和規(guī)則進(jìn)行打包,將所有涉及 recursion 邏輯的字段進(jìn)行轉(zhuǎn)換,代碼如下

def _pack_json(result, rules):
        item = {}

        for p_rule in rules:

            if p_rule.get("$value_type") == "raw":
                if p_rule.get("$parse_method") == "json":
                    item[p_rule.get("$name")] = glom(result, p_rule.get("$parse_rule"))

            elif p_rule.get("$value_type") == "recursion":
                if p_rule.get("$parse_method") == "json":
                    tmp_result = glom(result, p_rule.get("$parse_rule"))
                    total_result = []
                    for per_r in tmp_result:
                        total_result.append(_pack_json(per_r, p_rule.get("$each")))
                    item[p_rule.get("$name")] = total_result
        return item

另外一部分將上一步得到的進(jìn)行解析,將打包得到的結(jié)果進(jìn)行解包,即將所有內(nèi)嵌的數(shù)據(jù)提到最外層,代碼如下

def _unpack_datas(result: dict) -> list:
        if "__datas__" not in result:
            return [result]

        item_results = []
        all_item = result.pop("__datas__")

        for per_item in all_item:
            if "__datas__" in per_item:
                tmp_datas = per_item.pop("__datas__")
                for per_tmp_data in tmp_datas:
                    tmp_item = _unpack_datas(per_tmp_data)
                    for per_tmp_item in tmp_item:
                        item_results.append({**per_tmp_item, **per_item})
            else:
                item_results.append({**result, **per_item})

        return item_results

后再包一層執(zhí)行入口就可以了,完整代碼如下

from loguru import logger

from glom import glom


def parse(result, rules):

    def _pack_json(result, rules):
        item = {}

        for p_rule in rules:

            if p_rule.get("$value_type") == "raw":
                if p_rule.get("$parse_method") == "json":
                    item[p_rule.get("$name")] = glom(result, p_rule.get("$parse_rule"))

            elif p_rule.get("$value_type") == "recursion":
                if p_rule.get("$parse_method") == "json":
                    tmp_result = glom(result, p_rule.get("$parse_rule"))
                    total_result = []
                    for per_r in tmp_result:
                        total_result.append(_pack_json(per_r, p_rule.get("$each")))
                    item[p_rule.get("$name")] = total_result
        return item

    def _unpack_datas(result: dict) -> list:
        if "__datas__" not in result:
            return [result]

        item_results = []
        all_item = result.pop("__datas__")

        for per_item in all_item:
            if "__datas__" in per_item:
                tmp_datas = per_item.pop("__datas__")
                for per_tmp_data in tmp_datas:
                    tmp_item = _unpack_datas(per_tmp_data)
                    for per_tmp_item in tmp_item:
                        item_results.append({**per_tmp_item, **per_item})
            else:
                item_results.append({**result, **per_item})

        return item_results

    pack_result = _pack_json(result, rules)
    logger.info(pack_result)
    return _unpack_datas(pack_result)

以上,就是通用解析器的完整案例。案例中僅實(shí)現(xiàn)了對(duì)于 json 的支持,小伙伴可以基于自己的項(xiàng)目,改造成其他的解析形式。通用解析其實(shí)是雞仔為了偷懶寫的,因?yàn)殡u仔發(fā)現(xiàn),在爬蟲開發(fā)中,大部分工作都耗在解析這部分。而有了通用解析的前端頁面,運(yùn)營和數(shù)據(jù)分析師就可以根據(jù)自己的需要配置自己想爬取的站點(diǎn)了。人生苦短,你懂得。我去摸魚了~

實(shí)現(xiàn)方式請(qǐng)移步至 github 查看:https://github.com/hacksman/learn_lab/blob/master/small_bug_lab/general_parser.py

以上就是python 用遞歸實(shí)現(xiàn)通用爬蟲解析器的詳細(xì)內(nèi)容,更多關(guān)于python 遞歸實(shí)現(xiàn)爬蟲解析器的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • Python爬蟲之爬取2020女團(tuán)選秀數(shù)據(jù)
  • python爬蟲之教你如何爬取地理數(shù)據(jù)
  • Python爬蟲之教你利用Scrapy爬取圖片
  • 基于python分布式爬蟲并解決假死的問題
  • python PyQt5 爬蟲實(shí)現(xiàn)代碼
  • 用python爬蟲爬取CSDN博主信息
  • 利用Python網(wǎng)絡(luò)爬蟲爬取各大音樂評(píng)論的代碼
  • Python爬蟲部分開篇概念講解
  • python爬蟲之你好,李煥英電影票房數(shù)據(jù)分析

標(biāo)簽:呼和浩特 衡水 江蘇 畢節(jié) 股票 湖州 駐馬店 中山

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python 用遞歸實(shí)現(xiàn)通用爬蟲解析器》,本文關(guān)鍵詞  python,用,遞歸,實(shí)現(xiàn),通用,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python 用遞歸實(shí)現(xiàn)通用爬蟲解析器》相關(guān)的同類信息!
  • 本頁收集關(guān)于python 用遞歸實(shí)現(xiàn)通用爬蟲解析器的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    亚洲成av人影院在线观看网| 国产精品电影一区二区| 欧美电视剧在线看免费| 日韩经典一区二区| 欧美成人精品福利| 国产91精品免费| 国产精品久久久久影视| 91官网在线观看| 免费在线看成人av| 国产日韩欧美激情| 欧美写真视频网站| 麻豆精品一区二区三区| 亚洲欧洲另类国产综合| 欧美一区二视频| 99精品国产视频| 久久精品国产**网站演员| 亚洲欧洲精品天堂一级| 日韩限制级电影在线观看| 成人性生交大片免费看在线播放 | 青青草视频一区| 国产日韩欧美高清在线| 欧美网站一区二区| a级精品国产片在线观看| 午夜精品久久久久久久99水蜜桃| 久久女同性恋中文字幕| 在线播放国产精品二区一二区四区| 国产精品系列在线播放| 婷婷夜色潮精品综合在线| 国产精品美女久久久久久久网站| 精品人在线二区三区| 欧美日免费三级在线| eeuss鲁片一区二区三区在线看| 精品一区二区在线观看| 免费精品视频在线| 日韩和的一区二区| 亚洲国产欧美在线人成| 中文字幕日韩一区| 中文字幕欧美区| 久久久精品影视| 久久久午夜精品| 欧美成人bangbros| 日韩三级中文字幕| 在线综合+亚洲+欧美中文字幕| 91免费观看视频在线| 国产麻豆成人传媒免费观看| 美女视频免费一区| 另类小说欧美激情| 另类欧美日韩国产在线| 国产乱码精品一区二区三区忘忧草| 亚洲午夜久久久久久久久电影网| 亚洲免费三区一区二区| 亚洲美女电影在线| 亚洲国产精品天堂| 天堂在线一区二区| 日本成人在线看| 精品一区二区三区在线播放视频| 狠狠网亚洲精品| 懂色av噜噜一区二区三区av| 国产1区2区3区精品美女| 成人国产免费视频| 色综合咪咪久久| 欧美久久久一区| 日韩欧美高清dvd碟片| 精品国产a毛片| 国产婷婷精品av在线| 国产精品国产三级国产aⅴ入口 | 久久久精品tv| 中文字幕精品在线不卡| 中文字幕第一区二区| 亚洲欧美日韩电影| 亚洲二区在线视频| 久久精品国产久精国产爱| 国产精品一区二区在线播放| 成人美女视频在线观看18| 91丨porny丨国产| 欧美精品自拍偷拍| 欧美精品一区二区高清在线观看 | 欧美妇女性影城| 2024国产精品视频| 国产精品久久久久久久午夜片| 亚洲精品成人悠悠色影视| 丝袜美腿成人在线| 粉嫩在线一区二区三区视频| 在线观看国产一区二区| 精品国产髙清在线看国产毛片| 中文字幕制服丝袜一区二区三区| 亚洲一区在线视频观看| 国产精品白丝jk黑袜喷水| 欧美综合天天夜夜久久| 久久久一区二区三区| 亚洲二区在线观看| 成人国产亚洲欧美成人综合网| 欧美日韩一区二区三区在线看| 久久久国产精品午夜一区ai换脸| 一区二区三区在线免费视频| 日韩精品亚洲一区二区三区免费| 国产又粗又猛又爽又黄91精品| 色偷偷久久人人79超碰人人澡| 日韩免费在线观看| 亚洲男女一区二区三区| 国产激情一区二区三区四区| 欧美日韩国产高清一区二区三区 | 欧美福利视频一区| 最新久久zyz资源站| 久久黄色级2电影| 欧美视频中文一区二区三区在线观看 | 久久精品在线免费观看| 亚洲成人av一区| 99这里只有久久精品视频| 日韩欧美成人一区二区| 午夜精品福利一区二区三区av| 成人黄色电影在线 | 精品国产1区2区3区| 欧美aa在线视频| 欧美久久婷婷综合色| 亚洲高清视频中文字幕| 在线影院国内精品| 亚洲精品免费视频| 99热这里都是精品| 中文字幕高清不卡| 成人sese在线| 中文字幕精品综合| 99天天综合性| 亚洲日本丝袜连裤袜办公室| 不卡高清视频专区| 中文字幕永久在线不卡| a在线播放不卡| 亚洲精品欧美二区三区中文字幕| 成人激情综合网站| 国产欧美日韩在线看| 成人免费观看男女羞羞视频| 国产亚洲成av人在线观看导航| 国产精品一二三四五| 久久久久综合网| 国产精华液一区二区三区| 国产午夜精品在线观看| caoporn国产精品| 亚洲主播在线播放| 欧美精品色综合| 激情五月婷婷综合| 国产精品视频免费看| 色综合天天天天做夜夜夜夜做| 亚洲精品久久嫩草网站秘色| 在线观看免费成人| 精品一二三四在线| 最新不卡av在线| 在线不卡免费av| 国产福利不卡视频| 一区二区三区国产精华| 欧美理论电影在线| 国产精品一区二区免费不卡| 亚洲日本va午夜在线电影| 欧美日韩国产一级二级| 国产精品一色哟哟哟| 亚洲综合在线免费观看| 日韩欧美国产精品| 日本韩国视频一区二区| 狠狠色狠狠色综合系列| 一区二区三区小说| www日韩大片| 在线亚洲一区二区| 狠狠色2019综合网| 亚洲在线免费播放| 国产欧美一区二区精品仙草咪| 在线观看日韩国产| 国产超碰在线一区| 欧美aaaaa成人免费观看视频| 国产精品美女久久久久aⅴ| 在线播放亚洲一区| 色婷婷av一区二区三区软件 | 国产精品一二一区| 亚洲成人7777| 国产欧美精品在线观看| 6080午夜不卡| 一本大道久久a久久精品综合| 精品一区二区影视| 午夜av一区二区| 亚洲视频狠狠干| 中文字幕成人在线观看| 精品久久久久久久久久久院品网 | 中文字幕在线免费不卡| 精品国内片67194| 欧美日本国产视频| 日本精品免费观看高清观看| 国产盗摄视频一区二区三区| 免费不卡在线观看| 亚洲高清不卡在线观看| 亚洲男人天堂一区| 国产精品国产三级国产普通话蜜臀 | 成人av在线资源网| 精品一区二区三区免费毛片爱| 亚洲综合视频在线观看| 国产精品国产三级国产专播品爱网| 久久这里只有精品首页| 日韩精品一区二区三区蜜臀| 欧美日产国产精品| 欧美亚洲动漫另类| 一本大道久久a久久精二百| 成人午夜伦理影院| 国产suv一区二区三区88区|