注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書科學(xué)技術(shù)工業(yè)技術(shù)建筑科學(xué)建筑設(shè)計(jì)Python網(wǎng)絡(luò)爬蟲(Scrapy框架新技術(shù)技能人才培養(yǎng)系列教程)

Python網(wǎng)絡(luò)爬蟲(Scrapy框架新技術(shù)技能人才培養(yǎng)系列教程)

Python網(wǎng)絡(luò)爬蟲(Scrapy框架新技術(shù)技能人才培養(yǎng)系列教程)

定 價(jià):¥45.00

作 者: 肖睿,陳磊
出版社: 人民郵電出版社
叢編項(xiàng): 大數(shù)據(jù)核心技術(shù)系列
標(biāo) 簽: 暫缺

購(gòu)買這本書可以去


ISBN: 9787115527295 出版時(shí)間: 2020-01-01 包裝:
開本: 16開 頁(yè)數(shù): 199 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  互聯(lián)網(wǎng)上存在著大量值得收集的公共信息,而爬蟲技術(shù)就是獲取這些公共信息的主要工具?!禤ython網(wǎng)絡(luò)爬蟲(Scrapy框架)》以主流的Scrapy爬蟲框架為例,介紹了Python網(wǎng)絡(luò)爬蟲的組成、爬蟲框架的使用以及分布式爬蟲等內(nèi)容?!禤ython網(wǎng)絡(luò)爬蟲(Scrapy框架)》運(yùn)用了大量案例和實(shí)踐,融入了含金量十足的開發(fā)經(jīng)驗(yàn),使得內(nèi)容緊密結(jié)合實(shí)際應(yīng)用。在此基礎(chǔ)上,《Python網(wǎng)絡(luò)爬蟲(Scrapy框架)》還通過豐富的練習(xí)和操作實(shí)踐,幫助讀者鞏固所學(xué)的內(nèi)容?!禤ython網(wǎng)絡(luò)爬蟲(Scrapy框架)》配以多元的學(xué)習(xí)資源和支持服務(wù),包括視頻、案例素材、學(xué)習(xí)社區(qū)等,為讀者提供全方位的學(xué)習(xí)體驗(yàn)?!禤ython網(wǎng)絡(luò)爬蟲(Scrapy框架)》適合作為計(jì)算機(jī)、大數(shù)據(jù)等相關(guān)專業(yè)的教材,也適合具有一定Linux或Python開發(fā)基礎(chǔ)的人員閱讀,還可以作為爬蟲工程師的學(xué)習(xí)用書。

作者簡(jiǎn)介

暫缺《Python網(wǎng)絡(luò)爬蟲(Scrapy框架新技術(shù)技能人才培養(yǎng)系列教程)》作者簡(jiǎn)介

圖書目錄

第1章 使用第三方庫(kù)實(shí)現(xiàn)信息抓取
任務(wù)1 使用第三方庫(kù)實(shí)現(xiàn)北京公交站點(diǎn)頁(yè)面信息抓取
1.1.1 介紹爬蟲
1.1.2 HTTP
1.1.3 HTML
1.1.4 使用第三方庫(kù)實(shí)現(xiàn)爬蟲功能
1.1.5 技能實(shí)訓(xùn)
任務(wù)2 使用第三方庫(kù)實(shí)現(xiàn)北京公交站點(diǎn)詳細(xì)信息抓取
1.2.1 lxml庫(kù)
1.2.2 第三方庫(kù)數(shù)據(jù)抓取及保存
1.2.3 技能實(shí)訓(xùn)
本章小結(jié)
本章作業(yè)
第2章 初探Scrapy爬蟲框架
任務(wù)1 安裝Scrapy爬蟲框架并創(chuàng)建爬蟲工程
2.1.1 根據(jù)使用場(chǎng)景劃分爬蟲種類
2.1.2 開發(fā)基于Scrapy爬蟲框架的工程
任務(wù)2 學(xué)習(xí)并掌握Scrapy爬蟲框架各模塊的功能
2.2.1 Scrapy爬蟲工程組成
2.2.2 Scrapy爬蟲框架架構(gòu)
本章小結(jié)
本章作業(yè)
第3章 提取網(wǎng)頁(yè)數(shù)據(jù)
任務(wù)1 使用Scrapy的選擇器提取豆瓣電影信息
3.1.1 Response對(duì)象
3.1.2 css選擇器
3.1.3 多層級(jí)網(wǎng)頁(yè)爬取
3.1.4 技能實(shí)訓(xùn)
任務(wù)2 使用正則表達(dá)式從電影介紹詳情中提取信息
3.2.1 正則表達(dá)式
3.2.2 技能實(shí)訓(xùn)
本章小結(jié)
本章作業(yè)
第4章 Scrapy數(shù)據(jù)保存(文件、MySQL、MongoDB)
任務(wù)一 使用Feed exports將爬取的電影信息保存到常見數(shù)據(jù)格式文件中
4.1.1 Feed exports
4.1.2 技能實(shí)訓(xùn)
任務(wù)2 使用pipeline將爬取的電影信息數(shù)據(jù)保存到數(shù)據(jù)庫(kù)中
4.2.1 Python操作MySQL數(shù)據(jù)庫(kù)
4.2.2 pipeline模塊
4.2.3 將數(shù)據(jù)保存到MongoDB中
4.2.4 技能實(shí)訓(xùn)
本章小結(jié)
本章作業(yè)
第5章 Scrapy反反爬技術(shù)
任務(wù)1 學(xué)習(xí)反爬蟲和反反爬蟲策略
5.1.1 反爬蟲方法和反反爬蟲策略
5.1.2 Scrapy設(shè)置實(shí)現(xiàn)反反爬
5.1.3 技能實(shí)訓(xùn)
任務(wù)2 學(xué)習(xí)Scrapy框架中*多常用的設(shè)置
……

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)