注冊(cè) | 登錄讀書(shū)好,好讀書(shū),讀好書(shū)!
讀書(shū)網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書(shū)科學(xué)技術(shù)工業(yè)技術(shù)建筑科學(xué)建筑設(shè)計(jì)Python網(wǎng)絡(luò)爬蟲(chóng)從入門(mén)到實(shí)踐(第2版)

Python網(wǎng)絡(luò)爬蟲(chóng)從入門(mén)到實(shí)踐(第2版)

Python網(wǎng)絡(luò)爬蟲(chóng)從入門(mén)到實(shí)踐(第2版)

定 價(jià):¥69.00

作 者: 唐松
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買(mǎi)這本書(shū)可以去


ISBN: 9787111626879 出版時(shí)間: 2019-06-01 包裝: 平裝
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 292 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  使用Python編寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)程序獲取互聯(lián)網(wǎng)上的大數(shù)據(jù)是當(dāng)前的熱門(mén)專題。本書(shū)內(nèi)容包括三部分:基礎(chǔ)部分、進(jìn)階部分和項(xiàng)目實(shí)踐。基礎(chǔ)部分(第1~7章)主要介紹爬蟲(chóng)的三個(gè)步驟——獲取網(wǎng)頁(yè)、解析網(wǎng)頁(yè)和存儲(chǔ)數(shù)據(jù),并通過(guò)諸多示例的講解,讓讀者能夠從基礎(chǔ)內(nèi)容開(kāi)始系統(tǒng)性地學(xué)習(xí)爬蟲(chóng)技術(shù),并在實(shí)踐中提升Python爬蟲(chóng)水平。進(jìn)階部分(第8~13章)包括多線程的并發(fā)和并行爬蟲(chóng)、分布式爬蟲(chóng)、更換IP等,幫助讀者進(jìn)一步提升爬蟲(chóng)水平。項(xiàng)目實(shí)踐部分(第14~17章)使用本書(shū)介紹的爬蟲(chóng)技術(shù)對(duì)幾個(gè)真實(shí)的網(wǎng)站進(jìn)行抓取,讓讀者能在讀完本書(shū)后根據(jù)自己的需求寫(xiě)出爬蟲(chóng)程序。

作者簡(jiǎn)介

  唐松,康奈爾大學(xué)信息科學(xué)研究生,高考獲全額獎(jiǎng)學(xué)金就讀于香港中文大學(xué)計(jì)量營(yíng)銷和金融學(xué),畢業(yè)后與IBM合作A100項(xiàng)目,為美的、中信等公司實(shí)踐大數(shù)據(jù)落地項(xiàng)目,熱衷將數(shù)據(jù)科學(xué)與商業(yè)結(jié)合應(yīng)用。

圖書(shū)目錄

前言
第1章 網(wǎng)絡(luò)爬蟲(chóng)入門(mén)1
1.1 為什么要學(xué)網(wǎng)絡(luò)爬蟲(chóng)2
1.1.1 網(wǎng)絡(luò)爬蟲(chóng)能帶來(lái)什么好處2
1.1.2 能從網(wǎng)絡(luò)上爬取什么數(shù)據(jù)3
1.1.3 應(yīng)不應(yīng)該學(xué)爬蟲(chóng)3
1.2 網(wǎng)絡(luò)爬蟲(chóng)是否合法3
1.2.1 Robots協(xié)議4
1.2.2 網(wǎng)絡(luò)爬蟲(chóng)的約束5
1.3 網(wǎng)絡(luò)爬蟲(chóng)的基本議題6
1.3.1 Python爬蟲(chóng)的流程7
1.3.2 三個(gè)流程的技術(shù)實(shí)現(xiàn)7
第2章 編寫(xiě)第一個(gè)網(wǎng)絡(luò)爬蟲(chóng)9
2.1 搭建Python平臺(tái)10
2.1.1 Python的安裝10
2.1.2 使用pip安裝第三方庫(kù)12
2.1.3 使用編輯器Jupyter 編程13
2.1.4 使用編輯器Pycharm編程15
2.2 Python 使用入門(mén)18
2.2.1 基本命令18
2.2.2 數(shù)據(jù)類型19
2.2.3 條件語(yǔ)句和循環(huán)語(yǔ)句21
2.2.4 函數(shù)23
2.2.5 面向?qū)ο缶幊?4
2.2.6 錯(cuò)誤處理28
2.3 編寫(xiě)第一個(gè)簡(jiǎn)單的爬蟲(chóng)29
2.3.1 第一步:獲取頁(yè)面29
2.3.2 第二步:提取需要的數(shù)據(jù)30
2.3.3 第三步:存儲(chǔ)數(shù)據(jù)32
2.4 Python實(shí)踐:基礎(chǔ)鞏固33
2.4.1 Python基礎(chǔ)試題34
2.4.2 參考答案35
2.4.3 自我實(shí)踐題38
第3章 靜態(tài)網(wǎng)頁(yè)抓取39
3.1 安裝Requests40
3.2 獲取響應(yīng)內(nèi)容40
3.3 定制Requests41
3.3.1 傳遞URL參數(shù)41
3.3.2 定制請(qǐng)求頭42
3.3.3 發(fā)送POST請(qǐng)求43
3.3.4 超時(shí)44
3.4 Requests爬蟲(chóng)實(shí)踐:TOP250電影數(shù)據(jù)44
3.4.1 網(wǎng)站分析45
3.4.2 項(xiàng)目實(shí)踐45
3.4.3 自我實(shí)踐題47
第4章 動(dòng)態(tài)網(wǎng)頁(yè)抓取48
4.1 動(dòng)態(tài)抓取的實(shí)例49
4.2 解析真實(shí)地址抓取50
4.3 通過(guò)Selenium模擬瀏覽器抓取55
4.3.1 Selenium的安裝與基本介紹55
4.3.2 Selenium的實(shí)踐案例57
4.3.3 Selenium獲取文章的所有評(píng)論58
4.3.4 Selenium的高級(jí)操作61
4.4 Selenium爬蟲(chóng)實(shí)踐:深圳短租數(shù)據(jù)64
4.4.1 網(wǎng)站分析64
4.4.2 項(xiàng)目實(shí)踐66
4.4.3 自我實(shí)踐題69
第5章 解析網(wǎng)頁(yè)70
5.1 使用正則表達(dá)式解析網(wǎng)頁(yè)71
5.1.1 re.match方法71
5.1.2 re.search方法74
5.1.3 re.findall方法74
5.2 使用BeautifulSoup解析網(wǎng)頁(yè)76
5.2.1 BeautifulSoup的安裝76
5.2.2 使用BeautifulSoup獲取博客標(biāo)題77
5.2.3 BeautifulSoup的其他功能78
5.3 使用lxml解析網(wǎng)頁(yè)82
5.3.1 lxml的安裝82
5.3.2 使用lxml獲取博客標(biāo)題82
5.3.3 XPath的選取方法84
5.4 總結(jié)85
5.5 BeautifulSoup爬蟲(chóng)實(shí)踐:房屋價(jià)格數(shù)據(jù)86
5.5.1 網(wǎng)站分析86
5.5.2 項(xiàng)目實(shí)踐87
5.5.3 自我實(shí)踐題89
第6章 數(shù)據(jù)存儲(chǔ)90
6.1 基本存儲(chǔ):存儲(chǔ)至TXT或CSV91
6.1.1 把數(shù)據(jù)存儲(chǔ)至TXT91
6.1.2 把數(shù)據(jù)存儲(chǔ)至CSV93
6.2 存儲(chǔ)至MySQL數(shù)據(jù)庫(kù)94
6.2.1 下載安裝MySQL95
6.2.2 MySQL的基本操作99
6.2.3 Python操作MySQL數(shù)據(jù)庫(kù)104
6.3 存儲(chǔ)至MongoDB數(shù)據(jù)庫(kù)106
6.3.1 下載安裝MongoDB107
6.3.2 MongoDB的基本概念110
6.3.3 Python操作MongoDB數(shù)據(jù)庫(kù)112
6.3.4 RoboMongo的安裝與使用113
6.4 總結(jié)115
6.5 MongoDB爬蟲(chóng)實(shí)踐:虎撲論壇116
6.5.1 網(wǎng)站分析116
6.5.2 項(xiàng)目實(shí)踐117
6.5.3 自我實(shí)踐題123
第7章 Scrapy框架124
7.1 Scrapy是什么125
7.1.1 Scrapy架構(gòu)125
7.1.2 Scrapy數(shù)據(jù)流(Data Flow)126
7.1.3 選擇Scrapy還是Requests+bs4127
7.2 安裝Scrapy128
7.3 通過(guò)Scrapy抓取博客128
7.3.1 創(chuàng)建一個(gè)Scrapy項(xiàng)目128
7.3.2 獲取博客網(wǎng)頁(yè)并保存129
7.3.3 提取博客標(biāo)題和鏈接數(shù)據(jù)131
7.3.4 存儲(chǔ)博客標(biāo)題和鏈接數(shù)據(jù)133
7.3.5 獲取文章內(nèi)容134
7.3.6 Scrapy的設(shè)置文件136
7.4 Scrapy爬蟲(chóng)實(shí)踐:財(cái)經(jīng)新聞數(shù)據(jù)137
7.4.1 網(wǎng)站分析137
7.4.2 項(xiàng)目實(shí)踐138
7.4.3 自我實(shí)踐題141
第8章 提升爬蟲(chóng)的速度142
8.1 并發(fā)和并行,同步和異步143
8.1.1 并發(fā)和并行143
8.1.2 同步和異步143
8.2 多線程爬蟲(chóng)144
8.2.1 簡(jiǎn)單的單線程爬蟲(chóng)145
8.2.2 學(xué)習(xí)Python多線程145
8.2.3 簡(jiǎn)單的多線程爬蟲(chóng)148
8.2.4 使用Queue的多線程爬蟲(chóng)150
8.3 多進(jìn)程爬蟲(chóng)153
8.3.1 使用multiprocessing的多進(jìn)程爬蟲(chóng)153
8.3.2 使用Pool + Queue的多進(jìn)程爬蟲(chóng)155
8.4 多協(xié)程爬蟲(chóng)158
8.5 總結(jié)160
第9章 反爬蟲(chóng)問(wèn)題163
9.1 為什么會(huì)被反爬蟲(chóng)164
9.2 反爬蟲(chóng)的方式有哪些164
9.2.1 不返回網(wǎng)頁(yè)165
9.2.2 返回非目標(biāo)網(wǎng)頁(yè)165
9.2.3 獲取數(shù)據(jù)變難166
9.3 如何“反反爬蟲(chóng)”167
9.3.1 修改請(qǐng)求頭167
9.3.2 修改爬蟲(chóng)的間隔時(shí)間168
9.3.3 使用代理171
9.3.4 更換IP地址172
9.3.5 登錄獲取數(shù)據(jù)172
9.4 總結(jié)172
第10章 解決中文亂碼173
10.1 什么是字符編碼174
10.2 Python的字符編碼176
10.3 解決中文編碼問(wèn)題179
10.3.1 問(wèn)題1:獲取網(wǎng)站的中文顯示亂碼179
10.3.2 問(wèn)題2:非法字符拋出異常180
10.3.3 問(wèn)題3:網(wǎng)頁(yè)使用gzip壓縮181
10.3.4 問(wèn)題4:讀寫(xiě)文件的中文亂碼182
10.4 總結(jié)184
第11章 登錄與驗(yàn)證碼處理185
11.1 處理登錄表單186
11.1.1 處理登錄表單186
11.1.2 處理cookies,讓網(wǎng)頁(yè)記住你的登錄190
11.1.3 完整的登錄代碼193
11.2 驗(yàn)證碼的處理194
11.2.1 如何使用驗(yàn)證碼驗(yàn)證195
11.2.2 人工方法處理驗(yàn)證碼197
11.2.3 OCR處理驗(yàn)證碼200
11.3 總結(jié)203
第12章 服務(wù)器采集204
12

本目錄推薦

掃描二維碼
Copyright ? 讀書(shū)網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)