注冊 | 登錄讀書好,好讀書,讀好書!
讀書網-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網絡信息安全AI安全:技術與實戰(zhàn)

AI安全:技術與實戰(zhàn)

AI安全:技術與實戰(zhàn)

定 價:¥148.00

作 者: 騰訊安全朱雀實驗室
出版社: 電子工業(yè)出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787121439261 出版時間: 2022-10-01 包裝: 平裝-膠訂
開本: 16開 頁數: 316 字數:  

內容簡介

  ● 本書首先介紹AI與AI安全的發(fā)展起源、世界主要經濟體的AI發(fā)展戰(zhàn)略規(guī)劃,給出AI安全技術發(fā)展脈絡和框架,并從AI安全實戰(zhàn)出發(fā),重點圍繞對抗樣本、數據投毒、模型后門等攻擊技術進行案例剖析和技術講解;然后對預訓練模型中的風險和防御、AI數據隱私竊取攻擊技術、AI應用失控的風險和防御進行詳細分析,并佐以實戰(zhàn)案例和數據;最后對AI安全的未來發(fā)展進行展望,探討AI安全的風險、機遇、發(fā)展理念和產業(yè)構想?!?本書適合AI和AI安全領域的研究人員、管理人員,以及需要實戰(zhàn)案例輔助學習的廣大愛好者閱讀。

作者簡介

  騰訊安全朱雀實驗室專注于AI 安全技術研究及應用,圍繞對抗機器學習、AI模型安全、深偽檢測等方面取得了一系列研究成果,議題入選CVPR、ICLR、CanSecWest、HITB、POC、XCon等國內外頂級會議,面向行業(yè)發(fā)布了業(yè)內第一個AI安全威脅風險矩陣,持續(xù)聚焦AI在產業(yè)應用的安全問題,助力AI安全技術創(chuàng)新。

圖書目錄

●第1章 AI安全發(fā)展概述●
1.1 AI與安全衍生
1.1.1 AI發(fā)展圖譜
1.1.2 各國AI發(fā)展戰(zhàn)略
1.1.3 AI行業(yè)標準
1.1.4 AI安全的衍生本質——科林格里奇困境
 
1.2 AI安全技術發(fā)展脈絡
 
●第2章 對抗樣本攻擊●
2.1 對抗樣本攻擊的基本原理
2.1.1 形式化定義與理解
2.1.2 對抗樣本攻擊的分類
2.1.3 對抗樣本攻擊的常見衡量指標
 
2.2 對抗樣本攻擊技巧與攻擊思路
2.2.1 白盒攻擊算法
2.2.2 黑盒攻擊算法
 
2.3 實戰(zhàn)案例:語音、圖像、文本識別引擎繞過
2.3.1 語音識別引擎繞過
2.3.2 圖像識別引擎繞過
2.3.3 文本識別引擎繞過
 
2.4 實戰(zhàn)案例:物理世界中的對抗樣本攻擊
2.4.1 目標檢測原理
2.4.2 目標檢測攻擊原理
2.4.3 目標檢測攻擊實現
2.4.4 攻擊效果展示
 
2.5 案例總結
 
●第3章 數據投毒攻擊●
3.1 數據投毒攻擊概念
 
3.2 數據投毒攻擊的基本原理
3.2.1 形式化定義與理解
3.2.2 數據投毒攻擊的范圍與思路
 
3.3 數據投毒攻擊技術發(fā)展
3.3.1 傳統數據投毒攻擊介紹
3.3.2 數據投毒攻擊約束
3.3.3 數據投毒攻擊效率優(yōu)化
3.3.4 數據投毒攻擊遷移能力提升
 
3.4 實戰(zhàn)案例:利用數據投毒攻擊圖像分類模型
3.4.1 案例背景
3.4.2 深度圖像分類模型
3.4.3 數據投毒攻擊圖像分類模型
3.4.4 實驗結果
 
3.5 實戰(zhàn)案例:利用投毒日志躲避異常檢測系統
3.5.1 案例背景
3.5.2 RNN異常檢測系統
3.5.3 投毒方法介紹
3.5.4 實驗結果
 
3.6 案例總結
 
●第4章 模型后門攻擊●
4.1 模型后門概念
 
4.2 后門攻擊種類與原理
4.2.1 投毒式后門攻擊
4.2.2 非投毒式后門攻擊
4.2.3 其他數據類型的后門攻擊
 
4.3 實戰(zhàn)案例:基于數據投毒的模型后門攻擊
4.3.1 案例背景
4.3.2 后門攻擊案例
 
4.4 實戰(zhàn)案例:供應鏈攻擊
4.4.1 案例背景
4.4.2 解析APK
4.4.3 后門模型訓練
 
4.5 實戰(zhàn)案例:基于模型文件神經元修改的模型后門攻擊
4.5.1 案例背景
4.5.2 模型文件神經元修改
4.5.3 觸發(fā)器優(yōu)化
 
4.6 案例總結
 
●第5章 預訓練模型安全●
5.1 預訓練范式介紹
5.1.1 預訓練模型的發(fā)展歷程
5.1.2 預訓練模型的基本原理
 
5.2 典型風險分析和防御措施
5.2.1 數據風險
5.2.2 敏感內容生成風險
5.2.3 供應鏈風險
5.2.4 防御策略
 
5.3 實戰(zhàn)案例:隱私數據泄露
5.3.1 實驗概況
5.3.2 實驗細節(jié)
5.3.3 結果分析
 
5.4 實戰(zhàn)案例:敏感內容生成
5.4.1 實驗概況
5.4.2 實驗細節(jié)
5.4.3 結果分析
 
5.5 實戰(zhàn)案例:基于自診斷和自去偏的防御
5.5.1 實驗概況
5.5.2 實驗細節(jié)
5.5.3 結果分析
 
5.6 案例總結
 
●第6 章 AI數據隱私竊取●
6.1 數據隱私竊取的基本原理
6.1.1 模型訓練中數據隱私竊取
6.1.2 模型使用中數據隱私竊取
 
6.2 數據隱私竊取的種類與攻擊思路
6.2.1 數據竊取攻擊
6.2.2 成員推理攻擊
6.2.3 屬性推理攻擊
 
6.3 實戰(zhàn)案例:聯邦學習中的梯度數據竊取攻擊
6.3.1 案例背景
6.3.2 竊取原理介紹
6.3.3 竊取案例
6.3.4 結果分析
 
6.4 實戰(zhàn)案例:利用AI水印對抗隱私泄露
6.4.1 案例背景
6.4.2 AI保護數據隱私案例
6.4.3 AI水印介紹
6.4.4 結果分析
 
6.5 案例總結
 
●第7 章 AI應用失控風險●
7.1 AI應用失控
7.1.1 深度偽造技術
7.1.2 深度偽造安全風險
 
7.2 AI應用失控防御方法
7.2.1 數據集
7.2.2 技術防御
7.2.3 內容溯源
7.2.4 行業(yè)實踐
7.2.5 面臨挑戰(zhàn)
7.2.6 未來工作
 
7.3 實戰(zhàn)案例:VoIP電話劫持 語音克隆攻擊
7.3.1 案例背景
7.3.2 實驗細節(jié)
 
7.4 實戰(zhàn)案例:深度偽造鑒別
7.4.1 案例背景
7.4.2 實驗細節(jié)
7.4.3 結果分析
 
7.5 案例總結
 
●后記 AI安全發(fā)展展望●

本目錄推薦

掃描二維碼
Copyright ? 讀書網 m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網安備 42010302001612號