注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁新聞資訊書摘

我們可以完全依賴人工智能進(jìn)行決策嗎?

從基于大數(shù)據(jù)的罪犯畫像到無人駕駛,從未來的性別認(rèn)同到人類在虛擬世界中的互動關(guān)系,從基因編輯引發(fā)的倫理擔(dān)憂到人工子宮和人體冷凍法,《未來道德:來自新科技的挑戰(zhàn)》一書匯集了29位哲學(xué)家的文章

【編者按】

從基于大數(shù)據(jù)的罪犯畫像到無人駕駛,從未來的性別認(rèn)同到人類在虛擬世界中的互動關(guān)系,從基因編輯引發(fā)的倫理擔(dān)憂到人工子宮和人體冷凍法,《未來道德:來自新科技的挑戰(zhàn)》一書匯集了29位哲學(xué)家的文章,就現(xiàn)已出現(xiàn)以及即將面世的未來科技可能對人類社會帶來的倫理挑戰(zhàn)做出了深入的剖析與預(yù)測,從哲學(xué)的角度思考未來科技與人類的命運(yùn)如何相互作用,本文為該書第20章、由杰斯·惠特斯通(Jess Whittlestone)撰寫的《可以完全依賴人工智能進(jìn)行決策嗎》一文。

我們面臨現(xiàn)今最具挑戰(zhàn)性的全球問題時,人工智能技術(shù)的進(jìn)步將會怎樣幫助我們應(yīng)對它呢?

最近幾十年來,有關(guān)心理學(xué)的研究記錄下了人們?nèi)菀桩a(chǎn)生的偏見和容易做出的不理智行為,描繪出了一幅有關(guān)人類決策的悲劇畫卷。這一事實似乎在一定程度上證明我們在面對不容忽視的全球性巨變時所做出的抗?fàn)幨潜匾?,例如:緩解因新興技術(shù)而產(chǎn)生的氣候變化和隱患,減少全球范圍內(nèi)的不公平現(xiàn)象。我們發(fā)現(xiàn)自己很難被長期的、抽象的,或統(tǒng)計性的因素所驅(qū)動而做出某種改變。許多全球性問題過于復(fù)雜,我們無法完全理解。同樣,我們也不能以十足的把握預(yù)測在遙遠(yuǎn)的未來發(fā)生的事。

與此同時,人工智能的發(fā)展正受到越來越多的關(guān)注,這就催生出了一個問題:我們能否通過利用這些技術(shù),改善我們在未來的重要問題上做出的決策?如果可以,那我們該怎么做?

人類決策的優(yōu)勢和短板

如果要具體展開說的話,近幾十年來在人工智能領(lǐng)域的研究表明,人類的能力的確超群,只是這種強(qiáng)大并不是我們習(xí)以為常的那種。在人類認(rèn)知領(lǐng)域,有許多我們司空見慣的事物被證明很難被機(jī)器復(fù)制。比如,我們能夠?qū)⑿螒B(tài)各異的椅子或者狗歸類,還能識別具有不同光影、背景、視角的圖像。這些對我們來說輕而易舉的事,在人工智能系統(tǒng)的設(shè)計中卻很難被實現(xiàn)。相反,我們認(rèn)為下國際象棋需要運(yùn)用更多智慧,但事實是人工智能只需要簡單粗暴的學(xué)習(xí)就能輕松掌握。早在1997年,國際象棋的世界冠軍就已經(jīng)被電腦擊敗了。

一般來說,和機(jī)器相比,人類的認(rèn)知能力已經(jīng)被證明是十分強(qiáng)大且靈活的。當(dāng)我們細(xì)想每天要處理多少復(fù)雜和模棱兩可的信息,要做多少個決定時,像適應(yīng)我們所處的環(huán)境和通過別人的表情了解他們的情緒這種“小事”就更加容易受到關(guān)注。

因為我們面臨的世界有著極大的復(fù)雜性和不確定性,我們不可能將每一個決策做到盡善盡美。所以,我們選擇經(jīng)驗主義的捷徑:不假思索地走上以前一直走過的路。我們總是模仿周圍人的行為。我們總是過濾掉大量非急需的信息。要想同時理解人類思想的優(yōu)勢和短板,我們就一定要明白我們接收和處理信息的能力是有限的,所以我們需要“經(jīng)驗法則”幫助我們理解這個極其復(fù)雜和充滿不確定性的世界。這些基于經(jīng)驗的捷徑思維在大部分情況下十分奏效,但是它們也系統(tǒng)性地限制了我們的思想。

即便是在做類似于今晚吃什么,或給朋友買什么生日禮物等最簡單的決定時,我們也需要考慮要注意什么信息,忽略什么信息。世上有許多選項供我們選擇,即使你將選擇范圍縮小到一個方向,比如選擇一件針織套衫,也有數(shù)以千計的品牌和商鋪供你挑選。即便你的冰箱里只有十種食材,你也有數(shù)百種組合它們的方式。所有的這些意味著我們有可能更傾向于倚重那些在情感上令人信服的,或者是直接擺在我們面前的信息,而不是那些更加抽象且不確定,但又更加重要的信息。與其嘗試解決如何最大限度地改善我朋友的生活這一難題,不如直接給他們買我第一眼相中的那件針織套衫。我們也更容易被短期的甜頭所吸引,比如只想再多吃一勺冰激凌,而不太容易被長期的、更加可靠的好處所驅(qū)使,例如健康飲食的好處。

我們在決策中簡單粗暴地基于經(jīng)驗捷徑行事也意味著保持一致性并非我們的強(qiáng)項。在不同的日子問我同一個問題,我可能會根據(jù)你對問題的表達(dá)和我當(dāng)時的想法,給出不同的回答。事實上,因為我們必須走許多捷徑,所以在面對復(fù)雜且模棱兩可的信息時,我們?nèi)菀琢?xí)得“錯覺相關(guān)”。換句話說,就是讓我們相信并不存在的模式或聯(lián)系。有人認(rèn)為,這種傾向為毫無真實性且有害的刻板印象的形成和持續(xù)存在打下了基礎(chǔ):假設(shè)你認(rèn)為女性不如男性,那么你就會開始關(guān)注所有適用于此觀點的男性個體和女性個體,而刻意忽略所有不適用于此觀點的案例。

這些局限性似乎會特別影響我們應(yīng)對全球性挑戰(zhàn)的能力。這些挑戰(zhàn)需要我們提前做好準(zhǔn)備,并在應(yīng)對時采取集體行動。但正是這些挑戰(zhàn)的“全球性”讓我們很難對它們進(jìn)行理解和預(yù)測:當(dāng)面對哪些干預(yù)措施最能有效減輕氣候變化,核武器的威脅有多大,或者是新型傳染病的傳播速度有多快等復(fù)雜問題時,我們的直覺變得不再可靠。在回答這些問題時,我們很容易給出看似言之有理但是過于簡單的結(jié)論,并在這上面浪費大量的時間和資源。

我們在人類決策中見識到的偏見和錯誤,證明了我們大腦承載的信息量超出了我們能夠承受的范圍,即所謂的信息過載。在很多方面,這種信息過載的情況只增不減——我們在網(wǎng)絡(luò)上接觸到越來越多信息,我們比以往任何時候都有更多選擇。這讓我們處理信息的局限性愈發(fā)凸顯。

但是,我們有沒有辦法利用全球的互聯(lián)互通和隨時可利用的信息應(yīng)對全球挑戰(zhàn)?

人工智能的預(yù)示

對于利用人工智能改善決策,我們有兩種截然不同的認(rèn)知方式。

第一種是將人工智能系統(tǒng)視作人工決策的替代品:越來越多的決策被外包給能夠更快更高效地解決問題的自動化系統(tǒng)。舉一個簡單的例子,谷歌地圖在獲悉一個城市的所有路徑,以及計算從A點到B點的最優(yōu)路徑等事上勝過我的大腦,所以很多時候我都會將制定路線的決策外包給它,不加思考地按照它的導(dǎo)航走。

第二種是將人工智能系統(tǒng)視作人類能力的補(bǔ)充:它們能幫助我們以全新且重要的方式理解這個世界。我們不能簡單地認(rèn)為這些方式優(yōu)于人類理解世界的方式,兩者應(yīng)是互補(bǔ)的。在有些事上,我更了解我的城市,比如哪些路線在晚上最安全,哪些路線在白天的風(fēng)景最好,這些信息都不容易被谷歌地圖的軟件收錄。谷歌地圖可以幫助我規(guī)劃耗時最短的路線,以節(jié)省我的體力和時間,但是在其他情況下,我會把谷歌地圖導(dǎo)航與我已知的其他知識相結(jié)合使用。

當(dāng)前許多有關(guān)人工智能在社會中的運(yùn)用的討論都含蓄地指向第一種觀點:也就是用更高效、更優(yōu)秀的人工智能決策程序取代人類決策。這一觀點似乎也加強(qiáng)了許多有關(guān)人工智能對社會和人類產(chǎn)生的潛在影響的擔(dān)心:工作中自動化的增長究竟對經(jīng)濟(jì)、不平等以及人存在的意義意味著什么;那些被設(shè)定在決策算法中的偏見令人困擾;人工智能開始在越來越多的領(lǐng)域中取代人類,而它的安全性和可靠性究竟幾何。鑒于這些擔(dān)憂,我們的社會應(yīng)該問一個重要的問題:我們是否真的希望,或者需要構(gòu)建一套人工智能系統(tǒng)以取代人工服務(wù)?我的建議是,我們應(yīng)該更明確地考慮將人類和機(jī)器各自的優(yōu)勢相結(jié)合,尤其是在我們的社會面臨最關(guān)鍵的問題時。

由于人類推理的局限性源于我們有限的認(rèn)知能力,我們有充分的理由認(rèn)為人工智能可以幫助我們克服這些具體的局限性,并與我們的思維優(yōu)勢互補(bǔ)。當(dāng)處理諸如說服他人或與他人交流等多數(shù)日常問題時,人工智能系統(tǒng)往往不如人類靈活高效,但是它們可以幫助我們更加精確可靠地理解大量復(fù)雜信息。在聯(lián)合國最近的一份關(guān)于人工智能的報告中,聯(lián)合國糧食及農(nóng)業(yè)組織表示:“人工智能最重要的作用……是預(yù)測意外事件、威脅和危機(jī)。通過早期發(fā)現(xiàn)、預(yù)防和緩解等手段,我們就可以在饑荒、氣候變化、移民等挑戰(zhàn)成為危機(jī)前將其解決?!?/p>

人工智能與人類能力優(yōu)勢互補(bǔ)的另一種顯著方式是為我們提供工具,更嚴(yán)格地設(shè)計決策過程,從而幫我們做出更一致、更系統(tǒng)的決策。

有證據(jù)顯示,在簡單的問題預(yù)判方面,即使是非常簡單的算法也勝過專家的判斷。例如,在預(yù)測假釋期中的囚犯是否會再次犯罪,或是潛在候選人在未來的工作中是否能夠表現(xiàn)良好時,算法已被證實比人類的預(yù)測更準(zhǔn)確。在超過100個不同領(lǐng)域的研究中,半數(shù)案例顯示簡單的算法能比專家做出更好的、更有意義的預(yù)測,其余的案例(除了極少數(shù))則顯示兩者之間不相上下。當(dāng)問題涉及諸多因素且某種情況存在極大的不確定性時,簡單的算法可以通過關(guān)注最重要的因素和保持一致性勝出,而人類的判斷很容易被一些顯而易見但可能與最終事實毫不相關(guān)的因素動搖。更深入的證據(jù)也證明了類似觀點,即“重大事項清單”可以通過確保人們在超負(fù)荷工作時不遺漏重要步驟或事項,提升多個領(lǐng)域?qū)<覜Q策的質(zhì)量。例如,在重癥監(jiān)護(hù)室治療患者需要每天進(jìn)行上百個細(xì)微動作,一個小錯誤就有可能導(dǎo)致患者死亡。事實證明,在從預(yù)防活體感染到減少肺炎病例等一系列醫(yī)療活動中,利用清單(備忘錄)來確保不遺漏每個關(guān)鍵步驟是十分有效的。

除了非常簡單的算法,其他基于人工智能的工具也能在復(fù)雜的領(lǐng)域進(jìn)行更好的因果推理和概率推理。人們天生就有能力建立這個世界的因果模型,以解釋事情發(fā)生的緣由,這是人工智能系統(tǒng)所不具備的能力。例如,一個醫(yī)生可以通過講解治療給患者身體帶來的變化,向患者解釋為什么這種治療有用,但是現(xiàn)代的機(jī)器學(xué)習(xí)系統(tǒng)只能回答:接受這種治療的患者基本上身體都有所好轉(zhuǎn)。但是,當(dāng)因果關(guān)系變得足夠復(fù)雜時,比如評估政策干預(yù)對整個社會的影響,人類的推理仍然容易出現(xiàn)混亂和錯誤。在這種情況下,使用更加結(jié)構(gòu)化的人工智能工具輔助人類進(jìn)行推理會大有裨益。研究人員一直在探索使用貝葉斯(Bayesian)網(wǎng)絡(luò)。它是一種人工智能技術(shù),可以用于描繪事物之間的因果關(guān)系和表示不同領(lǐng)域存在的不確定性的程度,從而為決策提供支持,比如更準(zhǔn)確地評估風(fēng)險。在歷史數(shù)據(jù)不足的情況下,這些技術(shù)對評估類似于恐怖襲擊或新的生態(tài)災(zāi)難等新型或罕見的威脅十分有效。

這對我們應(yīng)該建立的人工智能系統(tǒng)意味著什么

從人工智能在哪些方面能夠支持更好的決策的例子中,我們可能注意到兩件事。第一,在這些案例中不存在人工智能系統(tǒng)完全接管決策過程的情況,相反,它們被用來提取有用的信息并將這些信息結(jié)構(gòu)化,以幫助我們規(guī)避人類推理的一些常見陷阱。第二,許多案例并不涉及遙不可及的精密機(jī)器學(xué)習(xí)方法,而是與分析數(shù)據(jù)和架構(gòu)決策相關(guān)的簡單算法,根據(jù)主流定義,這些算法和工具都不會被歸為“人工智能”。

人類很難只靠自己收集和分析來預(yù)測病毒的傳播,提供繪制發(fā)展中國家人口密度圖所需要的數(shù)據(jù)。但是,那些以這些信息為依據(jù)做出的決策還是需要由人類做出,比如應(yīng)該實施怎樣的衛(wèi)生干預(yù)措施,或是如何在國內(nèi)分配稀缺資源等。這種決策最后可能深受價值觀影響,充滿政治性,需要在合理的不同意見中做出權(quán)衡。例如,在決定如何在醫(yī)院之間有效分配資源時,要在病情最嚴(yán)重的患者和最有可能康復(fù)的患者之間進(jìn)行權(quán)衡。為了盡可能地確保這些決策公正透明,它們必須由了解全部情況并且能夠承擔(dān)相應(yīng)責(zé)任的人做出。

實際上,最近在社會上,由人工智能的使用產(chǎn)生的諸多問題,都源于它們被用于自動執(zhí)行那些包含著主觀因素的決策:有關(guān)某人是否應(yīng)該被假釋,是否應(yīng)得到這份工作,以及是否應(yīng)向其提供貸款等問題的決策。算法可以為我們推算來自某一特定群體的人再次犯罪、成功就業(yè)或償還貸款的概率提供統(tǒng)計信息。但是基于這些統(tǒng)計信息,誰應(yīng)該得到怎樣的機(jī)會仍是一個沒有標(biāo)準(zhǔn)的問題。毫無疑問,遵循算法可能會最終加劇歷史上的不公:如果少數(shù)族裔在招聘中一向受到歧視,那么數(shù)據(jù)將會顯示他們在工作中成功的概率較低,從而導(dǎo)致他們在未來受到更多的歧視。

但是,如果我們將在這些背景中使用的算法視作一個范圍更廣的決策中的一項數(shù)據(jù)分析,那么我們更容易關(guān)注并減輕對于偏見的擔(dān)憂。我們不應(yīng)該期望人工智能系統(tǒng)能夠理解人類價值觀的復(fù)雜性和細(xì)微差別。鑒于人類和人工智能各自的相對優(yōu)勢,這顯然不是它們目前最能幫助到我們的地方。

盡管如此,當(dāng)涉及情況特殊,具有主觀性的決策時,算法有時可以幫助我們更清晰地梳理問題,減少我們在認(rèn)知過程中下的功夫:提取關(guān)鍵信息,確保我們不會忽略重要因素,并幫助我們更清晰地思考復(fù)雜系統(tǒng)中的因果關(guān)系?;氐郊膊」芸氐陌咐?,人工智能系統(tǒng)無法告訴政府如何最大限度地拯救生命,但是不同的工具可以提供有關(guān)病毒蔓延及其后果的有效數(shù)據(jù)信息,確保政策制定者在決策時考慮到所有重要因素,并在他們預(yù)判備選政策的影響時提供決策支持。

如果我們把人工智能更多地視作對人類決策的支持與補(bǔ)充而不是后者的替代品,我們可能會發(fā)現(xiàn)我們最需要的絕不是如今被大肆宣傳和被研究人員高度關(guān)注的極其復(fù)雜的機(jī)器學(xué)習(xí)能力。對于許多重要的現(xiàn)實問題,最被我們需要的并不一定是最佳的計算機(jī)視覺和自然語言處理能力,因為我們的視覺和語言能力已經(jīng)非常優(yōu)秀了。我們最需要的是較為簡單的大數(shù)據(jù)分析,以及架構(gòu)推理和決策的實用性工具。

如果我們明確地將目標(biāo)定為構(gòu)建人工智能以幫助人類處理需要應(yīng)對的重要事情,那么我們的重點研究領(lǐng)域?qū)c現(xiàn)在的大相徑庭。

《未來道德:來自新科技的挑戰(zhàn)》,[英]大衛(wèi)·埃德蒙茲編著,蔣蘭譯,中國科學(xué)技術(shù)出版社2023年1月。

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) m.ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號