【編者按】
南加州大學(xué)安納伯格分校的教授凱特·克勞福德是微軟研究院研究員、紐約大學(xué) AI Now研究所的聯(lián)合創(chuàng)始人。她的研究重點(diǎn)是在更廣泛的歷史、政治、勞工和環(huán)境背景下理解機(jī)器學(xué)習(xí)和人工智能。其著作《技術(shù)之外:社會(huì)聯(lián)結(jié)中的人工智能》揭示了人工智能在真實(shí)世界中的成本、運(yùn)作邏輯和后果,破除了人工智能“技術(shù)中立”的神話。在她看來(lái),人工智能是一種行使權(quán)力的形式和一種觀看方式,也是一種高度組織化的資本表現(xiàn),人工智能完全依賴于一套更廣泛的政治和社會(huì)結(jié)構(gòu)。在如今人工智能大行其道的世界里,通過(guò)不斷對(duì)人工智能進(jìn)行追問(wèn)和批判性思考,才能夠逐步接近真實(shí)的答案。本文摘自《技術(shù)之外:社會(huì)聯(lián)結(jié)中的人工智能》[美]凱特·克勞福德(Kate Crawford)著,中國(guó)原子能出版社/中國(guó)科學(xué)技術(shù)出版社/中科書(shū)院2024年3月版。
《技術(shù)之外:社會(huì)聯(lián)結(jié)中的人工智能》
真實(shí)存在的AI
我們應(yīng)該如何看待人工智能的整個(gè)生命周期及其驅(qū)動(dòng)力?首先,我們需要在更廣泛的物質(zhì)、社會(huì)、政治背景下,繪制人工智能地圖。為此,我們需要走出那些給出人工智能最受歡迎的、學(xué)術(shù)性闡釋的地方,即硅谷的大學(xué)實(shí)驗(yàn)室和開(kāi)放式辦公室,去看看其在全球的提取脈絡(luò)。人工智能誕生于玻利維亞的鹽湖和剛果的礦山,由試圖對(duì)所有人類行為、情感和身份進(jìn)行分類的數(shù)據(jù)集訓(xùn)練,隨后由點(diǎn)擊工人進(jìn)行標(biāo)記,最后被用于導(dǎo)航無(wú)人機(jī)飛越也門,指導(dǎo)美國(guó)的移民警察開(kāi)展行為,并調(diào)節(jié)全球范圍內(nèi)關(guān)于人類價(jià)值和風(fēng)險(xiǎn)的信用評(píng)分。通過(guò)這種廣角的、多標(biāo)量的人工智能視角,我們可以瞥見(jiàn)提取、政治和技術(shù)力量機(jī)制之間交錯(cuò)復(fù)雜的聯(lián)系。
我們從地下開(kāi)始,在那里,可以看到人工智能真實(shí)的資源提取政治。稀土礦物、水、煤炭和石油:科技部門正在開(kāi)發(fā)地球,為行星計(jì)算的高能耗基礎(chǔ)設(shè)施提供燃料。就硬件而言,數(shù)據(jù)中心和消費(fèi)者所用的智能設(shè)備,都高度依賴日趨耗竭的資源與來(lái)自沖突礦區(qū)的原材料。在軟件方面,自然語(yǔ)言處理和計(jì)算機(jī)視覺(jué)模型的構(gòu)建,需要巨大的能源消耗,而且更快、更高效的模型,助長(zhǎng)了擴(kuò)大人工智能碳足跡的“貪婪計(jì)算”方法的盛行。
對(duì)于這種環(huán)境損耗,科技行業(yè)從未完全承認(rèn)或給予任何考慮,因?yàn)榭萍夹袠I(yè)在擴(kuò)大數(shù)據(jù)中心網(wǎng)絡(luò)的同時(shí),也在幫助石油和天然氣行業(yè)剝離地球上剩余的化石燃料儲(chǔ)備??傮w而言,以人工智能計(jì)算為代表,計(jì)算的真實(shí)成本并不透明,這反映了一種長(zhǎng)期的商業(yè)模式的一部分,即從公共資源中提取價(jià)值,卻不為產(chǎn)出的真實(shí)成本買單。
勞動(dòng)力代表了另一種形式的提取。在第二章中,我們超越了高薪機(jī)器學(xué)習(xí)工程師的范疇,考察了全球范圍內(nèi),使人工智能系統(tǒng)運(yùn)行所必需的所有工作形式。從在印度尼西亞開(kāi)采錫的礦工,到在印度用亞馬遜土耳其機(jī)器人完成任務(wù)的眾包工人,再到在菲律賓工作的內(nèi)容審核員,人工智能的勞動(dòng)力規(guī)模遠(yuǎn)遠(yuǎn)超出人們的想象。即使在科技公司本身,也存在著大量以合同工形式存在的影子勞動(dòng)力:例如,像谷歌這種高估值的公司,以更低的成本、更少的福利和沒(méi)有帶薪假期,建立了一個(gè)合同工隊(duì)伍,其數(shù)量遠(yuǎn)遠(yuǎn)超過(guò)了全職員工。
在科技行業(yè)的物流節(jié)點(diǎn),我們發(fā)現(xiàn)人類完成了機(jī)器無(wú)法完成的任務(wù)?,F(xiàn)在,成千上萬(wàn)的人從事著標(biāo)記、糾正、評(píng)估或編輯人工智能系統(tǒng)的工作,而他們都在假裝自己是人工智能,以維持智能的假象。剩下的人則在搬運(yùn)包裹,為打車軟件平臺(tái)開(kāi)車,運(yùn)送食物。人工智能系統(tǒng)在進(jìn)行全程監(jiān)控的同時(shí),也在從人體僅存的功能中榨取最大的產(chǎn)出,因?yàn)槿说氖种?、眼睛和膝蓋關(guān)節(jié)的復(fù)雜連接,比機(jī)器人更便宜、更容易獲得。在這些地方,未來(lái)的工作看起來(lái)更像過(guò)去的泰勒式工廠,而其中的區(qū)別僅在于,工人犯錯(cuò)時(shí)手環(huán)會(huì)振動(dòng),上廁所次數(shù)太多會(huì)受到懲罰。
在工作場(chǎng)所使用人工智能,尤其是情緒檢測(cè)的工具,使企業(yè)掌握了更多的控制權(quán),從而進(jìn)一步加劇了權(quán)力的不對(duì)稱。應(yīng)用程序被用來(lái)跟蹤員工,促使他們延長(zhǎng)工作時(shí)間,并對(duì)他們進(jìn)行實(shí)時(shí)排名。亞馬遜提供了一個(gè)典型的例子,表明了權(quán)力的微觀物理學(xué)(用以約束身體,以及它們?nèi)绾卧诳臻g中移動(dòng))如何與權(quán)力的宏觀物理學(xué)(即行星時(shí)間和信息的物流)聯(lián)系。人工智能系統(tǒng)利用不同市場(chǎng)之間的時(shí)間和工資差異,加速資本循環(huán)。突然之間,城市中心的每個(gè)人都能在下單當(dāng)天收到快遞。系統(tǒng)再次加速,而真正的成本隱藏在無(wú)盡的紙板箱、送貨卡和“現(xiàn)在購(gòu)買”按鈕之后。
在工作場(chǎng)所分析員工的每一個(gè)眼神和手勢(shì),也可以用來(lái)從人們身上提取價(jià)值?!扒楦凶R(shí)別系統(tǒng)”聲稱可以檢測(cè)面部的微表情和聲音中的語(yǔ)調(diào),用來(lái)判斷一個(gè)人是否是合適的員工,或評(píng)估員工在電腦前是否充分投入工作。工作場(chǎng)所使用人工智能,尤其是用來(lái)檢測(cè)和評(píng)估的工具,將更多的控制權(quán)交給了企業(yè),同時(shí)掩蓋了它們使用的系統(tǒng)背后奇怪且往往是錯(cuò)誤的假設(shè),從而進(jìn)一步扭曲了勞動(dòng)力的權(quán)力關(guān)系。
在數(shù)據(jù)層,我們可以看到一種完全不同的提取哲學(xué)?!拔覀冋诮ㄔ煺鎸?shí)世界的一面鏡子,”谷歌街景的工程師在2012年說(shuō)道,“你在現(xiàn)實(shí)世界中看到的任何東西,都需要納入我們的數(shù)據(jù)庫(kù)之中?!睆哪且院?,對(duì)現(xiàn)實(shí)世界數(shù)據(jù)的收割愈演愈烈。正如第三章所述的,包括公園、街道、房屋和汽車在內(nèi)的公共空間,遭到了廣泛的掠奪:科技公司捕捉走在街上的人的臉,以訓(xùn)練面部識(shí)別系統(tǒng);攫取社交媒體信息,來(lái)建立心理健康預(yù)測(cè)模型;抓取人們保存的個(gè)人照片或進(jìn)行的在線辯論,以訓(xùn)練機(jī)器視覺(jué)和自然語(yǔ)言處理算法。這種做法已經(jīng)變得如此常態(tài)化,以至于在人工智能領(lǐng)域幾乎沒(méi)有人質(zhì)疑它。在某種程度上,這是因?yàn)楹芏嗦殬I(yè)和市場(chǎng)估值都依賴它。這種“收集所有信息”的心態(tài),曾經(jīng)僅是情報(bào)機(jī)構(gòu)的職權(quán)范圍,而現(xiàn)在卻不僅常態(tài)化,而且道德化了,即不盡可能多地收集數(shù)據(jù)被認(rèn)為是一種浪費(fèi)。
一旦數(shù)據(jù)被提取并編入訓(xùn)練集,我們就可以看到人工智能系統(tǒng)對(duì)世界進(jìn)行分類的認(rèn)知基礎(chǔ)。從圖網(wǎng)、MSCeleb或NIST的面部照片集合等基準(zhǔn)訓(xùn)練集來(lái)看,圖像被用來(lái)代表比標(biāo)簽所暗示的更具關(guān)聯(lián)性、更具爭(zhēng)議的想法。第四章展示了人工智能中的分類標(biāo)簽如何頻繁地將人們劃分為強(qiáng)制的二元性別、簡(jiǎn)單和毫無(wú)根據(jù)的種族分類,以及高度規(guī)范與刻板的性格、優(yōu)點(diǎn)以及情緒狀態(tài)。這些分類不可避免地充斥著價(jià)值,它們?cè)谛Q科學(xué)中立的同時(shí),也強(qiáng)化了一種“看待世界的方式”。
人工智能中的數(shù)據(jù)集從來(lái)不只是為算法提供的原材料:它們本質(zhì)上是政治干預(yù)。收集數(shù)據(jù)、分類和標(biāo)記,然后用它來(lái)訓(xùn)練系統(tǒng),這種做法本身就是一種形式的政治。這帶來(lái)了一種被稱為“操作型圖像”(operational images)的轉(zhuǎn)變,即完全為機(jī)器創(chuàng)造的世界的表象。偏見(jiàn)只是冰山一角,而在它的下面,是一個(gè)范圍更廣、更集中的規(guī)范邏輯,它決定著我們應(yīng)該如何看待和評(píng)價(jià)這個(gè)世界。正如洛林·達(dá)斯頓在她對(duì)國(guó)際云計(jì)算導(dǎo)航圖的描述中所說(shuō),它們的設(shè)計(jì)是為了幫助云觀察者一致地看到(和看不到)。她寫(xiě)道:“所有的分類都取決于某種程度的抽象,從紛繁復(fù)雜的細(xì)節(jié)世界中抽象化,突出一些顯著的特征,淡化其他特征。”這些選擇,在當(dāng)下看似微不足道,卻有著深遠(yuǎn)而持久的影響。
其中最重要的一個(gè)例子是第五章中介紹的“情感檢測(cè)系統(tǒng)”,它利用人臉和情緒之間的關(guān)系這一有爭(zhēng)議的觀點(diǎn),根據(jù)與測(cè)謊儀相同的還原邏輯來(lái)運(yùn)行。此領(lǐng)域的科學(xué)研究仍存在著很大爭(zhēng)議。當(dāng)然,機(jī)構(gòu)總是把人按身份類別進(jìn)行分類并貼上標(biāo)簽,縮小了人格的復(fù)雜性和關(guān)聯(lián),并將人格切割成可被精確測(cè)量的方框以供核對(duì)。機(jī)器學(xué)習(xí)系統(tǒng)讓上述過(guò)程可以大規(guī)模地、自動(dòng)化地發(fā)生。幾十年來(lái),那些奇怪、富有激情的信念,已然變成了代碼。從巴布亞新幾內(nèi)亞的山城,到馬里蘭州的軍事實(shí)驗(yàn)室,相繼開(kāi)發(fā)出對(duì)應(yīng)的技術(shù),旨在試圖了解人們的思想,并將混亂的情感、內(nèi)心狀態(tài)、偏好和認(rèn)同,降至定量的、可檢測(cè)的、可追蹤的東西。人工智能系統(tǒng)識(shí)別我們的方式,很像魔術(shù)師的把戲,這是一項(xiàng)歷經(jīng)數(shù)年演變而成的技藝,它以巧妙的手法和精確的條件為基礎(chǔ),告訴我們關(guān)于這些工具及其創(chuàng)造者的更多信息,就像它們聲稱看到的身份類別一樣。
為了實(shí)現(xiàn)整個(gè)世界對(duì)機(jī)器學(xué)習(xí)系統(tǒng)的“可讀性”,我們需要一個(gè)什么樣的認(rèn)識(shí)論框架呢?人工智能開(kāi)始嘗試將非系統(tǒng)化的東西系統(tǒng)化,將社會(huì)形式化,并將無(wú)限復(fù)雜和不斷變化的宇宙,轉(zhuǎn)換為機(jī)器可讀的、林奈氏分類系統(tǒng)那樣整齊的表格。人工智能的許多成就,都依賴于將事物歸結(jié)為一組簡(jiǎn)潔的標(biāo)簽和形式,而這些標(biāo)簽和形式依賴于創(chuàng)建代理的方式,即識(shí)別和命名一些特征,忽略或模糊無(wú)數(shù)其他特征。數(shù)據(jù)集也是他們聲稱要測(cè)量的東西的代理(想想那些為了情感識(shí)別算法,而模仿六種普遍情緒的女性的臉)。這種基模,讓人回想起弗里德里希·尼采所描述的“將紛繁復(fù)雜、不可估量的事物,變?yōu)橄嗤?、相似、可?jì)算的事物”。
當(dāng)這些代理被視為基本事實(shí)時(shí),當(dāng)一個(gè)單一的、固定的標(biāo)簽被應(yīng)用到流動(dòng)性與復(fù)雜性中時(shí),人工智能系統(tǒng)處于最確定的狀態(tài)。我們從一些案例中可以看到這點(diǎn):人工智能被用來(lái)通過(guò)一張臉部照片預(yù)測(cè)性別、種族或性取向,以及一個(gè)人在保釋后是否會(huì)犯罪、是否有信用風(fēng)險(xiǎn),或者犯罪是否與“黑幫有關(guān)”。這些都是由深刻的關(guān)系、背景和社會(huì)決定的身份,它們并非一成不變,而是會(huì)隨著時(shí)間和背景而發(fā)生變化。
當(dāng)人工智能系統(tǒng)被用作權(quán)力的工具時(shí),我們便看到了這一點(diǎn)的最極端體現(xiàn)。情報(bào)機(jī)構(gòu)在大規(guī)模數(shù)據(jù)收集方面一馬當(dāng)先,元數(shù)據(jù)特征足以引發(fā)致命的無(wú)人機(jī)襲擊,根據(jù)一個(gè)已知的手機(jī)位置即可以殺死一個(gè)未知的目標(biāo)人物。但即使在這里,像元數(shù)據(jù)和外科手術(shù)式打擊這種無(wú)情的語(yǔ)言,也與眾所周知的事實(shí)——無(wú)人機(jī)導(dǎo)彈襲擊并不準(zhǔn)確,造成的死亡人數(shù)往往超過(guò)預(yù)期——產(chǎn)生了直接矛盾。就像露西·薩奇曼質(zhì)疑的:“對(duì)象”是如何被認(rèn)定為迫在眉睫的威脅的?我們知道像“恐怖組織的輕型貨車”這種標(biāo)簽是基于手工標(biāo)記的數(shù)據(jù)進(jìn)行分類的,不過(guò)由誰(shuí)負(fù)責(zé)選擇分類然后給某些車輛貼上標(biāo)簽?zāi)??其中存在的哪些錯(cuò)誤,有可能導(dǎo)致更多意外死亡?在第四章, 我們已經(jīng)看到了像圖網(wǎng)這樣的目標(biāo)識(shí)別訓(xùn)練集所存在的認(rèn)識(shí)論混淆和錯(cuò)誤;而軍用人工智能系統(tǒng)和無(wú)人機(jī)攻擊,都建立在同樣不穩(wěn)定的基礎(chǔ)之上。
第六章中概述的科技行業(yè)與軍方之間的緊密聯(lián)系,現(xiàn)在正被民族主義的議程進(jìn)一步形塑。美國(guó)國(guó)家安全局和中央情報(bào)局等機(jī)構(gòu)使用的工具,以商業(yè)軍事合同的形式,部署于市政層面。帕蘭提爾公司只是向執(zhí)法部門和聯(lián)邦機(jī)構(gòu),比如美國(guó)移民和海關(guān)執(zhí)法局,出售元數(shù)據(jù)收集和預(yù)測(cè)平臺(tái)的公司之一。在配有完全信息控制和捕獲的后勤系統(tǒng)的支持下,沒(méi)有登記的移民被鎖定、追捕,而這些系統(tǒng)曾僅為游離于法律之外的間諜活動(dòng)所有。如今,車牌讀取技術(shù)被添加到家庭監(jiān)控系統(tǒng)中,于是由警視和萊克(Rekor)等公司生成的可疑司機(jī)名單,就可以被輸入到亞馬遜總部的環(huán)形建筑中,形成一個(gè)廣泛整合先前獨(dú)立監(jiān)控網(wǎng)絡(luò)的系統(tǒng)。其結(jié)果是,監(jiān)控的范圍迅速擴(kuò)大,私人承包商、執(zhí)法部門和科技部門之間的界限變得模糊。在市政一級(jí),自動(dòng)化決策系統(tǒng)被用來(lái)跟蹤異常數(shù)據(jù),以切斷人們的失業(yè)補(bǔ)貼,并指控他們欺詐。本質(zhì)來(lái)說(shuō),基于經(jīng)過(guò)戰(zhàn)爭(zhēng)考驗(yàn)的工具與世界觀,對(duì)公民生活進(jìn)行了徹底的重新描繪。
通過(guò)所有這些網(wǎng)站,我們看到人工智能是更廣泛的權(quán)力結(jié)構(gòu)的一部分。人工智能系統(tǒng)由股東價(jià)值主導(dǎo)的公司開(kāi)發(fā)與銷售,它們通過(guò)將這些系統(tǒng)賣給包括軍隊(duì)、執(zhí)法部門、雇主、土地所有者等已然很強(qiáng)大的群體來(lái)獲利。通過(guò)這種方式,人工智能系統(tǒng)正在加劇權(quán)力的不對(duì)稱。從被推薦的優(yōu)步司機(jī),到被追蹤的非法移民,再到被迫在家中安裝面部識(shí)別系統(tǒng)的公共住房租戶,這些以資本、治安和軍事化為邏輯的工具,強(qiáng)化了權(quán)力的中心。
為什么是人工智能?
一本關(guān)于人工智能的導(dǎo)航圖如何幫助我們以不同的方式理解人工智能?從不同的角度,我們能提出什么樣的新問(wèn)題?導(dǎo)航圖可以引發(fā)規(guī)模上的轉(zhuǎn)變:從我們眼前所見(jiàn),到不同的觀點(diǎn),一個(gè)連接不同空間的圖表。人工智能導(dǎo)航圖已經(jīng)超越了“人工”和“智能”的抽象概念,甚至超越了相關(guān)的高級(jí)的、機(jī)器判斷的內(nèi)涵,其旨在展示提取主義的物質(zhì)化的全球脈絡(luò)。這樣一來(lái),就極大拓寬了當(dāng)前聚焦于預(yù)測(cè)、自動(dòng)化和效率的人工智能的定義。這種重新界定,實(shí)現(xiàn)了觀念的改變:服務(wù)于資本、軍隊(duì)和警察的工具,同樣也可被用來(lái)改變學(xué)校、醫(yī)院、城市與生態(tài),假如它們真的是無(wú)須成本的中立計(jì)算器,那便應(yīng)當(dāng)被應(yīng)用于任何地方。
簡(jiǎn)單地說(shuō),我們需要從最大的意義上,展示人工智能是什么,并認(rèn)清它所服務(wù)的權(quán)力結(jié)構(gòu)。我們已經(jīng)看到,政治如何內(nèi)置于計(jì)算堆棧,而這在理論與實(shí)踐層面均產(chǎn)生了影響。如果當(dāng)前的人工智能僅為了服務(wù)于現(xiàn)有的權(quán)力結(jié)構(gòu),那么可能會(huì)提出一個(gè)顯而易見(jiàn)的問(wèn)題:我們難道不應(yīng)該讓人工智能民主化嗎?難道就不能有一個(gè)“面向人民的人工智能”,主旨是建立更加公正與平等的社會(huì),而非榨取和放大既得利益嗎?
這可能看起來(lái)很吸引人,但我們應(yīng)該謹(jǐn)慎地處理這個(gè)問(wèn)題,因?yàn)檎绫緯?shū)所展示,那些成就人工智能的結(jié)構(gòu),以及由人工智能所激活的結(jié)構(gòu),強(qiáng)烈傾向于集中權(quán)力與信息,放大壓迫性的國(guó)家功能以及歧視性的設(shè)計(jì)。從這個(gè)意義上說(shuō),我們應(yīng)該讓“人工智能民主化以分散權(quán)力”的減法可能像“我們應(yīng)該讓武器制造民主化以服務(wù)于和平”一樣不切實(shí)際。歷史證明,用主人的工具拆除主人的房子是非常罕見(jiàn)的事情。
科技行業(yè)應(yīng)該進(jìn)行反思。迄今為止,業(yè)界的回應(yīng)之一是簽署人工智能倫理聲明。但這些都不足以解決當(dāng)前這種規(guī)模的問(wèn)題。歐盟議員瑪麗埃特·舍克(Marietje Schaake)指出,2019年僅在歐洲就已經(jīng)有128個(gè)人工智能倫理框架。這些文件往往是關(guān)于人工智能倫理的“更廣泛共識(shí)”的產(chǎn)物。但在制定這些文件的過(guò)程中,往往缺失那些受到人工智能系統(tǒng)最大傷害的人的聲音。
倫理原則和聲明很少關(guān)注人工智能倫理如何實(shí)施,以及它們是否能有效地產(chǎn)生任何變化。此類人工智能道德聲明,在很大程度上忽略了這些準(zhǔn)則是如何編寫(xiě)、在哪里編寫(xiě),以及由誰(shuí)編寫(xiě)的問(wèn)題;實(shí)際上,這些準(zhǔn)則很少具有可執(zhí)行性,也很少對(duì)更廣泛的公眾負(fù)責(zé)。倫理學(xué)家布倫特·米特爾施塔特(Brent Mittelstadt)指出,與醫(yī)學(xué)不同,人工智能沒(méi)有正式的專業(yè)治理結(jié)構(gòu)或規(guī)范,該領(lǐng)域也沒(méi)有商定的定義和目標(biāo)。最重要的是,與醫(yī)學(xué)倫理不同,人工智能倫理沒(méi)有外部監(jiān)督,或?qū)嵤┑赖伦o(hù)欄的標(biāo)準(zhǔn)規(guī)程。
通過(guò)承諾遵守倫理,企業(yè)含蓄地宣稱,自己有權(quán)決定“負(fù)責(zé)任地”部署這些技術(shù)意味著什么,從而有權(quán)決定,合乎倫理的人工智能對(duì)世界其他地區(qū)意味著什么。迄今為止,科技公司很少因他們的人工智能系統(tǒng)違反法律而受到經(jīng)濟(jì)處罰,而當(dāng)它們違反道德原則時(shí),則不會(huì)面臨任何有實(shí)質(zhì)意義的后果。簡(jiǎn)單地說(shuō),倫理學(xué)不是解決本書(shū)中提出的基本問(wèn)題的正確框架。人工智能本身是一個(gè)提取產(chǎn)業(yè),那些在原則上將股東價(jià)值最大化作為首要指令的公司,宣稱可以讓人工智能變得更加“道德”,其本身就存在著內(nèi)在的矛盾。雖然減少危害非常重要,但我們需要把目標(biāo)定得更高。
現(xiàn)在應(yīng)該關(guān)注的是權(quán)力,而不是倫理。特別是,首先要集中關(guān)注受到影響的社區(qū)的利益。先從那些經(jīng)受技術(shù)負(fù)面影響的人的聲音開(kāi)始,代替往常對(duì)公司創(chuàng)始人、風(fēng)險(xiǎn)投資家和“技術(shù)遠(yuǎn)見(jiàn)者”贊美的聲音。通過(guò)關(guān)注工人、租戶、失業(yè)者,以及所有被人工智能系統(tǒng)剝奪權(quán)力以及受到傷害的人的生活經(jīng)歷,我們可以看到權(quán)力的普遍運(yùn)行。
這本導(dǎo)航圖旨在重新構(gòu)建當(dāng)前關(guān)于人工智能的對(duì)話,并提供不同的思考視角與概念。當(dāng)有人提到人工智能倫理時(shí),我們應(yīng)該問(wèn)問(wèn)礦工、承包商、眾包工人,以及整個(gè)供應(yīng)鏈的勞動(dòng)條件。當(dāng)我們聽(tīng)到“優(yōu)化”時(shí),我們應(yīng)該想到這是否被用來(lái)進(jìn)行移民驅(qū)逐。當(dāng)人們贊頌大規(guī)?!白詣?dòng)化”時(shí),我們應(yīng)該記住大氣中二氧化碳含量的上升,以及日益增長(zhǎng)的對(duì)僅存公有物的圈占。
1986年,政治理論家蘭登·溫納(Langdon Winner)擔(dān)憂地寫(xiě)道,他看到一個(gè)致力于創(chuàng)造人造現(xiàn)實(shí)的社會(huì),卻沒(méi)有考慮到它會(huì)給生活條件帶來(lái)不可磨滅的變化。他說(shuō),現(xiàn)在迫切需要的是“解讀技術(shù)設(shè)備的中介作用,如何以明顯而微妙的方式,改變?nèi)粘I睢?。他繼續(xù)說(shuō):
我們共同世界的結(jié)構(gòu)發(fā)生了巨大變化,但很少有人注意到這些變化意味著什么。對(duì)技術(shù)的判斷一直是基于狹隘的理由,關(guān)注的是新設(shè)備是否滿足特定需求,是否比之前的設(shè)備更高效,是否盈利,以及是否提供便利的服務(wù)。直到后來(lái),選擇的廣泛意義才變得清晰,而這通常是一系列令人驚訝的“副作用”或“次級(jí)后果”……在技術(shù)領(lǐng)域,我們不斷簽訂一系列社會(huì)契約,但這些契約的條款只有在簽訂后才會(huì)披露。
在未來(lái)的40年里,這些變化的規(guī)模已經(jīng)改變了大氣的化學(xué)成地球表面的溫度和地殼的構(gòu)成。人們?nèi)绾卧u(píng)價(jià)技術(shù),以及技術(shù)的持久后果,二者之間的差距,只會(huì)越來(lái)越大。曾經(jīng)存在過(guò)的社會(huì)契約,加劇了財(cái)富的不平等,產(chǎn)生了影響深遠(yuǎn)的監(jiān)督與勞動(dòng)剝削形式。剩下要做的是,找到一條不同的道路,并實(shí)現(xiàn)一種集體的拒絕政治。這可以從思考優(yōu)化、預(yù)測(cè)與價(jià)值提取系統(tǒng)所不能觸及的內(nèi)容開(kāi)始。這意味著,拒絕進(jìn)一步加劇不平等、暴力和剝奪權(quán)力的體制。在強(qiáng)化隱私法,提供機(jī)器學(xué)習(xí)系統(tǒng)的公平性,或者其他提供次要保護(hù)的嘗試之外,還需要從根本上對(duì)人工智能的必然性提出挑戰(zhàn)。
當(dāng)我們問(wèn)“為什么是人工智能”時(shí),就是在質(zhì)疑一切都應(yīng)服從統(tǒng)計(jì)預(yù)測(cè)和利潤(rùn)積累邏輯的觀點(diǎn)。不要僅因?yàn)槿斯ぶ悄芸梢允褂?,就去?wèn)它可以應(yīng)用在哪里,重點(diǎn)應(yīng)該是,為什么應(yīng)該使用它。這是我們共同的任務(wù),其中首先要理解這些選擇的真正代價(jià)。這需要擺脫對(duì)技術(shù)主義解決方案的賦魅,擁抱休戚相關(guān)的多樣性與其創(chuàng)造世界的方式。世上存在著超越價(jià)值提取的可持續(xù)的集體政治,存在著值得保留的公有物,存在著超越市場(chǎng)的世界,存在著超越量化的生命形式。我們的目標(biāo)是,在我們所擁有的這個(gè)星球上,制定一條新的路線,遠(yuǎn)離無(wú)休止的提取和殘酷的優(yōu)化的邏輯。