
霍金再嗆聲人工智能,稱人類應(yīng)成立“世界政府”應(yīng)對機(jī)器人起義
時間:2017-03-22
編者按:物理學(xué)家霍金重申了他的觀點(diǎn),人工智能帶來了威脅和可能性。解決這個問題以及其他全球性挑戰(zhàn)的方法,他的建議是成立世界政府。霍金在科學(xué)方面造詣很深,但在國際關(guān)系和政治哲學(xué)方面可能并不精通。世界政府自然是國際關(guān)系自由主義理論的一個重要愿景,然而要想在當(dāng)今現(xiàn)實(shí)主義為主的國際關(guān)系背景下推動世界政府成立,談何容易。不過,自由主義也好,現(xiàn)實(shí)主義也罷,這些都是比較傳統(tǒng)的理論,即使是建構(gòu)主義也未曾面對人工智能這樣的新環(huán)境。或許,當(dāng)有一天人工智能真的背叛人類的時候,在外力的作用下,人類會摒除嫌隙,建立世界政府。這也許是自然科學(xué)對于社會科學(xué)的促進(jìn)和改變吧。以下是正文。
物理學(xué)家霍金可能是人工智能的一個支持者,但他也坦言,人工智能創(chuàng)造了一些潛在的挑戰(zhàn)。在最近的一次采訪中,他發(fā)出了類似的聲音,并提出了保守派可能難以接受的解決方案。
在周一被授予倫敦城市榮譽(yù)自由獎后,霍金教授對《泰晤士報》表達(dá)了他對未來的樂觀態(tài)度。但是,他補(bǔ)充道,他擔(dān)心人工智能及其他全球性的威脅。他的答案則是:采取國際行動,最好是世界政府。
“我們需要更快地識別出這些威脅,然后在它們失去控制前采取行動。”Hawking說道,“這可能就意味著需要某種形式的世界政府。”
但是他警告說,這種做法“可能會導(dǎo)致暴政。”
隨著人工智能在社會中的作用的增加,計算機(jī)科學(xué)家和政策制定者正在從構(gòu)建這些系統(tǒng)轉(zhuǎn)為利用它們的力量為社會帶來利益。盡管觀察者在關(guān)于人工智能相關(guān)挑戰(zhàn)的性質(zhì)和范圍有所分歧,但人們普遍認(rèn)為,這些影響需要解決。世界政府會提供一個解決方案嗎?
“是的,我認(rèn)為改善全球治理不僅可以應(yīng)對先進(jìn)的人工智能技術(shù),對人類所面對的未來的一些其他挑戰(zhàn)來說都可能是必要的。”牛津大學(xué)未來人類學(xué)院的創(chuàng)始主任Nick Bostrom教授在給《基督教科學(xué)箴言報》的電子郵件中寫道,“當(dāng)我們繼續(xù)開發(fā)越來越強(qiáng)大的工具時,我不知道我們能否在和地球?qū)沟那闆r下一直生存下去。”
今天,人工智能似乎無處不在。它是自動駕駛汽車進(jìn)步的原因,它支撐著Facebook的廣告篩選過程,它通過虛擬助手與人們互動,像Apple的Siri和Amazon的Alexa。在紐約,它預(yù)測火災(zāi);在英國,正在安排機(jī)器學(xué)習(xí)讓人們支付他們的債務(wù)。Hawking曾指出,最終它甚至可以消除持久的社會挑戰(zhàn),如疾病和貧困。
但是觀察者提出,這些獨(dú)特的機(jī)會將帶來獨(dú)特的問題。一個問題是,關(guān)于當(dāng)經(jīng)濟(jì)過渡到一個由機(jī)器主導(dǎo)的世界里將會變成什么樣。
“有兩個主要的經(jīng)濟(jì)風(fēng)險:首先,工人的技能和未來工作場所所需要的技能之間可能會出現(xiàn)不匹配;其次,人工智能可能會因增加資產(chǎn)擁有者和一些高級技能工人的回報而加劇經(jīng)濟(jì)的不平等。”普林斯頓大學(xué)計算機(jī)科學(xué)與公共事務(wù)教授,信息技術(shù)政策中心創(chuàng)始主任Edward Felten在一封電子郵件中告訴《基督教科學(xué)箴言報》。
他認(rèn)為這些問題可以通過采用分配提高生產(chǎn)力的公共政策來解決。
然而Hawking在他的評論中可能在暗指擔(dān)心人工智能將變得過于強(qiáng)大,并開始以人類所無法控制的方式行動。但并不是每個人都相信科幻小說中的霸道機(jī)器會成為必然:Felten教授說他沒有看到“計算機(jī)科學(xué)中有任何健全的基礎(chǔ)能斷定機(jī)器智能會在任何時候突然加速。”
未來今日研究所的創(chuàng)始人兼首席執(zhí)行官Amy Webb正在更加認(rèn)真地看待這些威脅。她向《基督教科學(xué)箴言報》解釋道,人工智能的目標(biāo)之一就是教會機(jī)器在“無監(jiān)督學(xué)習(xí)”系統(tǒng)中自己建立連接。這意味著對這些人工智能系統(tǒng)做出正確決策的能力給予了很大的信任。她舉了一個在教室里學(xué)習(xí)數(shù)學(xué)的學(xué)生的類比:
“如果錯誤地教學(xué)生一加一等于三,并且繼續(xù)教下一組孩子,那么會發(fā)生什么?這個錯誤的答案會開始傳播,而其他的決定都是基于這個知識。”
而這個風(fēng)險要高于數(shù)學(xué)課的風(fēng)險,她補(bǔ)充道:“我們將要求它們做出有關(guān)個人身份識別、安全性、武器部署及其他的決策。”
Bostrom教授將當(dāng)今人工智能所面對的問題定義為“可伸縮的控制”:如何確保任意的人工智能技術(shù)與程序員的意圖相匹配。”
這些評論員解釋說,有一個很小但是正在增長的研究領(lǐng)域正在解決這些問題——并且世界政府或人工智能的法律的國際協(xié)調(diào)可能是一種方法。雖然Bostrom說他不希望“全球事務(wù)中出現(xiàn)任何迫在眉睫的轉(zhuǎn)型”,但世界政府可能只是政治聚合的下一個階段。
“我們已經(jīng)走過了大部分路——從采集獵手,酋邦、城邦、到單一民族國家,到現(xiàn)在的國家和國際機(jī)構(gòu)。”他寫道,“我們還需要一次飛躍。”
Webb女士雖然贊同國際合作是有價值的,但是她懷疑它是否能及時解決眼前的問題。
“如果世界上所有的國家就人工智能的標(biāo)準(zhǔn)和使用達(dá)成一致意見,那會很棒。但目前而言,我們在連像氣候變化這樣的問題上都不能達(dá)成單方面協(xié)議。”她指出。國際政府合作需要時間來追趕人工智能的發(fā)展,她說道。
因?yàn)槿斯ぶ悄茏兊迷絹碓綗o處不在,政府決策也可能受到人類行為的意外變化的影響。技術(shù)政策研究所主席兼高級研究員Scott Wallsten在一封電子郵件中寫道。
“基于人工智能的更安全的汽車會讓人們更魯莽地采取行動嗎?比如因?yàn)樗麄兿嘈跑嚂詣油O聛矶リJ紅燈。”Wallsten博士問道。
考慮到這一點(diǎn),他提出,本地、國家或國際級別的有效的政策解決方案應(yīng)該從更多地研究人工智能所帶來的影響開始。
“任何解決措施都需要基于對問題的透徹理解。”他總結(jié)道。
相關(guān)閱讀:
-
分享本文到:
-
關(guān)注隨銳:
微信掃描,獲取最新資訊 -
聯(lián)系我們:
如果您有任何問題或建議,
請與我們聯(lián)系:
suiruikeji@suirui.com