精品日韩在线观看_亚洲精品一区二区三区在线播放|HD中文字幕在线播放,性做久久久,中文字幕国产在线,国产视频久久久久久久

馬斯克、庫茲韋爾等確認的23個原則,將使AI更安全和道德

時間:2017-02-21

       文章轉載自機器人圈,如有侵權請聯系刪除。
 

       “生命未來研究所”(Future of Life Institute,FLI)概括了“阿西洛馬人工智能原則”,列出了23條準則,使未來人工智能的研究人員、科學家和立法者遵循,確保安全、倫理和有益。
 

       文:Michael Irving 編譯:多啦A亮
 

       人工智能將嚴重地破壞世界?人工智能對人類是否有益?我們該摧毀它嗎?這聽起來像拍科幻電影,但是隨著人工智能的快速發展,數百名人工智能和機器人領域的專家們聯合編制了“阿西洛馬人工智能原則”,列出了23條準則,提出重點和注意事項來指導AI發展,共同保障人類未來倫理、利益和安全。
 

       這23條準則由“生命未來研究所”牽頭制定出,旨在確保人類在新技術出現時能順利規避其潛在的風險。其突出核心成員有Stephen Hawking和Elon Musk。這個組織專注于由新技術和問題構成的潛在威脅,如人工智能、生物技術、核武器和氣候變化等。
 

       2017年1月,在美國加利福尼亞州阿西洛馬舉行的Beneficial AI會議上,該組織收集了來自大學和公司的人工智能研究人員,討論人工智能的未來及其應如何監管。在會議召開前,該組織讓參會者做了一份調查:在未來幾年,人工智能需要怎樣發展和監管,并用這些參會者的反饋制定出一個前期的目標點。修改后的版本在會上做了討論研究,只有當90%的研究人員同意最終列出一份原則列表。
 
簽名專家
 
       「部分簽名的專家」
       Demis Hassabis ,DeepMind創始人兼CEO
       Ilya Sutskever ,OpenAI研究總監、聯合創始人
       Yann LeCun, Facebook AI 研究室總監,紐約大學教授
       Yoshua Bengio ,蒙特利爾大學、蒙特利爾學習算法研究所所長
       Stuart Russell,加利福尼亞大學伯克利分校計算機科學教授,智能系統中心主任
       Peter Norvig ,谷歌研究總監
       Ray Kurzweil ,谷歌研究總監;發明家、作家和未來學家,著有《奇點臨近》
       Jeff Dean, 谷歌Google Brain項目負責人,谷歌高級研究員,AAAI成員
       Tom Gruber, 蘋果公司;Siri的共同創始人,Siri 項目CTO和設計副總裁
       Nils J. Nilsson,AAAI前任主席,斯坦福大學Emeritus Kumagai工程教授
       Francesca Rossi, IBM&Padova,計算機科學教授,IJCAI主席、AAAI委員會、AI與倫理問題影響委員會聯席主席,ACM成員
       總共有808名AI /機器人研究人員簽名;
       以及
       Stephen Hawking ,劍橋大學
       Elon Musk,特斯拉CEO
       Jaan Tallinn ,Skype 聯合創始人
       Sam Altman ,Y Combinator 總裁
       Gill Pratt ,豐田研究院CEO
       ……
 
霍金、阿西洛馬
 
       阿西洛馬人工智能原則是著名的阿西莫夫的機器人三大法則的擴展版本。阿西洛馬人工智能原則主要分為三大類:科研問題、倫理價值和長期問題。
 

       科研問題主要涵蓋了科學家和研究人員對人工智能系統開放的職責,以及在計算機科學、經濟學、法律、倫理學和社會研究中可能產生的“棘手問題”。在這里要提出重點的是人工智能不能單純了為了利益而創造,而應該為了在確保人類不被替代的情況下通過自動化實現人類繁榮。保持一個開放、合作的人工智能研究的文化也是一個優先考慮的事情,以確保研究人員和政策制定者在彼此交換信息的同時,不會以危害人類為手段與競爭對手參與競爭。
 

       在討論環節最有意思和爭議的問題應該是“AI應該具有怎樣的價值觀,應該具有何等法律和倫理地位?”一個擁有機器人的世界已經足夠復雜,讓機器人擁有權力似乎離我們很遠,但是這些爭議已經在歐盟開始了。我們越早考慮這些問題,將來就會越容易過渡。
 

       而問題是人工智能該賦予怎樣的權力?科學家認為人工智能應符合一般的“人的價值”之類的尊嚴、權利、自由和文化等多樣性。這意味著將人工智能應用于個人數據不應侵犯任何人的隱私、自由或安全。如果有什么問題,人們需要確定產生這些問題的原因和方式,設計師和制定者在使用或誤用系統中要承擔在一定的道德責任。
 

       這些點都已經在實踐中被考慮到了:科學家在谷歌DeepMind項目中討論如何實現用一個“大紅色按鈕”去干預一個已經開始按行動路徑執行任務的機器人,并防止它抗干擾。
 

       尤其讓人害怕的是要注意“致命的武器軍備競賽是應該被禁止的”。“生命未來研究所”在過去一直強調這一點,2015年向聯合國提交了一封公開信,請求聯合國禁止軍用人工智能的發展。
 

       科學家們列出了清單,著眼于潛在的長期問題,包括未來發展這一重要技術平衡資源分配,但要規劃和減輕人工智能系統可能會面對的風險,特別是災難性的或存在的風險。
 

       為此,安全控制措施應適用于AI,可以改善自身技術,阻止劇本里世界末日的發生,而在一般情況下,“超智只應服務于廣泛共享的倫理理想的發展,并為全人類利益而不是一個國家或組織的利益。”
 

       「Asilomar AI Principles 阿西洛馬人工智能原則」

 

       科研問題

 
       1)研究目的:人工智能研究的目標,應該是創造有益(于人類)而不是不受(人類)控制的智能。
 

       2)研究經費:投資人工智能應該有部份經費用于研究如何確保有益地使用人工智能,包括計算機科學、經濟學、法律、倫理以及社會研究中的棘手問題,比如:
 

       如何使未來的人工智能系統高度健全(“魯棒性”),讓系統按我們的要求運行,而不會發生故障或遭黑客入侵?
 

       如何通過自動化提升我們的繁榮程度,同時維持人類的資源和意志?
 

       如何改進法制體系使其更公平和高效,能夠跟得上人工智能的發展速度,并且能夠控制人工智能帶來的風險?
 

       人工智能應該歸屬于什么樣的價值體系?它該具有何種法律和倫理地位?
 

       3)科學與政策的聯系:在人工智能研究者和政策制定者之間應該有建設性的、有益的交流。
 

       4) 科研文化:在人工智能研究者和開發者中應該培養一種合作、信任與透明的人文文化。
 

       5)避免競爭:人工智能系統開發團隊之間應該積極合作,以避免安全標準上的有機可乘。
 

       倫理和價值

 
       6) 安全性:人工智能系統在它們整個運行過程中應該是安全和可靠的,而且其可應用性的和可行性應當接受驗證。
 

       7) 故障透明性:如果一個人工智能系統造成了損害,那么造成損害的原因要能被確定。
 

       8)司法透明性:任何自動系統參與的司法判決都應提供令人滿意的司法解釋以被相關領域的專家接受。
 

       9)責任:高級人工智能系統的設計者和建造者,是人工智能使用、誤用和行為所產生的道德影響的參與者,有責任和機會去塑造那些道德影響。
 

       10)價值歸屬:高度自主的人工智能系統的設計,應該確保它們的目標和行為在整個運行中與人類的價值觀相一致。
 

       11)人類價值觀:人工智能系統應該被設計和操作,以使其和人類尊嚴、權力、自由和文化多樣性的理想相一致。
 

       12)個人隱私:在給予人工智能系統以分析和使用數據的能力時,人們應該擁有權力去訪問、管理和控制他們產生的數據。
 

       13)自由和隱私:人工智能在個人數據上的應用不能充許無理由地剝奪人們真實的或人們能感受到的自由。
 

       14)分享利益:人工智能科技應該惠及和服務盡可能多的人。
 

       15) 共同繁榮:由人工智能創造的經濟繁榮應該被廣泛地分享,惠及全人類。
 

       16)人類控制:人類應該來選擇如何和決定是否讓人工智能系統去完成人類選擇的目標。
 

       17)非顛覆:高級人工智能被授予的權力應該尊重和改進健康的社會所依賴的社會和公民秩序,而不是顛覆。
 

       18)人工智能軍備競賽:致命的自動化武器的裝備競賽應該被避免。
 

       更長期的問題

 
       19)能力警惕:我們應該避免關于未來人工智能能力上限的過高假設,但這一點還沒有達成共識。
 

       20)重要性:高級人工智能能夠代表地球生命歷史的一個深刻變化,人類應該有相應的關切和資源來進行計劃和管理。

       21)風險:人工智能系統造成的風險,特別是災難性的或有關人類存亡的風險,必須有針對性地計劃和努力減輕可預見的沖擊。
 

       22)遞歸的自我提升:被設計成可以迅速提升質量和數量的方式進行遞歸自我升級或自我復制人工智能系統,必須受制于嚴格的安全和控制標準。
 
       23)公共利益:超級智能的開發是為了服務廣泛認可的倫理觀念,并且是為了全人類的利益而不是一個國家和組織的利益。

  • 分享本文到:

  • 關注隨銳:

    微信
    微信掃描,獲取最新資訊
  • 聯系我們:

    如果您有任何問題或建議,
    請與我們聯系:
    suiruikeji@suirui.com
×