亚洲中文字幕一区二区|亚欧免费无码aⅴ在线|日韩久久久国产精品影院|亚洲一区色77综合影院|欧美成人经典三级在线观看|亚洲无码日韩高清中文字幕|无码人妻丰满熟妇五十路久久|久久久久久久久久国产精品一级

人工智能“軍備競賽”的真正危險是什么

2020年07月23日 08:43    來源:光明日報    保羅·斯查瑞 編譯 杜珩

  【環(huán)球科技】

  俄羅斯總統(tǒng)弗拉基米爾·普京早在2017年時就宣稱,領導人工智能發(fā)展的國家將“成為世界的統(tǒng)治者”。這種觀點顯然在全球全面鋪開,因為截至目前,已經(jīng)有十幾個國家宣布了本國的人工智能計劃。2017年,中國發(fā)布《新一代人工智能發(fā)展規(guī)劃》,制訂了“到2030年人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創(chuàng)新中心,智能經(jīng)濟、智能社會取得明顯成效,為躋身創(chuàng)新型國家前列和經(jīng)濟強國奠定重要基礎”的目標。2019年早些時候,美國白宮發(fā)布了《美國人工智能計劃》,美國國防部推出了人工智能戰(zhàn)略。

  科技發(fā)力,創(chuàng)新進步固然是好事,然而近期,關于“人工智能軍備競賽”的新說法則反映了一種對其危險性的錯誤認識,這有可能引發(fā)重大的新風險。其實,對于每個國家來說,真正的危險并非在人工智能的競爭方面落后于對手,而是企圖“競賽”的這種高壓態(tài)勢,反而會促使各國急于部署并不安全的人工智能系統(tǒng)。想要先發(fā)制人并贏得勝利的各國,實際上面臨著與對手國家一樣多的危險。

  1.一場沒有人會獲勝的比賽

  人工智能帶來從衛(wèi)生保健到交通等全方位巨大的好處,還有巨大的風險。這些風險并不像科幻大片里演的那樣是機器人的崛起,真正的威脅來自于人類自己。

  目前,人工智能系統(tǒng)雖然功能強大但并不可靠。很多人工智能系統(tǒng)不僅在受到復雜的攻擊時會變得脆弱,而且在受訓的環(huán)境之外使用時常會失靈。政府確實是希望系統(tǒng)能平穩(wěn)運行,但是“軍備競賽”的大環(huán)境卻讓一些人只顧得了眼前卻管不了將來。即使其他國家實際上并沒有實現(xiàn)人工智能系統(tǒng)的重大突破,但是認為他們的技術正在突飛猛進的猜測,卻足以促使另外一些國家投身“競賽”。如果某國政府部署了未經(jīng)測試的人工智能武器系統(tǒng)或依靠有故障的人工智能系統(tǒng)來發(fā)起網(wǎng)絡攻擊,可能會對所有參與其中的人與國家造成災難性的后果。

  各國政治家們應該從計算機網(wǎng)絡發(fā)展的歷史中進行學習,從一開始就將安全性作為人工智能設計的主要因素;還應該減少有關人工智能軍備競賽的言論,并尋求機會與其他國家合作研究降低人工智能風險。歸根結底,人工智能軍備競賽是一場沒有人會獲勝的比賽。

  最簡單的人工智能系統(tǒng)通過遵循人類預先設置的一系列規(guī)則來執(zhí)行任務。雖然我們很難把飛機自動駕駛儀或報稅軟件背后的技術視為人工智能,但這些眾所周知的“專家系統(tǒng)”已經(jīng)存在了幾十年,而且現(xiàn)在它們無處不在。過去的幾年中,數(shù)據(jù)收集、計算機處理能力和算法設計的飛速發(fā)展,研究人員通過更靈活的方法在人工智能方面取得了重大進展:機器學習。

  機器學習是指程序員無須編寫規(guī)則,機器通過分析給定的數(shù)據(jù)來拾取它們。給算法提供數(shù)千張帶有對象標簽的照片,它將學習識別圖像中的圖案并與對象名稱建立關聯(lián)。人工智能的繁榮始于2012年,研究人員依靠人工深度神經(jīng)網(wǎng)絡,在機器學習技術的“深度學習”方面取得了重要突破。人工神經(jīng)網(wǎng)絡是受生物神經(jīng)元啟發(fā)的一種智能技術,模擬生物神經(jīng)元通過發(fā)送和接收電脈沖與其他細胞進行交流。人工神經(jīng)網(wǎng)絡最初就像是一片空白一無所知的領域,然后系統(tǒng)通過調(diào)整神經(jīng)元之間的連接強度,增強正確答案的路徑連接以及減弱錯誤答案路徑連接來進行學習。深度神經(jīng)網(wǎng)絡——深度學習,是一個在輸入層和輸出層之間具有多層人工神經(jīng)元的神經(jīng)網(wǎng)絡,額外的神經(jīng)元層次允許不同路徑的強度具有更多可變性,從而幫助人工智能在更大范圍內(nèi)應對各種情況。

  2.幾乎無所不能的人工智能

  系統(tǒng)如何精確學習取決于開發(fā)人員選取哪種機器學習算法以及提供哪些數(shù)據(jù)。許多機器學習方法使用已標記的數(shù)據(jù)(稱為“監(jiān)督學習”),但是機器也可以從未標記的數(shù)據(jù)(“無監(jiān)督學習”)或直接從環(huán)境中學習(“強化學習”),機器還可以根據(jù)計算機合成的數(shù)據(jù)進行學習。Waymo是一家研發(fā)自動駕駛汽車的公司,其研發(fā)的自動駕駛汽車已經(jīng)在公共道路上行駛超過一千萬英里,而該公司每天在計算機上模擬記錄行駛一千萬英里,從而能夠利用數(shù)十億英里的合成數(shù)據(jù)來測試自動駕駛汽車的算法。

  自2012年深度學習取得重大突破以來,研究人員創(chuàng)造了媲美甚至超越人類最佳表現(xiàn)的人工智能系統(tǒng),這些系統(tǒng)能夠進行面部識別、物體識別、語音轉錄以及玩復雜的游戲,包括中國圍棋和實時計算機游戲“星際爭霸”。深度學習也已經(jīng)超越舊的、基于規(guī)則的人工智能系統(tǒng)。2018年,一種深度學習算法在一臺大型超級計算機上用了四個小時與自己進行了數(shù)百萬次對弈,就擊敗了當時的國際象棋冠軍計算機程序,而無須任何人工訓練數(shù)據(jù)或手動編碼規(guī)則來指導其行為。

  研究人員現(xiàn)在將人工智能應用于改進現(xiàn)實世界的問題,從診斷皮膚癌到駕駛汽車再到提高能源效率等。根據(jù)麥肯錫咨詢公司的估計,美國人需要的付費服務,幾乎有一半可以使用現(xiàn)有人工智能技術實現(xiàn)自動化(有5%的服務最終會被消滅)。大型機構在大數(shù)據(jù)上的積累和強大的計算能力,最有可能取得重大突破,使人工智能工具越來越普及,F(xiàn)在,很多人工智能工具都可以任意在線使用,例如免費編程課程教人們?nèi)绾沃谱髯约旱娜斯ぶ悄芟到y(tǒng),并且可以免費下載經(jīng)過訓練的神經(jīng)網(wǎng)絡。人工智能工具的流行的確能夠促進創(chuàng)新,但是將強大的人工智能工具輕易地交給任何想要的人,也會幫助到想要作惡的人。

  濫用人工智能造成的危害并非假設,事實已經(jīng)擺在這里。聊天機器人之類的僵尸程序通常用于操縱社交媒體,選擇性地放大某些消息并壓制其他消息。人工智慧換臉是由人工智能生成的偽造視頻,將人的臉部以數(shù)字方式完美地與色情演員的身體嫁接,用來實行所謂的“色情復仇攻擊”。

  上述的例子僅僅是開始。政治運動使用基于人工智能的數(shù)據(jù)分析來針對個人設計量身定制的政治宣傳,商業(yè)公司也使用相同的分析來為潛在客戶專門發(fā)送感興趣的廣告。數(shù)字小偷使用人工智能工具來創(chuàng)建更有效的網(wǎng)絡釣魚攻擊,聊天機器人只需要一分鐘的音頻就可以克隆人的聲音,從而令人信服地在線或通過電話模擬人類交談,任何沒有真人現(xiàn)身的網(wǎng)上或電話互動都可能是詐騙行為。安全專家證明,網(wǎng)絡黑客完全有可能入侵自動駕駛汽車,鎖定自動車輛的轉向和剎車功能,僅靠一個人通過網(wǎng)上操作就可以劫持大量汽車,造成交通擁堵或發(fā)動恐怖襲擊。

  3.人工智能將何去何從

  無論哪個國家在人工智能方面居于領先地位,都將利用它來獲取與競爭對手在經(jīng)濟和軍事上的相對優(yōu)勢。預計到2030年,人工智能將為全球經(jīng)濟做出13萬億至15萬億美元的貢獻。人工智能還將加快科學發(fā)展的進程。2019年,人工神經(jīng)網(wǎng)絡在生物學研究的關鍵任務—合成蛋白折疊方面取得重要進展,大幅領先現(xiàn)有的研究方法。

  人工智能也將徹底改變戰(zhàn)爭。人工智能對于提高士兵在戰(zhàn)場上的態(tài)勢感知、指揮官的決策能力和命令傳達能力最為有效。人工智能系統(tǒng)處理信息的數(shù)量與速度都遠超人類,它們是對戰(zhàn)爭中海量信息進行實時評估的寶貴工具,而在戰(zhàn)場上,機器比人類的移動更快、更精確、更協(xié)調(diào)。在最近的“星際爭霸”電游人工智能對戰(zhàn)人類比賽中,人工智能系統(tǒng)AlphaStar在快速處理海量信息、作戰(zhàn)單位協(xié)調(diào)以及快速精準移動方面顯示了超越人類的能力,F(xiàn)實世界中,人工智能系統(tǒng)憑借上述優(yōu)勢在管理控制機器人群上比人類手動控制更加有效。人類可以在更高層面的戰(zhàn)略中保留自己的優(yōu)勢,但人工智能將在地面戰(zhàn)爭中占據(jù)主導地位。

  中國已經(jīng)是人工智能方面的全球強國,這也是華盛頓不甘落后急于開發(fā)人工智能的原因。全球領先的人工智能公司排名,中國的科技巨頭阿里巴巴、百度和騰訊緊隨亞馬遜、谷歌與微軟其后。2018年注資最多的10家人工智能初創(chuàng)企業(yè)中有5家是中國企業(yè)。幾年前,中國提出到2030年成為全球人工智能領導者的目標似乎還是紙上談兵,現(xiàn)在則完全可能成為現(xiàn)實。

  美國的現(xiàn)實情況是華盛頓和硅谷之間在軍事使用人工智能方面存在巨大分歧。谷歌與微軟的員工反對他們與五角大樓簽訂的公司合同,導致谷歌停止使用人工智能分析視頻素材的項目。由于政府與民間的分歧,哪怕美國在人工智能研發(fā)方面保持領先地位,也會失去軍事優(yōu)勢。政府合理的反應是將自己在人工智能上的投資加倍,然而問題在于,人工智能技術是把雙刃劍,不僅會給輸?shù)舯荣惖囊环綆盹L險,同樣也會給贏得比賽的一方帶來風險。

  4.未可知的風險與挑戰(zhàn)

  當今的人工智能技術功能雖然強大但并不完全可靠;谝(guī)則的系統(tǒng)無法處理程序員未曾預見到的情況,學習系統(tǒng)也受到訓練數(shù)據(jù)的限制,人工智能的失敗已經(jīng)導致了一些悲劇發(fā)生。自動駕駛汽車的先進功能雖然在某些情況下表現(xiàn)良好,但無預警地將汽車撞向卡車、水泥路障以及停放著的汽車的情況也時有發(fā)生。當出現(xiàn)與訓練場景不一樣的突發(fā)狀況,人工智能系統(tǒng)會瞬間從超級智能變?yōu)槌壈装V。當敵人試圖操縱和入侵人工智能系統(tǒng)時,導致的風險將更大。

  雖然有時不會完全崩潰,但學習系統(tǒng)也會以錯誤的方式實現(xiàn)目標。去年的一篇研究論文中,有52位研究人員對人工智能系統(tǒng)表現(xiàn)出幾十次異常的行為進行了闡述:學習在模擬環(huán)境中行走的算法發(fā)現(xiàn),通過反復摔倒可以更快地移動;一個玩俄羅斯方塊的機器人學會了在最后一塊積木掉下來之前暫停游戲,這樣它就永遠不會輸?shù);一個程序自動刪除了不能讓自己得到高分的評估文件。正如研究人員寫道:“從功能實現(xiàn)角度來講,人工智能在迭代過程中尋找設計上的漏洞比實現(xiàn)人類為其設定的預期目標要容易得多!苯o人類帶來驚喜或是驚嚇似乎是人工智能學習系統(tǒng)的標準特色。

  機器學習系統(tǒng)的性能優(yōu)劣與其拾取的訓練數(shù)據(jù)密切相關,如果數(shù)據(jù)不能很好地反映系統(tǒng)的運行環(huán)境,則該系統(tǒng)在現(xiàn)實世界中就會發(fā)生故障。麻省理工學院媒體實驗室的研究人員2018年發(fā)現(xiàn),三個主流的面部識別系統(tǒng),在識別深色皮膚方面比識別淺膚色要差很多。

  當機器學習系統(tǒng)出現(xiàn)失誤時,也會像人類一樣沮喪并變得陰晴不定。即使研究人員并不一定每一次都能預測到機器的行為,對于基于規(guī)則的人工智能系統(tǒng),研發(fā)者大體還是可以解釋機器的行為。然而對于深度學習系統(tǒng),研究人員往往無法理解機器為什么要這樣做。谷歌公司的人工智能研究人員阿里·拉希米(Ali Rahimi)認為,中世紀的煉金術士雖然發(fā)現(xiàn)了現(xiàn)代玻璃制造技術,但并不了解這一突破背后的化學或物理原理,與此相似,現(xiàn)代正在研發(fā)機器學習的工程師們也能在人工智能上取得重大突破,但相應的基礎科學還沒有發(fā)展到能對此進行解釋的程度,是技術走到了科學的前頭。

  人工智能系統(tǒng)的每一次故障都會成為一個可以利用的漏洞。在某些情形下,攻擊者可以使訓練數(shù)據(jù)中毒。微軟公司在2016年創(chuàng)建了一個名為泰(Tay)的聊天機器人,并為其開設了推特賬戶。當一些用戶對泰發(fā)布攻擊性的推文后,不到24小時泰就開始鸚鵡學舌地模仿他們的種族主義和反猶太言論。這就是一個顯而易見的數(shù)據(jù)中毒的例子,但不是所有的數(shù)據(jù)中毒攻擊都如此明顯,有些潛伏在訓練數(shù)據(jù)中人類無法檢測到,卻在暗中操縱機器的運作。

  深度學習系統(tǒng)的創(chuàng)建者即使保護了數(shù)據(jù)源,攻擊者也可以通過提供精心定制的輸入—對抗性樣本—來欺騙系統(tǒng)讓機器犯錯誤。正常圖像的輕度變形,人類可以一眼就看穿卻能夠糊弄人工智能。對衛(wèi)星圖像分類的神經(jīng)網(wǎng)絡系統(tǒng)會被對抗性樣本欺騙,把稍加變形的醫(yī)院圖片識別為軍事機場,反之亦可能。對抗性樣本甚至可以就是具體的物體。一個案例中,物體識別系統(tǒng)把龜殼上嵌有細微旋渦的塑料烏龜識別為步槍;另一項研究中,研究人員在停車標志前放置了幾個白色和黑色的小正方形,這些干擾讓神經(jīng)網(wǎng)絡系統(tǒng)將其辨識成每小時45英里的限速標志。更糟糕的是,入侵者根本無須訪問訓練數(shù)據(jù)或他們試圖打敗的系統(tǒng)底層算法,就可以開發(fā)出這類欺騙性圖像和物體,因此研究人員也一直在努力尋找有效的防御手段來抵御這種威脅。此類威脅與網(wǎng)絡安全漏洞不同,后者通?梢栽诎l(fā)現(xiàn)漏洞后通過打補丁進行修補,前者還沒有辦法可以針對攻擊對算法提前打預防針。

  各國政府測試人工智能在軍事、網(wǎng)絡和監(jiān)測方面已經(jīng)積累了豐富的經(jīng)驗,但還沒有一種測試方法可以保證復雜的系統(tǒng)一旦在現(xiàn)實世界中運行就不會出現(xiàn)故障。F-22戰(zhàn)斗機第一次穿越國際日期變更線時,計算機系統(tǒng)崩潰,飛機幾乎墜毀在太平洋。

  測試人工智能系統(tǒng)比測試傳統(tǒng)軍事硬件設備要花費更多的時間和金錢。人工智能的復雜性賦予其更大的能力,也導致了更多難以預見的意外故障。假設某國政府研發(fā)出可以不知不覺入侵敵對國計算機網(wǎng)絡的人工智能系統(tǒng),部署該系統(tǒng)的政府將獲得遠超敵對國的巨大優(yōu)勢。由于也擔心敵對國正在加緊開發(fā)類似的人工智能工具,政府會被迫縮短測試時間并盡早部署該系統(tǒng)。這種你追我趕的局面已經(jīng)在自動駕駛汽車等行業(yè)形成風氣,然而人工智能工具在國家安全領域造成事故的后果更加巨大。

  政府醉心于強大但并不安全的技術,其實首開先河的不是人工智能而是計算機。盡管計算機系統(tǒng)存在巨大漏洞,但仍在從股票交易到制導導彈的幾乎所有領域中發(fā)揮著至關重要的作用。美國政府責任署調(diào)查員在2018年發(fā)現(xiàn),美國武器系統(tǒng)存在許多網(wǎng)絡安全漏洞,通過“相對簡單的工具和技術”就可以利用這些漏洞。更糟糕的是,國防部的項目主管居然不知道問題所在,并對責任署的發(fā)現(xiàn)不予理睬,還宣稱其測試不切實際。計算機安全漏洞不僅限于政府運行的系統(tǒng),很多大公司也相繼遭受重大數(shù)據(jù)泄露,因此現(xiàn)在再提數(shù)字安全性已經(jīng)是馬后炮的做法。然而人工智能系統(tǒng)遍布全球不僅僅是一種可能,而是默認設置,人工智能安全性更是一個迫在眉睫的世界性問題。

  5.人工智能發(fā)展需要全球合作和安全第一

  人工智能的威脅如此緊急,全球需要進行緊急響應。政治家們應對人工智能危害最重要的防御方法之一就是增加人工智能安全研究的資金投入。私營公司花費數(shù)十億美元研發(fā)人工智能在商業(yè)方面的應用,各國政府更應該在該領域發(fā)展之初就加大基礎性研究上的投入。美國國防高級研究計劃署正在執(zhí)行“下一代人工智能創(chuàng)新”項目,計劃在未來5年內(nèi)耗資20億美元解決弱人工智能系統(tǒng)局限性問題(譯者注:弱人工智能是指在人為規(guī)定的框架內(nèi),可以按照人類做出的決定,獨立執(zhí)行某些精確任務,但不具備意識)。在此基礎上,作為美國人工智能創(chuàng)新規(guī)劃的一部分,白宮會相應追加人工智能安全性研究的資金,并要求國會對人工智能安全性的研發(fā)提供更多預算。

  將人工智能應用于國家安全方面,政府機構需要重新審視一直以來測試新系統(tǒng)的傳統(tǒng)方法,僅僅驗證系統(tǒng)是否符合設計規(guī)格還遠遠不夠。測試人員還需要確保當面臨現(xiàn)實世界敵對入侵威脅時,系統(tǒng)還能夠繼續(xù)正常運行。在某些情況下,測試人員可以參考自動駕駛汽車制造商的做法,使用計算機模擬來梳理錯誤漏洞。另外國防部和情報界還應建立“紅色軍團”—充當攻擊者以測試系統(tǒng)的防御能力—來搜索人工智能系統(tǒng)中的安全隱患,這樣開發(fā)人員可以在系統(tǒng)上線之前進行修復。

  政府官員還要淡化有關人工智能軍備競賽的言論,這些話語很可能成為自我實現(xiàn)的預言。五角大樓首席研究員、工程師邁克爾·格里芬2018年在一次會議上說:“可能會有一場人工智能軍備競賽,但我們還沒有參加!泵绹姺娇隙〞玫饺斯ぶ悄埽歉窭锓业穆暶骷葲]有提到更沒有意識到隨之而來的風險。政府官員過多地談論軍備競賽,只可能鼓勵競爭對手追求速度而降低安全性,因此他們不僅要強調(diào)人工智能的價值,還要強調(diào)可靠性和安全性。

  最后,為確保人工智能的安全性,美國應該尋求與其他國家(哪怕是對手)合作的方式。在新技術方面的國際合作有好有壞的先例,各國有時也能成功合作避免相互傷害。冷戰(zhàn)期間,美國與蘇聯(lián)共同合作,限制了雙方都認為特別不穩(wěn)定的某些類型的核彈頭運載系統(tǒng)。美國還鼓勵其他國家采取安全措施,防止未經(jīng)授權使用核武器。今天美國要與盟國和對手共同努力,增加研究人工智能安全的國際投資。美國還應該與中國和俄羅斯開始討論,人工智能的某些應用是否會帶來可怕的風險升級或失控,以及各國如何共同采取措施來改善安全性。在人工智能軍備競賽中,美國面臨的最大危險不是輸球,而是出現(xiàn)一個滿盤皆輸?shù)氖澜纭?/p>

  19世紀的工業(yè)化帶來了巨大的經(jīng)濟增長,但同時也為軍隊制造出坦克、機槍和芥子氣等殺人武器。核武器的發(fā)明帶來了更大的危險,決策者們?nèi)栽跒橹橇。計算機徹底改變了人們的工作、學習和交流方式,但同時也使以前相對獨立的系統(tǒng)更容易受到網(wǎng)絡攻擊。

  人工智能隨著時代應運而生,產(chǎn)生的絕大多數(shù)影響都是積極的。人工智能會促進經(jīng)濟增長、診斷和治療疾病、減少交通事故并全方位地改善人們的生活。但正如任何新技術一樣,人工智能也有暗黑的一面。勇敢直面風險才能實現(xiàn)人類創(chuàng)造人工智能改善生活的初衷,否則只會帶來無盡的危險。

  (作者:保羅·斯查瑞,系新美國安全中心高級研究員兼技術與國家安全項目主任,專著《無人軍團:自動武器與戰(zhàn)爭的未來》的作者;編譯者杜珩系四川省社會科學院管理學所副研究員。原文刊登于美國《外交事務》雜志2019年5/6月刊。)

  

更多精彩內(nèi)容,請點擊進入文化產(chǎn)業(yè)頻道>>>>>

(責任編輯: 李卓 )

人工智能“軍備競賽”的真正危險是什么

2020-07-23 08:43 來源:光明日報
查看余下全文