四虎AV成人在线观看|免费免费特黄的欧美大片|人妻丝袜中文字幕一区三区|性爱一级二级三级|日本黄色视频在线观看免费|亚洲午夜天堂超碰大香蕉中出|国产日韩三级黄色AV一区二区三区|a片网站在线观看视频|人人AV播放日韩操在线|国产伦清品一区二区三区

正在閱讀:

麻省理工科技評論:生存風險如何成為 AI 中最大模因

掃一掃下載界面新聞APP

麻省理工科技評論:生存風險如何成為 AI 中最大模因

AI 末日論的傳染擴散。

編譯|巴比特資訊 Will Douglas Heaven

是誰在害怕機器人?似乎很多人都是這樣。目前,公開發(fā)表聲明或簽署公開信警告人工智能災難性危險的知名人士的數量多到驚人。

數以百計的科學家、商業(yè)領袖和政策制定者已經發(fā)聲,包括從深度學習先驅 Geoffrey Hinton 和 Yoshua Bengio,到頂級人工智能公司的首席執(zhí)行官,如 Sam Altman 和 Demis Hassabis,再到加州眾議員 Ted Lieu 和愛沙尼亞前總統(tǒng) Kersti Kaljulaid。

由所有這些人士和其他更多人簽署的最嚴酷的斷言是兩周前由舊金山的研究組織人工智能安全中心(CAIS)發(fā)布的 22 個字的聲明,它宣稱“減輕人工智能帶來的滅絕風險應該是一個全球性的優(yōu)先事項,與其他社會規(guī)模的風險如疫情和核戰(zhàn)爭一樣?!?/p>

這種措辭是經過深思熟慮的。CAIS 主任 Dan Hendrycks 說:“如果我們要用羅夏測試式的陳述,我們會說‘生存風險’(existential risk),因為這對很多不同的人來說可能意味著很多東西?!钡麄兿M吻澹哼@并不是要搞垮經濟。Hendrycks 說:“這就是為什么我們提到了‘滅絕風險’(risk of extinction),盡管我們很多人也擔心其他各種風險?!?/p>

我們以前也經歷過這樣的情況:人工智能的厄運伴隨著人工智能的炒作。但這一次感覺不同。奧弗頓窗口已經轉移了。曾經的極端觀點現在成了主流話題,不僅搶占了頭條,還引起了世界領導人的注意。研究技術社會影響的組織“數據與社會”(Data and Society)的研究主任 Jenna Burrell 說:“對人工智能表示擔憂的聲音已經大到無法忽視。”

這是發(fā)生了什么?人工智能真的變得(更)危險了嗎?為什么當初引進這項技術的人現在卻開始拉響警報?

誠然,這些觀點在該領域存在分歧。上周,Meta 公司的首席科學家、與 Hinton 和 Bengio 共同獲得 2018 年圖靈獎的 Yann LeCun 稱末日論荒謬可笑”。人工智能公司 Cohere 的首席執(zhí)行官 Aidan Gomez 表示,這是“對我們時間的荒謬利用”。

同樣,其他人也對此嗤之以鼻。Signal 總裁 Meredith Whittaker 表示:“現在沒有比 1950 年有更多的證據表明,人工智能將構成這些生存風險?!盬hittaker 是人工智能研究所(AI now Institute)的聯合創(chuàng)始人和前主任,該研究所是一家研究人工智能政策影響的研究實驗室?!肮砉适率菚魅镜摹ε抡娴暮芰钊伺d奮和刺激。”

“這也是一種略過當今所發(fā)生的一切的方式,”Burrell 說。“它表明我們還沒有看到真正或嚴重的危害?!?/p>

一種古老的恐懼

自阿蘭 - 圖靈以來,對失控的、自我改進的機器的擔憂一直存在。Vernor Vinge 和 Ray Kurzweil 等未來學家通過談論所謂的“奇點”(Singularity)來普及這些想法,“奇點”是一個假想的日期,即人工智能超過人類智能并由機器接管。

但這種擔憂的核心是控制的問題:如果(或當)機器變得更聰明時,人類如何保持優(yōu)勢地位?在 2017 年發(fā)表的一篇名為“人工智能如何構成生存風險?”的論文中,多倫多大學人工智能哲學家 Karina Vold(她也簽署了 CAIS 的聲明)闡述了這種擔憂背后的基本論點。

論點有三個關鍵前提。第一,人類有可能造出一臺超級智能機器,它可以超越所有其他智能。第二,我們有可能無法控制能夠超越我們的超級智能體。第三,超級智能體有可能會做一些我們不希望它做的事情。

把所有這些結合起來,就有可能制造出一種機器,它會做我們不想讓它做的事情,包括消滅我們,而我們將無法阻止它。

這種場景也有不同的情況。當 Hinton 在五月份提出他對人工智能的擔憂時,他舉了機器人重新調整電網路線以給自己提供更多電力的例子。但超級智能(或 AGI)并不是必需的。愚蠢的機器如果有太多的空間,也可能是災難性的。許多場景涉及到輕率或惡意的部署,而不是自利的機器人。

加州大學伯克利分校的人工智能研究人員 Stuart Russell 和 Andrew Critch(他們也都簽署了 CAIS 的聲明)在上周在線發(fā)表的一篇論文中,給出了生存風險的分類法。這些風險的范圍包括:病毒式的提供建議的聊天機器人,告訴數百萬人從大學退學,到追求有害經濟目的的自主產業(yè),再到民族國家建造人工智能驅動的超級武器。

在許多想象中的案例中,一個理論模型實現了其人類賦予的目標,但卻以一種對我們不利的方式來實現。Hendrycks 研究了深度學習模型在給定訓練數據中未見的輸入時有時會以意想不到的方式表現,對于他來說,人工智能系統(tǒng)可能是災難性的,因為它是破壞性的而不是萬能的。他說:“如果你給它一個目標,而它卻找到了外來的解決方案,那么它將帶我們踏上一段奇怪的旅程?!?/p>

這些可能的未來的問題是,它們依賴于一連串的“如果”,這使它們聽起來像科幻小說。Vold 自己也承認了這一點。“由于構成或引發(fā) [生存風險] 的事件是前所未有的,因此關于它們構成這種威脅的論點本質上必須是理論性的,”她寫道?!八鼈兊南∮行砸彩沟萌魏侮P于此類事件如何或何時發(fā)生的猜測都是主觀的,無法通過經驗驗證?!?/p>

那么,為什么越來越多的人比以往任何時候都更相信這些想法?谷歌的人工智能研究員 Fran?ois Chollet 說:“不同的人出于不同的原因談論風險,他們的意思也可能不同。”但這是一種難以抗拒的敘述:“生存風險一直是一個好故事”。

“這其中有一種不容忽視的神話、近乎宗教的元素,”Whittaker。“我認為我們需要認識到,鑒于所描述的內容沒有證據基礎,它更接近于一種信仰,一種宗教狂熱,而不是科學話語?!?/p>

末日論的傳染擴散

當深度學習研究人員第一次開始取得一系列成功時 -- 想想 Hinton 和他的同事們在 2012 年 ImageNet 競賽中打破記錄的圖像識別分數,以及 DeepMind 在 2015 年首次以 AlphaGo 戰(zhàn)勝人類冠軍時,炒作很快也變成了末日論?;艚鸷陀钪鎸W家 Martin Rees 等知名科學家,以及埃隆 - 馬斯克等知名科技領袖,都發(fā)出了生存風險的警報。但這些人物并不是人工智能專家。

八年前,深度學習先驅、時任百度首席科學家吳恩達(Andrew Ng)站在圣何塞的講臺上,對這個想法一笑置之。

“在遙遠的未來,可能會出現一場殺手機器人競賽,”吳恩達在 2015 年 Nvidia GPU 技術大會上告訴觀眾?!暗医裉觳⒉恢铝τ诜乐谷斯ぶ悄茏兊眯皭?,就像我不擔心火星上人口過剩的問題。”(科技新聞網站 The Register 當時報道了吳恩達的這番話。)

吳恩達于 2011 年共同創(chuàng)立了谷歌人工智能實驗室,現任 Landing AI 首席執(zhí)行官,他在此后在采訪中不斷重復著這句話。但現在的他不那么樂觀了?!拔冶3珠_放的態(tài)度,正在與一些人交談以了解更多信息,”他告訴我?!翱焖俚陌l(fā)展讓科學家們重新思考風險?!?/p>

和許多人一樣,吳恩達對生成式人工智能的快速發(fā)展及其被濫用的可能性表示擔憂。他指出,上個月,一個被廣泛傳播的由 AI 生成的五角大樓的爆炸圖像嚇壞了人們,連著股票市場也跟著下跌。

“不幸的是,人工智能如此強大,它似乎也可能會導致巨大的問題,”吳恩達說。但他沒有談到殺手機器人:“現在,我仍然很難看到人工智能會如何導致我們的滅絕”。

與之前不同的是人們對人工智能能做什么的廣泛認識。去年年底,ChatGPT 將這項技術推向了公眾?!叭斯ぶ悄芡蝗怀蔀橹髁鞯臒衢T話題,”Chollet 說道?!叭藗冋谡J真對待人工智能,因為他們將能力的突然飛躍視為未來更多飛躍的預兆?!?/p>

此外,與聊天機器人對話的經歷也會讓人感到不安。對話是一種通常被理解為人們與其他人一起做的事情。Whittaker 說:“它為人工智能像人類或有感知能力的對話者這一想法增添了一種合理性?!薄拔艺J為這讓人們相信,如果人工智能可以模擬人類交流,它也可以做 XYZ?!?/p>

“這就是我開始覺得關于生存風險的對話有些適合的原因 -- 在沒有證據的情況下進行推斷,”她說。

展望未來

我們有理由感到憤慨。隨著監(jiān)管機構對科技行業(yè)的追趕,擺在桌面上的問題是什么樣的活動應該或不應該受到限制。突出長期風險而不是短期危害(如歧視性雇用或錯誤信息),使監(jiān)管者的注意力重新集中在未來的假想問題上。

Burrell 說:“我懷疑真正的監(jiān)管限制的威脅已經推動人們采取了一種立場。談論生存風險可能會驗證監(jiān)管者的擔憂,而不會破壞商業(yè)機會?!彼f:“背叛人類的超級智能 AI 聽起來很可怕,但這顯然也是尚未發(fā)生的事情?!?/p>

夸大對生存風險的擔憂在其他方面也有利于商業(yè)。Chollet 指出,頂級人工智能公司需要我們認為 AGI 即將到來,而他們就是建造 AGI 的人。他說:“如果你想讓人們認為你正在研究的東西是強大的,那么讓他們害怕它是一個好主意?!?/p>

Whittaker 也持類似觀點。她說:“把自己塑造成一個可能比人類更強大的實體的創(chuàng)造者是一件重要的事情?!?/p>

如果僅僅是營銷或炒作,這些都不重要。但決定什么是風險,什么不是風險,會有相應的后果。在一個預算和注意力有限的世界里,沒有核戰(zhàn)爭那么極端的傷害可能會被忽視,因為我們認為它們不是優(yōu)先事項。

“這是一個重要的問題,尤其是在人們越來越關注安全和保障作為政策干預的狹窄框架的情況下,”AI Now 研究所的常務董事 Sarah Myers West 說。

當首相 Rishi Sunak 在 5 月與包括 Sam Altman 和 Demis Hassabis 在內的人工智能公司負責人會面時,英國政府發(fā)表聲明說:“首相和首席執(zhí)行官們討論了該技術的風險,從虛假信息和國家安全,到生存威脅”。

此前一周,Altman 告訴美國參議院,他最擔心的是人工智能產業(yè)會對世界造成重大傷害。Altman 的證詞引發(fā)了人們對建立新型機構來解決這種前所未有的危害的呼聲。

隨著奧弗頓窗口的轉移,危害是否已經造成?“如果我們談論的是遙遠的未來,如果我們談論的是神話般的風險,那么我們就完全把問題重塑為一個存在于幻想世界的問題,其解決方案也可以存在于幻想世界,”Whittaker 說。

但 Whittaker 也指出,圍繞人工智能的政策討論已經持續(xù)了多年,比最近這種恐懼要長。“我不相信必然性,”她說?!拔覀儗吹竭@種炒作遭到反擊。它會消退的?!?/p>

來源:麻省理工科技評論

本文為轉載內容,授權事宜請聯系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

麻省理工科技評論:生存風險如何成為 AI 中最大模因

AI 末日論的傳染擴散。

編譯|巴比特資訊 Will Douglas Heaven

是誰在害怕機器人?似乎很多人都是這樣。目前,公開發(fā)表聲明或簽署公開信警告人工智能災難性危險的知名人士的數量多到驚人。

數以百計的科學家、商業(yè)領袖和政策制定者已經發(fā)聲,包括從深度學習先驅 Geoffrey Hinton 和 Yoshua Bengio,到頂級人工智能公司的首席執(zhí)行官,如 Sam Altman 和 Demis Hassabis,再到加州眾議員 Ted Lieu 和愛沙尼亞前總統(tǒng) Kersti Kaljulaid。

由所有這些人士和其他更多人簽署的最嚴酷的斷言是兩周前由舊金山的研究組織人工智能安全中心(CAIS)發(fā)布的 22 個字的聲明,它宣稱“減輕人工智能帶來的滅絕風險應該是一個全球性的優(yōu)先事項,與其他社會規(guī)模的風險如疫情和核戰(zhàn)爭一樣?!?/p>

這種措辭是經過深思熟慮的。CAIS 主任 Dan Hendrycks 說:“如果我們要用羅夏測試式的陳述,我們會說‘生存風險’(existential risk),因為這對很多不同的人來說可能意味著很多東西?!钡麄兿M吻澹哼@并不是要搞垮經濟。Hendrycks 說:“這就是為什么我們提到了‘滅絕風險’(risk of extinction),盡管我們很多人也擔心其他各種風險?!?/p>

我們以前也經歷過這樣的情況:人工智能的厄運伴隨著人工智能的炒作。但這一次感覺不同。奧弗頓窗口已經轉移了。曾經的極端觀點現在成了主流話題,不僅搶占了頭條,還引起了世界領導人的注意。研究技術社會影響的組織“數據與社會”(Data and Society)的研究主任 Jenna Burrell 說:“對人工智能表示擔憂的聲音已經大到無法忽視?!?/p>

這是發(fā)生了什么?人工智能真的變得(更)危險了嗎?為什么當初引進這項技術的人現在卻開始拉響警報?

誠然,這些觀點在該領域存在分歧。上周,Meta 公司的首席科學家、與 Hinton 和 Bengio 共同獲得 2018 年圖靈獎的 Yann LeCun 稱末日論荒謬可笑”。人工智能公司 Cohere 的首席執(zhí)行官 Aidan Gomez 表示,這是“對我們時間的荒謬利用”。

同樣,其他人也對此嗤之以鼻。Signal 總裁 Meredith Whittaker 表示:“現在沒有比 1950 年有更多的證據表明,人工智能將構成這些生存風險?!盬hittaker 是人工智能研究所(AI now Institute)的聯合創(chuàng)始人和前主任,該研究所是一家研究人工智能政策影響的研究實驗室?!肮砉适率菚魅镜摹ε抡娴暮芰钊伺d奮和刺激?!?/p>

“這也是一種略過當今所發(fā)生的一切的方式,”Burrell 說?!八砻魑覀冞€沒有看到真正或嚴重的危害?!?/p>

一種古老的恐懼

自阿蘭 - 圖靈以來,對失控的、自我改進的機器的擔憂一直存在。Vernor Vinge 和 Ray Kurzweil 等未來學家通過談論所謂的“奇點”(Singularity)來普及這些想法,“奇點”是一個假想的日期,即人工智能超過人類智能并由機器接管。

但這種擔憂的核心是控制的問題:如果(或當)機器變得更聰明時,人類如何保持優(yōu)勢地位?在 2017 年發(fā)表的一篇名為“人工智能如何構成生存風險?”的論文中,多倫多大學人工智能哲學家 Karina Vold(她也簽署了 CAIS 的聲明)闡述了這種擔憂背后的基本論點。

論點有三個關鍵前提。第一,人類有可能造出一臺超級智能機器,它可以超越所有其他智能。第二,我們有可能無法控制能夠超越我們的超級智能體。第三,超級智能體有可能會做一些我們不希望它做的事情。

把所有這些結合起來,就有可能制造出一種機器,它會做我們不想讓它做的事情,包括消滅我們,而我們將無法阻止它。

這種場景也有不同的情況。當 Hinton 在五月份提出他對人工智能的擔憂時,他舉了機器人重新調整電網路線以給自己提供更多電力的例子。但超級智能(或 AGI)并不是必需的。愚蠢的機器如果有太多的空間,也可能是災難性的。許多場景涉及到輕率或惡意的部署,而不是自利的機器人。

加州大學伯克利分校的人工智能研究人員 Stuart Russell 和 Andrew Critch(他們也都簽署了 CAIS 的聲明)在上周在線發(fā)表的一篇論文中,給出了生存風險的分類法。這些風險的范圍包括:病毒式的提供建議的聊天機器人,告訴數百萬人從大學退學,到追求有害經濟目的的自主產業(yè),再到民族國家建造人工智能驅動的超級武器。

在許多想象中的案例中,一個理論模型實現了其人類賦予的目標,但卻以一種對我們不利的方式來實現。Hendrycks 研究了深度學習模型在給定訓練數據中未見的輸入時有時會以意想不到的方式表現,對于他來說,人工智能系統(tǒng)可能是災難性的,因為它是破壞性的而不是萬能的。他說:“如果你給它一個目標,而它卻找到了外來的解決方案,那么它將帶我們踏上一段奇怪的旅程?!?/p>

這些可能的未來的問題是,它們依賴于一連串的“如果”,這使它們聽起來像科幻小說。Vold 自己也承認了這一點。“由于構成或引發(fā) [生存風險] 的事件是前所未有的,因此關于它們構成這種威脅的論點本質上必須是理論性的,”她寫道?!八鼈兊南∮行砸彩沟萌魏侮P于此類事件如何或何時發(fā)生的猜測都是主觀的,無法通過經驗驗證?!?/p>

那么,為什么越來越多的人比以往任何時候都更相信這些想法?谷歌的人工智能研究員 Fran?ois Chollet 說:“不同的人出于不同的原因談論風險,他們的意思也可能不同?!钡@是一種難以抗拒的敘述:“生存風險一直是一個好故事”。

“這其中有一種不容忽視的神話、近乎宗教的元素,”Whittaker。“我認為我們需要認識到,鑒于所描述的內容沒有證據基礎,它更接近于一種信仰,一種宗教狂熱,而不是科學話語?!?/p>

末日論的傳染擴散

當深度學習研究人員第一次開始取得一系列成功時 -- 想想 Hinton 和他的同事們在 2012 年 ImageNet 競賽中打破記錄的圖像識別分數,以及 DeepMind 在 2015 年首次以 AlphaGo 戰(zhàn)勝人類冠軍時,炒作很快也變成了末日論?;艚鸷陀钪鎸W家 Martin Rees 等知名科學家,以及埃隆 - 馬斯克等知名科技領袖,都發(fā)出了生存風險的警報。但這些人物并不是人工智能專家。

八年前,深度學習先驅、時任百度首席科學家吳恩達(Andrew Ng)站在圣何塞的講臺上,對這個想法一笑置之。

“在遙遠的未來,可能會出現一場殺手機器人競賽,”吳恩達在 2015 年 Nvidia GPU 技術大會上告訴觀眾?!暗医裉觳⒉恢铝τ诜乐谷斯ぶ悄茏兊眯皭海拖裎也粨幕鹦巧先丝谶^剩的問題?!保萍夹侣劸W站 The Register 當時報道了吳恩達的這番話。)

吳恩達于 2011 年共同創(chuàng)立了谷歌人工智能實驗室,現任 Landing AI 首席執(zhí)行官,他在此后在采訪中不斷重復著這句話。但現在的他不那么樂觀了?!拔冶3珠_放的態(tài)度,正在與一些人交談以了解更多信息,”他告訴我?!翱焖俚陌l(fā)展讓科學家們重新思考風險?!?/p>

和許多人一樣,吳恩達對生成式人工智能的快速發(fā)展及其被濫用的可能性表示擔憂。他指出,上個月,一個被廣泛傳播的由 AI 生成的五角大樓的爆炸圖像嚇壞了人們,連著股票市場也跟著下跌。

“不幸的是,人工智能如此強大,它似乎也可能會導致巨大的問題,”吳恩達說。但他沒有談到殺手機器人:“現在,我仍然很難看到人工智能會如何導致我們的滅絕”。

與之前不同的是人們對人工智能能做什么的廣泛認識。去年年底,ChatGPT 將這項技術推向了公眾?!叭斯ぶ悄芡蝗怀蔀橹髁鞯臒衢T話題,”Chollet 說道?!叭藗冋谡J真對待人工智能,因為他們將能力的突然飛躍視為未來更多飛躍的預兆?!?/p>

此外,與聊天機器人對話的經歷也會讓人感到不安。對話是一種通常被理解為人們與其他人一起做的事情。Whittaker 說:“它為人工智能像人類或有感知能力的對話者這一想法增添了一種合理性。”“我認為這讓人們相信,如果人工智能可以模擬人類交流,它也可以做 XYZ。”

“這就是我開始覺得關于生存風險的對話有些適合的原因 -- 在沒有證據的情況下進行推斷,”她說。

展望未來

我們有理由感到憤慨。隨著監(jiān)管機構對科技行業(yè)的追趕,擺在桌面上的問題是什么樣的活動應該或不應該受到限制。突出長期風險而不是短期危害(如歧視性雇用或錯誤信息),使監(jiān)管者的注意力重新集中在未來的假想問題上。

Burrell 說:“我懷疑真正的監(jiān)管限制的威脅已經推動人們采取了一種立場。談論生存風險可能會驗證監(jiān)管者的擔憂,而不會破壞商業(yè)機會?!彼f:“背叛人類的超級智能 AI 聽起來很可怕,但這顯然也是尚未發(fā)生的事情。”

夸大對生存風險的擔憂在其他方面也有利于商業(yè)。Chollet 指出,頂級人工智能公司需要我們認為 AGI 即將到來,而他們就是建造 AGI 的人。他說:“如果你想讓人們認為你正在研究的東西是強大的,那么讓他們害怕它是一個好主意?!?/p>

Whittaker 也持類似觀點。她說:“把自己塑造成一個可能比人類更強大的實體的創(chuàng)造者是一件重要的事情?!?/p>

如果僅僅是營銷或炒作,這些都不重要。但決定什么是風險,什么不是風險,會有相應的后果。在一個預算和注意力有限的世界里,沒有核戰(zhàn)爭那么極端的傷害可能會被忽視,因為我們認為它們不是優(yōu)先事項。

“這是一個重要的問題,尤其是在人們越來越關注安全和保障作為政策干預的狹窄框架的情況下,”AI Now 研究所的常務董事 Sarah Myers West 說。

當首相 Rishi Sunak 在 5 月與包括 Sam Altman 和 Demis Hassabis 在內的人工智能公司負責人會面時,英國政府發(fā)表聲明說:“首相和首席執(zhí)行官們討論了該技術的風險,從虛假信息和國家安全,到生存威脅”。

此前一周,Altman 告訴美國參議院,他最擔心的是人工智能產業(yè)會對世界造成重大傷害。Altman 的證詞引發(fā)了人們對建立新型機構來解決這種前所未有的危害的呼聲。

隨著奧弗頓窗口的轉移,危害是否已經造成?“如果我們談論的是遙遠的未來,如果我們談論的是神話般的風險,那么我們就完全把問題重塑為一個存在于幻想世界的問題,其解決方案也可以存在于幻想世界,”Whittaker 說。

但 Whittaker 也指出,圍繞人工智能的政策討論已經持續(xù)了多年,比最近這種恐懼要長。“我不相信必然性,”她說?!拔覀儗吹竭@種炒作遭到反擊。它會消退的?!?/p>

來源:麻省理工科技評論

本文為轉載內容,授權事宜請聯系原著作權人。