omniture

馬斯克、蘋果聯(lián)合創(chuàng)始人等簽名公開信,呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)

2023-03-30 17:38

美通社消息:包括SpaceX、特斯拉和推特的首席執(zhí)行官伊隆·馬斯克(Elon Musk)、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)、Mila - Quebec AI Institute創(chuàng)始人兼科學(xué)總監(jiān)Yoshua Bengio在內(nèi)的數(shù)千名人工智能和技術(shù)領(lǐng)域的關(guān)鍵參與者共同簽署了一封由Future of Life Institute發(fā)起的公開信,要求人工智能實(shí)驗(yàn)室立即停止對(duì)比GPT-4更強(qiáng)大的人工智能系統(tǒng)的培訓(xùn),為期至少六個(gè)月。

 

 

在信中,簽名者明確指出,AI系統(tǒng)的智能可以與人類相媲美,可能對(duì)社會(huì)和人類構(gòu)成嚴(yán)重威脅。因此,應(yīng)實(shí)施為期六個(gè)月的暫停期,期間將開發(fā)和實(shí)施一套協(xié)議,使這些強(qiáng)大的人工智能系統(tǒng)更加準(zhǔn)確、透明和值得信賴。

 

以下是一些主要的共同簽署方:

 

  • Yuval Noah Harari,作家兼教授,Hebrew University of Jerusalem

  • Stuart Russell,伯克利,計(jì)算機(jī)科學(xué)教授,the Center for Intelligent Systems主任,標(biāo)準(zhǔn)教科書《Artificial Intelligence: a Modern Approach》的合著者

  • Elon Musk,SpaceX、Tesla & Twitter首席執(zhí)行官

  • Steve Wozniak,Apple聯(lián)合創(chuàng)始人

  • Evan Sharp,Pinterest聯(lián)合創(chuàng)始人

  • Rachel Bronson,Bulletin of the Atomic Scientists主席

 

附:公開信全文翻譯

 

暫停巨型 AI 實(shí)驗(yàn):一封公開信

 

大量研究表明并得到頂級(jí) AI 實(shí)驗(yàn)室的認(rèn)可,具有人類競(jìng)爭(zhēng)智能的 AI 系統(tǒng)可能對(duì)社會(huì)和人類構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。正如被廣泛認(rèn)可的Asilomar AI 原則中所描述的那樣,高級(jí) AI 可能代表地球生命史上的深刻變化,應(yīng)以相應(yīng)的關(guān)懷和資源進(jìn)行規(guī)劃和管理。不幸的是,這種級(jí)別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個(gè)月人工智能實(shí)驗(yàn)室陷入了一場(chǎng)失控的競(jìng)賽,以開發(fā)和部署更強(qiáng)大的數(shù)字思維,沒有人——甚至他們的創(chuàng)造者——都無法理解、預(yù)測(cè)、或可靠地控制。

 

當(dāng)代人工智能系統(tǒng)現(xiàn)在在一般任務(wù)上變得與人類具有競(jìng)爭(zhēng)力,我們必須捫心自問:我們是否應(yīng)該讓機(jī)器用宣傳和謊言充斥我們的信息渠道?我們應(yīng)該自動(dòng)化所有的工作,包括令人滿意的工作嗎?我們是否應(yīng)該發(fā)展最終可能超過我們、超越我們、過時(shí)并取代我們的非人類思維?我們應(yīng)該冒險(xiǎn)失去對(duì)我們文明的控制嗎?我們不可以將此類決定委托給未經(jīng)選舉產(chǎn)生的技術(shù)領(lǐng)導(dǎo)者。只有當(dāng)我們確信它們的影響是積極的并且它們的風(fēng)險(xiǎn)是可控的時(shí)候,才應(yīng)該開發(fā)強(qiáng)大的人工智能系統(tǒng)。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加。OpenAI最近關(guān)于通用人工智能的聲明指出,“在某個(gè)時(shí)候,在開始訓(xùn)練未來系統(tǒng)之前進(jìn)行獨(dú)立審查可能很重要,并且對(duì)于最先進(jìn)的工作來說,人們應(yīng)該在合適的時(shí)間點(diǎn)限制用于創(chuàng)建新系統(tǒng)的計(jì)算增長(zhǎng)率?!?我們同意,而當(dāng)下就是這一時(shí)候。

 

因此,我們呼吁所有 AI 實(shí)驗(yàn)室立即暫停至少 6 個(gè)月的比 GPT-4 更強(qiáng)大的 AI 系統(tǒng)訓(xùn)練。這種暫停應(yīng)該是公開的和可驗(yàn)證的,并且包括所有關(guān)鍵參與者。如果不能迅速實(shí)施這種暫停,政府應(yīng)介入并暫停。

 

人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這次暫停,共同開發(fā)和實(shí)施一套用于高級(jí)人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專家進(jìn)行嚴(yán)格審計(jì)和監(jiān)督。這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)是安全的,無可置疑。這并不意味著總體上暫停 AI 開發(fā),只是從危險(xiǎn)的競(jìng)賽中倒退到具有緊急功能的更大的不可預(yù)測(cè)的黑盒模型。

 

人工智能研究和開發(fā)應(yīng)該重新聚焦于使當(dāng)今強(qiáng)大的、最先進(jìn)的系統(tǒng),更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。

 

與此同時(shí),AI 開發(fā)人員必須與政策制定者合作,以加快開發(fā)強(qiáng)大的 AI 治理系統(tǒng)。涵蓋內(nèi)容至少應(yīng)包括:專門負(fù)責(zé) AI 的新的和有能力的監(jiān)管機(jī)構(gòu);監(jiān)督和跟蹤高性能人工智能系統(tǒng)和大量計(jì)算能力;出處和水印系統(tǒng),以幫助區(qū)分真實(shí)與合成并跟蹤模型泄漏;強(qiáng)大的審計(jì)和認(rèn)證生態(tài)系統(tǒng);人工智能造成的傷害的責(zé)任;為技術(shù)人工智能安全研究提供強(qiáng)大的公共資金;以及資源充足的機(jī)構(gòu)來應(yīng)對(duì)人工智能將造成的巨大的經(jīng)濟(jì)和政治破壞。

 

人類可以享受人工智能帶來的繁榮未來。成功創(chuàng)建強(qiáng)大的 AI 系統(tǒng)后,我們現(xiàn)在已經(jīng)可以享受人工智能之夏,去收獲回報(bào),去設(shè)計(jì)這些系統(tǒng)以造福所有人,并為社會(huì)提供更長(zhǎng)的適應(yīng)機(jī)會(huì)和時(shí)間。過去我們已經(jīng)暫停過其他可能對(duì)社會(huì)造成災(zāi)難性影響的技術(shù)。我們現(xiàn)在也可以這樣這樣做。讓我們享受一個(gè)漫長(zhǎng)的 AI 夏天,而不是毫無準(zhǔn)備地跑入秋天。