ChatGPT 之父警告 AI 可能滅絕人類,350 名 AI 權(quán)威簽署公開信
發(fā)布時(shí)間:2021-12-30閱讀次數(shù):2016
今天,AI領(lǐng)域傳出一封重要的公開信。
包括「ChatGPT之父」Sam Altman在內(nèi)350位AI權(quán)威都簽署了這封聯(lián)名公開信,并對當(dāng)前正在開發(fā)的AI技術(shù)可能會對人類構(gòu)成生存威脅擔(dān)憂。
這封信只有一句聲明:降低人工智能滅絕的風(fēng)險(xiǎn),應(yīng)該與其它社會規(guī)模的風(fēng)險(xiǎn)(如大流行病和核戰(zhàn)爭)一樣,成為全球的優(yōu)先事項(xiàng)。
加入公開信簽名?
https://www.safe.ai/statement-on-ai-risk
簽署人包括三個(gè)領(lǐng)先的AI公司高管:
OpenAI首席執(zhí)行官Sam Altman;
Google DeepMind首席執(zhí)行官Demis Hassabis;
Anthropic的首席執(zhí)行官Dario Amodei;
更重要的是,名單里還有Geoffrey Hinton和Yoshua Bengio兩位人工智能的「教父」。
超過350名從事人工智能工作的高管、研究人員和工程師簽署了這份由非盈利組織人工智能安全中心發(fā)布的公開信,認(rèn)為人工智能具備可能導(dǎo)致人類滅絕的風(fēng)險(xiǎn),應(yīng)當(dāng)將其視為與流行病和核戰(zhàn)爭同等的社會風(fēng)險(xiǎn)。
如今人們越來越擔(dān)心ChatGPT等人工智能模型的發(fā)展可能對社會和就業(yè)帶來的潛在威脅,很多人呼吁針對AI行業(yè)進(jìn)行更強(qiáng)力的監(jiān)管,否則它將對社會造成不可挽回的破壞。
AI不斷狂飆,但相關(guān)的監(jiān)管、審計(jì)手段卻遲遲沒有跟上,這也意味著沒有人能夠保證AI工具以及使用AI工具的過程中的安全性。
在上周,Sam Altman和另外兩位OpenAI的高管提出應(yīng)該建立類似國際原子能機(jī)構(gòu)這樣國際組織來安全監(jiān)管AI的發(fā)展,他呼吁國際間領(lǐng)先的人工智能制造商應(yīng)該展開合作,并要求政府強(qiáng)化對尖端人工智能制造商的監(jiān)管。
其實(shí)早在3月,就一篇有關(guān)叫停6個(gè)月AI研究的公開信火遍了全網(wǎng)。
該信呼吁所有的AI實(shí)驗(yàn)立即暫停研究比GPT-4更先進(jìn)的AI模型,暫停時(shí)間至少6個(gè)月,為的就是把這些可怕的幻想扼殺在搖籃之中。
AI的進(jìn)步速度實(shí)在過于驚人,但相關(guān)的監(jiān)管、審計(jì)手段卻遲遲沒有跟上,這也意味著沒有人能夠保證AI工具以及使用AI工具的過程中的安全性。
該聯(lián)名信已經(jīng)獲得了包括2018年圖靈獎(jiǎng)得主Yoshua Bengio、馬斯克、史蒂夫·沃茲尼亞克、Skype聯(lián)合創(chuàng)始人、Pinterest聯(lián)合創(chuàng)始人、Stability AI CEO等多位知名人士的簽名支持,截稿前聯(lián)名人數(shù)已經(jīng)達(dá)到1125人。
公開信的原文如下:
人工智能具有與人類競爭的智能,這可能給社會和人類帶來深刻的風(fēng)險(xiǎn),這已經(jīng)通過大量研究[1]得到證實(shí),并得到了頂級AI實(shí)驗(yàn)室的認(rèn)可[2]。正如廣泛認(rèn)可的阿西洛馬爾人工智能原則(Asilomar AI Principles)所指出的,先進(jìn)的AI可能代表地球生命歷史上的重大變革,因此應(yīng)該以相應(yīng)的關(guān)注和資源進(jìn)行規(guī)劃和管理。
不幸的是,即使在最近幾個(gè)月,AI實(shí)驗(yàn)室在開發(fā)和部署越來越強(qiáng)大的數(shù)字化思維方面陷入了失控的競爭,而沒有人能夠理解、預(yù)測或可靠地控制這些數(shù)字化思維,即使是它們的創(chuàng)造者也無法做到這一點(diǎn)。
現(xiàn)代AI系統(tǒng)現(xiàn)在已經(jīng)在通用任務(wù)方面具有與人類競爭的能力[3],我們必須問自己:
我們應(yīng)該讓機(jī)器充斥我們的信息渠道,傳播宣傳和謊言嗎?
我們應(yīng)該將所有工作都自動化,包括那些令人滿足的工作嗎?
我們應(yīng)該發(fā)展可能最終超過、取代我們的非人類思維嗎?
我們應(yīng)該冒失控文明的風(fēng)險(xiǎn)嗎?
這些決策不應(yīng)該由非選舉產(chǎn)生的科技領(lǐng)導(dǎo)人來負(fù)責(zé)。只有當(dāng)我們確信AI系統(tǒng)的影響是積極的,風(fēng)險(xiǎn)是可控的,我們才應(yīng)該開發(fā)強(qiáng)大的AI系統(tǒng)。這種信心必須得到充分的理由,并隨著系統(tǒng)潛在影響的增大而增強(qiáng)。OpenAI最近關(guān)于人工智能的聲明指出:「在某個(gè)時(shí)候,可能需要在開始訓(xùn)練未來系統(tǒng)之前獲得獨(dú)立審查,對于最先進(jìn)的努力,需要同意限制用于創(chuàng)建新模型的計(jì)算增長速度?!刮覀兺狻,F(xiàn)在就是那個(gè)時(shí)刻。
因此,我們呼吁所有AI實(shí)驗(yàn)室立即暫停至少6個(gè)月的時(shí)間,不要訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。這個(gè)暫停應(yīng)該是公開和可驗(yàn)證的,并包括所有關(guān)鍵參與者。如果無法迅速實(shí)施這樣的暫停,政府應(yīng)該介入并實(shí)行一個(gè)暫禁令。
AI實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這個(gè)暫停時(shí)間共同制定和實(shí)施一套共享的先進(jìn)AI設(shè)計(jì)和開發(fā)安全協(xié)議,這些協(xié)議應(yīng)該由獨(dú)立的外部專家嚴(yán)格審核和監(jiān)督。
這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)在合理懷疑范圍之外是安全的[4]。這并不意味著暫停AI發(fā)展,而只是從不斷邁向更大、不可預(yù)測的黑箱模型及其突現(xiàn)能力的危險(xiǎn)競賽中退一步。
AI研究和開發(fā)應(yīng)該重點(diǎn)放在提高現(xiàn)有強(qiáng)大、先進(jìn)系統(tǒng)的準(zhǔn)確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。
與此同時(shí),AI開發(fā)者必須與政策制定者合作,大力加速AI治理體系的發(fā)展。這些至少應(yīng)包括:
專門負(fù)責(zé)AI的新的、有能力的監(jiān)管機(jī)構(gòu);
對高能力AI系統(tǒng)和大型計(jì)算能力池的監(jiān)督和跟蹤;
用于區(qū)分真實(shí)與合成內(nèi)容、跟蹤模型泄漏的溯源和水印系統(tǒng);
健全的審計(jì)和認(rèn)證生態(tài)系統(tǒng);對AI造成的損害承擔(dān)責(zé)任;
技術(shù)AI安全研究的充足公共資金;
應(yīng)對AI引起的巨大經(jīng)濟(jì)和政治變革(特別是對民主制度的影響)的資深機(jī)構(gòu)。
人類可以在AI的幫助下享受繁榮的未來。在成功創(chuàng)造出強(qiáng)大的AI系統(tǒng)之后,我們現(xiàn)在可以享受一個(gè)「AI盛夏」,在其中我們收獲回報(bào),將這些系統(tǒng)明確地用于造福所有人,并讓社會有機(jī)會適應(yīng)。
在面臨可能對社會造成災(zāi)難性影響的其他技術(shù)上,社會已經(jīng)按下了暫停鍵[5]。在這里,我們也可以這樣做。讓我們享受一個(gè)漫長的AI盛夏,而不是毫無準(zhǔn)備地沖向秋天。
靈集科技打造本地生活類小程序
十種軟件開發(fā)模型整理
軟件開發(fā)公司的UI/UX設(shè)計(jì)師是什么?有啥區(qū)別?
云醫(yī)互聯(lián)SASS解決方案
九大類企業(yè)管理軟件助力企業(yè)數(shù)字化轉(zhuǎn)型
智慧醫(yī)療:創(chuàng)新驅(qū)動,引領(lǐng)醫(yī)療健康未來
企業(yè)為什么要做定制化的軟件,找哪家公司好?
內(nèi)蒙古網(wǎng)站建設(shè),打開大眾對您的“第一印象”
開發(fā)企業(yè)官網(wǎng)有什么作用?內(nèi)蒙古網(wǎng)站建設(shè)總結(jié)了兩點(diǎn)
全面分析小程序商城