千人聯名叫停ChatGPT-5,為什麼。

千人聯名叫停ChatGPT-5,為什麼。

編譯 | 楊玉科

編輯 | 葛幫寧

出品 | 幫寧工作室《gbngzs》

『這是一場沒有人能預測或控制的危險競賽』。

2023年3月29日,包括埃隆·馬斯克《Elon Musk》和蘋果聯合創始人史蒂夫·沃茲尼亞克《Steve Wozniak》在內,1000多名科技界領袖呼籲暫停開發人工智能。

他們擔心這場危險競賽會對社會和人類構成『深遠的風險』,且可能產生『災難性』影響。

在由非營利組織生命未來研究所《The Future of Life Institute》發佈的一封名為《暫停大型人工智能實驗》公開信中,馬斯克和其他科技界領袖呼籲,所有人工智能實驗室停止開發產品至少6個月,並對其進行更多風險評估。

『我們呼籲所有人工智能實驗室立即暫停對比GPT-4更強大的人工智能系統的試驗,至少6個月』信中建議道,暫停行動應該是公開的、可核實的,包括所有關鍵行為者。

如果實驗室拒絕,呼籲者希望政府介入,並強制實施暫停。

這是一種普遍存在的擔憂。

這種擔憂甚至得到Open AI公司首席執行官山姆·阿爾特曼《Sam Altman》的認同,後者創建了ChatGPT。

阿爾特曼早些時候曾表示,這項技術可以被開發利用進行『廣泛的』網路攻擊。

自GPT-4發佈以來,Open AI一直在用『插件』為人工智能系統添加功能,使其能在開放網路上查找數據、計劃假期,甚至訂購雜貨等。

但該公司必須處理『能力過剩』問題——系統發佈時比它所預知的更強大。

公開信還詳細介紹了與人類競爭的人工智能系統,將以經濟和政治破壞的形式對社會和文明造成的潛在風險,呼籲開發者與政策制定者就治理和監管機構展開合作。

這封信發佈之前2天,即3月27日,歐盟警察機構歐洲刑警組織《Europol》警告道,ChatGPT等系統可能被濫用於網路釣魚企圖、虛假信息和網路犯罪。

▍對奇點心存恐懼

從太空旅行到自動駕駛汽車,馬斯克希望將科技推向絕對極限。

但在人工智能方面,馬斯克卻劃清了界限。

早在2014年,馬斯克首次分享對人工智能的看法時,就將其比作『召喚惡魔』,稱其為人類『最大的生存威脅』。

彼時,馬斯克透露,他投資人工智能公司不是為了賺錢,而是密切關注這項技術,以防它失控。

馬斯克最擔心的是,如果人工智能在錯誤的人手裡變得先進,它可能會超過人類,宣告人類的終結,這就是常說的奇點。

許多聰明人都曾有這樣的擔憂,包括已故者斯蒂芬·霍金《Stephen Hawking》,2014年他就曾告訴BBC《英國廣播公司》:『完全人工智能的發展可能意味著人類的終結』人工智能會自己起飛,並以不斷加快的速度重新設計自己。

盡管馬斯克對人工智能心存恐懼,但他還是投資了總部位於舊金山的人工智能公司Vicarious和DeepMind,後者已被google和Open AI收購。

正是Open AI創造了最近幾個月風靡全球的ChatGPT程序。

馬斯克與Open AI現任首席執行官山姆·阿爾特曼一起創立了Open AI公司。

2016年,馬斯克在一次采訪中坦言,他和阿爾特曼創立這家公司是為了『讓人工智能技術民主化,讓它得到廣泛應用』。

2018年,馬斯克試圖控制這家初創公司,其請求被拒絕後,他被迫從Open AI退出,但仍繼續從事其他項目。

2022年11月,Open AI推出ChatGPT,在全球迅速獲得成功。

這個聊天機器人是一個經過大量文本數據訓練的大型語言模型,根據給定的提示生成類似人類的文本。

ChatGPT可用於撰寫研究論文、書籍、新聞文章和電子郵件等。

當阿爾特曼沉浸在ChatGPT的榮耀之中時,馬斯克正在從各個方面攻擊ChatGPT。

馬斯克說,這款人工智能已經『覺醒』,偏離了Open AI最初的非營利使命。

今年2月,馬斯克在推特上寫道:『Open AI作為一個開源《這就是我為什麼把它命名為Open AI》的非盈利公司而創建,旨在與google抗衡,但現在,它已經成為一個由微軟有效控制的封閉資源的最大利潤公司』

雖然Open AI似乎在馬斯克的目標清單上,但他仍然擔心人工智能會達到奇點。

『奇點』這個詞在世界范圍內引起軒然大波,因為人工智能發展隻能在科幻小說中看到——它實際代表什麼意思?

簡而言之,奇點描述了一種假設的未來,在那裡技術超越了人類的智力,改變了我們的演變道路。

專家表示,一旦人工智能達到這一點,它的創新速度將比人類快得多。

這一進步有兩種方式展現。

第一種方式是人類和機器合作,創造一個更適合人類的世界。

例如,人類可以掃描自己的意識,將其存儲在電腦中,他們將在那裡永遠生存下去。

第二種方式是人工智能變得比人類更強大,控制人類並使人類成為它的奴隸——但如果這是真的,那也是在遙遠的未來。

研究人員正在尋找人工智能達到奇點的跡象,比如該技術能像人類一樣準確地翻譯語音,更快地執行任務。

google前工程師雷·庫茲韋爾《Ray Kurzweil》預測,奇點將在2045年到來。

自1990年代初期以來,庫茲韋爾已經對技術進步做出過147次預測,其中86%是正確的。

1000多人聯名簽署的公開信中寫道,人工智能實驗室目前『陷入了一場失控的競賽,開發和部署更強大的數字思維,沒有人——甚至包括它們的創造者——能夠理解、預測或可靠地控制它』。

google和微軟都沒有人簽字,而這兩家公司被認為是開發這項技術的前沿。

微軟所支持的Open AI,自ChatGPT發佈以來,競爭對手已推出類似產品,促使企業將其或類似技術集成到自己的應用程序和產品中。

阿爾特曼願意聽取有關ChatGPT的反饋,希望更好了解其風險。

在3月27日的播客采訪中,他坦承這個工具會造成傷害。

『會有傷害,也會有巨大的好處。

我們將把壞的最小化,把好的最大化』

▍『這更像是一場自殺式競賽』

支持人工智能暫停的團體表示,暫停6個月或更長時間,讓行業有時間為人工智能設計制定安全標準,以阻止風險最高的人工智能技術的潛在危害。

『我們已經達到這樣的地步,這些系統已經足夠智能,可以用在對社會有害的方面』蒙特利爾大學蒙特利爾學習算法研究所所長Yoshua Bengio《本吉奧》接受采訪時說。

公開信沒有呼籲停止所有人工智能的開發,但敦促相關公司暫時停止比GPT-4更強大的培養系統。

GPT-4是Open AI公司本月發佈的技術。

Open AI還沒有開始研發GPT-5。

阿爾特曼表示,公司在開發過程中一直將安全性放在首位,GPT-4發佈前花了6個多月時間進行安全測試。

『某種意義上,這是對唱詩班的說教』阿爾特曼認為,『我們對這些問題的討論是最大聲、最激烈、最長久的』

一邊是暫停的呼籲,一邊是科技公司和初創公司對生成式人工智能《一種能根據人工提示生成原創內容的技術》加倍投入的願景。

去年秋天,Open AI公司推出一款聊天機器人,該機器人能提供冗長的答案,像人類一樣復雜地編寫計算機代碼。

關於生成式人工智能的討論自此爆發。

微軟已經在必應搜索引擎和其他工具中采用了這種技術。

google則部署了競爭對手的系統,Adobe、Zoom和Salesforce等公司也推出了先進的人工智能工具。

『競賽從今天開始打響』微軟首席執行官薩提亞·納德拉《Satya Nadella》上個月說,『我們要行動,而且要快』

這種做法引發了人們的擔憂——快速推廣可能在帶來實際好處的同時,產生意想不到的後果。

生命未來研究所所長、麻省理工學院物理學教授馬克斯·泰格馬克《Max Tegmark》認為,人工智能的進步已經超過許多專家幾年前認為可能實現的水平。

『不幸的是,這更像是一場自殺式競賽。

誰先到並不重要,這隻是意味著,人類作為一個整體可能會失去對自己命運的控制』泰格馬克說。

馬斯克和沃茲尼亞克都表達過對人工智能技術的擔憂。

3月29日,馬斯克在推特上寫道,這種先進人工智能技術的開發者『不會注意到這個警告,但至少有人這麼說過』。

特斯拉汽車也采用了一些人工智能工具,用於高級駕駛輔助功能。

特斯拉上個月宣佈,擬召回約36.28萬輛配備『完全自動駕駛測試版』技術的汽車。

美國最高汽車安全機構認為,在極少數情況下,這項技術可能違反當地交通法規,如果司機不進行幹預,可能會增加發生碰撞的風險。

3月29日,Stability AI首席執行官穆斯塔克《Mostaque》在推特上說,盡管他簽署了聯名信,但並不同意暫停6個月。

『它沒有任何約束力,但將開啟一場重要討論,這有望為一個不透明領域帶來更多透明度和治理』

微軟拒絕置評。

google沒有立即回復置評請求。

泰格馬克稱,許多公司在將先進的人工智能技術添加到產品中時,感到了『瘋狂的商業壓力』。

暫停6個月將給行業『喘息的空間』,不會對那些謹慎行動的企業帶來不利。

人工智能實驗室和專家可以利用這段時間,為高級人工智能設計制定一套共享的安全規則,這些規則應該由外部專家進行審計和監督。

本吉奧認為,我們承受不起前進和打破現狀的代價,我們確實需要花時間共同思考這個問題。

| 聯名叫停公開信

廣泛的研究表明,具有人類競爭智能的人工智能系統,可能對社會和人類造成深遠的風險。

頂級人工智能實驗室對此也供認不諱。

正如已被廣泛認可的阿西洛瑪人工智能準則所述,先進的人工智能可能代表地球生命史上的一場深刻變革,因此,應該投入相應的關注和資源對其進行規劃和管理。

不幸的是,高規格的規劃和管理並沒有發生。

盡管最近幾個月,人工智能實驗室陷入了一場失控的競賽,競相開發和部署更強大的數字思維,沒有人——甚至包括它們的創造者——能夠理解、預測或可靠地控制它。

在一般任務上,當代人工智能系統可以具備與人類競爭的實力,我們必須捫心自問——我們是否應該讓機器用鼓吹和謊言淹沒我們的信息渠道?我們是否應該把所有的工作都自動化,包括那些令人滿意的工作?我們是否應該發展非人類思維,讓它們最終在數量上、智力上超過我們,淘汰並取代我們?我們是否應該冒險失去對人類文明的控制?

如此重要的決定權,不應該交給未經選舉產生的科技領導者。

隻有在我們確信它的影響是積極的、風險是可控的情況下,才應該開發強大的人工智能系統。

這種信心必須有充分的驗證,並隨著智能系統潛在影響的大小而增加。

Open AI最近在關於人工智能的聲明中表示,『在某一個時刻,在開始訓練未來的系統之前,獲得獨立的審查可能很重要。

對於最先進的努力,同意限制用於創建新模型的計算增長速度也很重要』

我們贊同Open AI的說法,而這個時刻就是現在。

因此,我們呼籲,所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統實驗,至少6個月。

這種暫停應該是公開的、可核實的,包括所有關鍵行為者。

如果這樣的暫停不能迅速實施,政府就應該介入並實施暫停。

人工智能實驗室和獨立專家應該利用這6個月的時間,共同開發和實施一套先進人工智能設計和開發的共享安全協議。

這些協議由獨立的外部專家嚴格審計和監督,確保遵守這些協議的系統絕對安全。

這並不意味著,人工智能開發總體上的暫停,隻是從危險的競賽退回到,具有應急能力的更大的不可預測的黑盒模型。

人工智能的研究和開發應該重新聚焦於,使當今強大的最先進的系統更加準確、安全、可解釋、透明、健康、一致、值得信賴和忠誠。

與此同時,人工智能開發人員必須與政策制定者合作,大幅加快開發強大的人工智能監管系統。

這些措施至少應包括——專屬人工智能的全新、有能力的監管機構;監督和跟蹤高性能人工智能系統和大型計算能力池;出處和水印系統,以幫助區分真實的和合成內容,並跟蹤模型泄漏;健全的審計和認證生態系統;人工智能造成的損害責任;為人工智能技術安全研究提供強有力的公共資金;資源豐富的機構,以應對人工智能將造成的巨大經濟和政治混亂《尤其是對民主的破壞》。

有了人工智能,人類可以享受繁榮的未來。

在成功創建強大的人工智能系統之後,我們現在可以享受一個『人工智能之夏』。

在這個夏天,我們可以收獲回報,為了所有人的明顯利益設計這些系統,並給社會一個適應的機會。

社會已經暫停其他對社會有潛在災難性影響的技術。

對於人工智能,我們也可以這樣做。

讓我們享受一個漫長的人工智能之夏,而不是毫無準備地匆忙進入秋天。

《本文部分內容綜合Automotive News、The Verge、The Guardian、Daily mail、WSJ報道,部分圖片來自網路》