如果有人在1年前告訴你,人工智能即將毀滅人類,科幻作品中的HAL-2000、MOSS、Matrix即將成為現(xiàn)實,你大概率會覺得他在杞人憂天。可今天,面對ChatGPT新聞的狂轟濫炸,以及剛剛誕生的新一代語言模型GPT-4,不少人的想法或許已經(jīng)改變了。
作者:趙穎,來源:華爾街見聞 (ID:wallstreetcn)
(相關(guān)資料圖)
當(dāng)全社會都在為AI的進(jìn)化而歡呼雀躍,全新的、意想不到的風(fēng)險可能也正在悄悄醞釀。
3月22日,生命未來研究所(Future of Life)向全社會發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓(xùn)練,暫停時間至少為6個月。該機(jī)構(gòu)以“引導(dǎo)變革性技術(shù)造福生活,遠(yuǎn)離極端的大規(guī)模風(fēng)險”為使命。
該機(jī)構(gòu)在信中提到:
我們不應(yīng)該冒著失去對文明控制的風(fēng)險,將決定委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當(dāng)確保強大的人工智能系統(tǒng)的效果是積極的,其風(fēng)險是可控的才能繼續(xù)開發(fā)。
人工智能實驗室和獨立專家應(yīng)在暫停期間,共同制定和實施一套先進(jìn)的人工智能設(shè)計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進(jìn)行嚴(yán)格的審查和監(jiān)督。
截止目前,馬斯克、蘋果聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI 創(chuàng)始人Emad Mostaque等上千名科技大佬和AI專家已經(jīng)簽署公開信。
值得一提的是,OpenAI CEO奧特曼在與MIT研究科學(xué)家Lex Fridman的最新對話中指出,AI已經(jīng)出現(xiàn)其無法解釋的推理能力,同時承認(rèn)“AI殺死人類”有一定可能性。
現(xiàn)在,全球各地機(jī)房中的GPU正在瘋狂吞噬著電能,不斷更新著參數(shù)空間中的每一個變量,AI正在飛速成長。很明顯,AI的發(fā)展已經(jīng)度過了一個臨界點,如果沒有人主動阻止,AI進(jìn)化的速度很可能超乎所有人的意料。
那么ChatGPT是如何看待公開信中AI對人類社會的影響?華爾街見聞專門詢問了ChatGPT 3.5,其表示隨著人工智能技術(shù)的不斷發(fā)展和普及,人工智能可能對社會和人類造成的影響將越來越大。這封公開信提出的呼吁和建議,應(yīng)該被視為引起更廣泛和深入討論的起點和參考,而不是一個終點或解決方案。
文生圖AI Midjourney繪制的“川建國同志退休回國養(yǎng)老”。
以下是公開信原文:
正如廣泛的研究和頂級人工智能實驗室所承認(rèn)的,人工智能系統(tǒng)對社會和人類構(gòu)成較大的風(fēng)險。《阿西洛馬人工智能原則》中指出,高級人工智能可能代表著地球上生命歷史的深刻變革,應(yīng)該以相應(yīng)的謹(jǐn)慎和資源進(jìn)行規(guī)劃和管理。然而,盡管最近幾個月人工智能實驗室掀起AI狂潮,開發(fā)和部署越來越強大的數(shù)字大腦,但目前沒有人能理解、預(yù)測或可靠地控制AI系統(tǒng),也沒有相應(yīng)水平的規(guī)劃和管理。
現(xiàn)在,人工智能在一般任務(wù)上變得與人類有競爭力,我們必須問自己:我們應(yīng)該讓機(jī)器在信息渠道中宣傳不真實的信息嗎?我們是否應(yīng)該把所有的工作都自動化,包括那些有成就感的工作?我們是否應(yīng)該開發(fā)非人類的大腦,使其最終超過人類數(shù)量,勝過人類的智慧,淘汰并取代人類?我們是否應(yīng)該冒著失去對我們文明控制的風(fēng)險?這樣的決定絕不能委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當(dāng)我們確信強大的人工智能系統(tǒng)的效果是積極的,其風(fēng)險是可控的,才應(yīng)該開發(fā)。同時,這種信心必須得到驗證,并隨著系統(tǒng)的潛在影響的大小而加強。OpenAI最近關(guān)于人工智能的聲明中指出,在開始訓(xùn)練未來的系統(tǒng)之前,可能必須得到獨立的審查,對于最先進(jìn)的努力,同意限制用于創(chuàng)建新模型的計算增長速度。我們同意,現(xiàn)在就該采取行動。
因此,我們呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓(xùn)練,時間至少持續(xù)6個月。這種暫停應(yīng)該是公開的、可核查的,并包括所有關(guān)鍵參與者者。如果這種禁令不能迅速實施,政府應(yīng)該介入并制定暫停令。
人工智能實驗室和獨立專家應(yīng)在暫停期間,共同制定和實施一套先進(jìn)的人工智能設(shè)計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進(jìn)行嚴(yán)格的審查和監(jiān)督。這些協(xié)議應(yīng)該確保遵守協(xié)議的系統(tǒng)是安全的。值得一提的是,這并不意味著暫停一般的人工智能開發(fā),只是從危險的競賽中退后一步,限制不可預(yù)測的研究和開發(fā)。
人工智能的研究和開發(fā)應(yīng)該重新聚焦于,使目前最先進(jìn)和強大的系統(tǒng)更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。
同時,人工智能開發(fā)者必須與政策制定者合作,大幅加快開發(fā)強大的人工智能治理系統(tǒng)。這些至少應(yīng)該包括:專門針對人工智能的監(jiān)管機(jī)構(gòu);監(jiān)督和跟蹤高能力的人工智能系統(tǒng)和大型計算能力的硬件;出處和水印系統(tǒng)幫助區(qū)分真實和合成,并跟蹤模型泄漏;強大的審查和認(rèn)證生態(tài)系統(tǒng);對人工智能造成的傷害承擔(dān)責(zé)任;為人工智能安全技術(shù)研究提供強大的公共資金以及資源充足的機(jī)構(gòu),以應(yīng)對人工智能可能導(dǎo)致的巨大的經(jīng)濟(jì)和政治破壞。
人類可以通過人工智能享受繁榮的未來。現(xiàn)在,我們成功地創(chuàng)建了強大的人工智能系統(tǒng),可以在這個“人工智能之夏”中獲得回報,為所有人的明確利益設(shè)計這些系統(tǒng),并給社會一個適應(yīng)的機(jī)會。停止使用其他技術(shù)可能會對社會造成災(zāi)難性影響,因此我們必須保持準(zhǔn)備狀態(tài)。讓我們享受一個漫長的人工智能夏天,而不是匆忙進(jìn)入秋天。
GPT-4老板:AI可能會殺死人類,已經(jīng)出現(xiàn)我們無法解釋的推理能力
OpenAI CEO奧特曼Altman在與MIT研究科學(xué)家Lex Fridman的最新對話中指出,AI已經(jīng)出現(xiàn)其無法解釋的推理能力,同時承認(rèn)“AI殺死人類”有一定可能性。
在此次采訪中,Altman提出了一點關(guān)于GPT的新穎之處,即推理能力。“這個模型的神奇之處在于…對于很多它都不準(zhǔn)確的定義,它可以進(jìn)行某種推理。”
Altman指出,“我認(rèn)為這很了不起,最令人興奮的是,在提取人類知識的過程中,它產(chǎn)生了這種推理能力。”
Altman談及了近期圍繞ChatGPT產(chǎn)生的諸多問題,坦承就連OpenAI團(tuán)隊,也根本沒搞懂它是如何“進(jìn)化”的:
從ChatGPT開始,AI出現(xiàn)了推理能力。但沒人能解讀這種能力出現(xiàn)的原因。
唯一的途徑是向ChatGPT提問,從它的回答中摸索它的思路。
Altman稱不會回避“人工智能可能殺死全人類”的說法。美國決策理論和人工智能的研究者和作家Yudkowsky此前指出“人工智能可能殺死所有人”。對此,Altman回應(yīng)道,“我認(rèn)為有這種可能性,并且承認(rèn)這一點很重要,因為如果我們不談?wù)撍⒉话阉暈闈撛诘氖聦崳敲次覀兙筒粫度胱銐虻呐θソ鉀Q這個問題。” “我認(rèn)為我們必須開發(fā)新的技術(shù)來解決這個問題…我所知道的解決這類問題的唯一方法就是不斷迭代,盡早學(xué)習(xí)。”
而OpenAI的一位工程師Richard Ngo更發(fā)表了一項大膽的預(yù)測:“到2025年之前,神經(jīng)網(wǎng)絡(luò)將擁有人類水平的狀態(tài)意識(situational awareness),即神經(jīng)網(wǎng)絡(luò)知道自己是神經(jīng)網(wǎng)絡(luò),并知道自己的行為如何與世界發(fā)生交互。”
來源:中國基金報
未經(jīng)授權(quán),不可轉(zhuǎn)載,歡迎爆料
歡迎購買《自媒體紅利》,最暢銷的自媒體運營書籍,京東有售!
投稿、商務(wù)合作,聯(lián)系郵箱858620196@qq.com
財經(jīng)八卦陣其他熱文
|科技篇 |電商篇 |社交篇 | 財富篇 |商業(yè)化 |互聯(lián)網(wǎng)金融
責(zé)任編輯:Rex_31