<bdo id="ks4iu"><del id="ks4iu"></del></bdo>
  • 
    <pre id="ks4iu"></pre>
  • <bdo id="ks4iu"><del id="ks4iu"></del></bdo>
    <input id="ks4iu"><em id="ks4iu"></em></input>
    
    
  • <center id="ks4iu"><cite id="ks4iu"></cite></center>
  • 首頁 > 智能影音 >

    世界觀察:別讓 GPT-4 再進(jìn)化!馬斯克帶頭簽署千人聯(lián)名信,緊急呼吁 AI 實(shí)驗(yàn)室立即暫停研究

    至今,我們已經(jīng)經(jīng)歷了多次數(shù)字革命,包括圖形界面的出現(xiàn)、互聯(lián)網(wǎng)的誕生以及移動互聯(lián)網(wǎng)的普及,但沒有一次科技變革像 GPT 模型引發(fā)的 AI 浪潮那樣引起如此廣泛的恐慌情緒。

    一方面 AI 改變了人們工作和生活的方式,大大提高了效率;另一方面 AI 的運(yùn)行和發(fā)展又充滿不確定性,觸發(fā)了人類對于未知事物的天然保護(hù)機(jī)制——恐懼。

    今天,網(wǎng)絡(luò)上一封公開的聯(lián)名信爆火,該信呼吁所有的 AI 實(shí)驗(yàn)立即暫停研究比 GPT-4 更先進(jìn)的 AI 模型,暫停時間至少 6 個月,為的就是把這些可怕的幻想扼殺在搖籃之中。


    (資料圖片)

    AI 的進(jìn)步速度實(shí)在過于驚人,但相關(guān)的監(jiān)管、審計手段卻遲遲沒有跟上,這也意味著沒有人能夠保證 AI 工具以及使用 AI 工具的過程中的安全性。

    該聯(lián)名信已經(jīng)獲得了包括 2018 年圖靈獎得主 Yoshua Bengio、馬斯克、史蒂夫 · 沃茲尼亞克、Skype 聯(lián)合創(chuàng)始人、Pinterest 聯(lián)合創(chuàng)始人、Stability AI CEO 等多位知名人士的簽名支持,截稿前聯(lián)名人數(shù)已經(jīng)達(dá)到 1125 人。

    公開信的原文如下:

    人工智能具有與人類競爭的智能,這可能給社會和人類帶來深刻的風(fēng)險,這已經(jīng)通過大量研究 [1] 得到證實(shí),并得到了頂級 AI 實(shí)驗(yàn)室的認(rèn)可 [2]。正如廣泛認(rèn)可的阿西洛馬爾人工智能原則(Asilomar AI Principles)所指出的,先進(jìn)的 AI 可能代表地球生命歷史上的重大變革,因此應(yīng)該以相應(yīng)的關(guān)注和資源進(jìn)行規(guī)劃和管理。

    不幸的是,即使在最近幾個月, AI 實(shí)驗(yàn)室在開發(fā)和部署越來越強(qiáng)大的數(shù)字化思維方面陷入了失控的競爭,而沒有人能夠理解、預(yù)測或可靠地控制這些數(shù)字化思維,即使是它們的創(chuàng)造者也無法做到這一點(diǎn)。

    現(xiàn)代 AI 系統(tǒng)現(xiàn)在已經(jīng)在通用任務(wù)方面具有與人類競爭的能力 [3],我們必須問自己:

    我們應(yīng)該讓機(jī)器充斥我們的信息渠道,傳播宣傳和謊言嗎? 我們應(yīng)該將所有工作都自動化,包括那些令人滿足的工作嗎? 我們應(yīng)該發(fā)展可能最終超過、取代我們的非人類思維嗎? 我們應(yīng)該冒失控文明的風(fēng)險嗎?

    這些決策不應(yīng)該由非選舉產(chǎn)生的科技領(lǐng)導(dǎo)人來負(fù)責(zé)。只有當(dāng)我們確信 AI 系統(tǒng)的影響是積極的,風(fēng)險是可控的,我們才應(yīng)該開發(fā)強(qiáng)大的 AI 系統(tǒng)。這種信心必須得到充分的理由,并隨著系統(tǒng)潛在影響的增大而增強(qiáng)。OpenAI 最近關(guān)于人工智能的聲明指出:「在某個時候,可能需要在開始訓(xùn)練未來系統(tǒng)之前獲得獨(dú)立審查,對于最先進(jìn)的努力,需要同意限制用于創(chuàng)建新模型的計算增長速度。」我們同意。現(xiàn)在就是那個時刻。

    因此,我們呼吁所有 AI 實(shí)驗(yàn)室立即暫停至少 6 個月的時間,不要訓(xùn)練比 GPT-4 更強(qiáng)大的 AI 系統(tǒng)。這個暫停應(yīng)該是公開和可驗(yàn)證的,并包括所有關(guān)鍵參與者。如果無法迅速實(shí)施這樣的暫停,政府應(yīng)該介入并實(shí)行一個暫禁令。

    AI 實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這個暫停時間共同制定和實(shí)施一套共享的先進(jìn) AI 設(shè)計和開發(fā)安全協(xié)議,這些協(xié)議應(yīng)該由獨(dú)立的外部專家嚴(yán)格審核和監(jiān)督。

    這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)在合理懷疑范圍之外是安全的 [4]。這并不意味著暫停 AI 發(fā)展,而只是從不斷邁向更大、不可預(yù)測的黑箱模型及其突現(xiàn)能力的危險競賽中退一步。

    AI 研究和開發(fā)應(yīng)該重點(diǎn)放在提高現(xiàn)有強(qiáng)大、先進(jìn)系統(tǒng)的準(zhǔn)確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。

    與此同時,AI 開發(fā)者必須與政策制定者合作,大力加速 AI 治理體系的發(fā)展。這些至少應(yīng)包括:

    專門負(fù)責(zé) AI 的新的、有能力的監(jiān)管機(jī)構(gòu); 對高能力 AI 系統(tǒng)和大型計算能力池的監(jiān)督和跟蹤; 用于區(qū)分真實(shí)與合成內(nèi)容、跟蹤模型泄漏的溯源和水印系統(tǒng); 健全的審計和認(rèn)證生態(tài)系統(tǒng);對 AI 造成的損害承擔(dān)責(zé)任; 技術(shù) AI 安全研究的充足公共資金; 應(yīng)對 AI 引起的巨大經(jīng)濟(jì)和政治變革(特別是對民主制度的影響)的資深機(jī)構(gòu)。

    人類可以在 AI 的幫助下享受繁榮的未來。在成功創(chuàng)造出強(qiáng)大的 AI 系統(tǒng)之后,我們現(xiàn)在可以享受一個「AI 盛夏」,在其中我們收獲回報,將這些系統(tǒng)明確地用于造福所有人,并讓社會有機(jī)會適應(yīng)。

    在面臨可能對社會造成災(zāi)難性影響的其他技術(shù)上,社會已經(jīng)按下了暫停鍵 [5]。在這里,我們也可以這樣做。讓我們享受一個漫長的 AI 盛夏,而不是毫無準(zhǔn)備地沖向秋天。

    參考信息:

    [1]

    Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?

    . In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

    Bostrom, N. (2016). Superintelligence. Oxford University Press.

    Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

    Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

    Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

    Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).

    Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

    Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

    Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

    Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

    Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

    Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

    [2]

    Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.

    Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

    [3]

    Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

    OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

    [4]

    Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.

    [5]

    Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

    在這份公開信里,附上的簽名表或許要比信的內(nèi)容本身要精彩,你可以在這里找到很多熟悉的名字,每一個簽名都表達(dá)了簽名者對于 AI 的強(qiáng)烈懷疑態(tài)度。

    不過,有網(wǎng)友發(fā)現(xiàn)這些簽名也不一定完全可信,因?yàn)樵诹斜碇谐霈F(xiàn)了 OpenAI CEO Sam Altman(我封我自己?)和電影《疾速追殺》男主角 John Wick 的名字,具體的真實(shí)性還有待考究。

    下方附上本封聯(lián)名信的地址,感興趣的朋友也可以去簽上自己的名字。

    Pause Giant AI Experiments: An Open Letter

    少說廢話。

    #歡迎關(guān)注愛范兒官方微信公眾號:愛范兒(微信號:ifanr),更多精彩內(nèi)容第一時間為您奉上。

    | · ·

    責(zé)任編輯:Rex_29

    關(guān)鍵詞:
    推薦閱讀
    欧美国产在线一区,免费看成年视频网页,国产亚洲福利精品一区,亚洲一区二区约美女探花
    <bdo id="ks4iu"><del id="ks4iu"></del></bdo>
  • 
    <pre id="ks4iu"></pre>
  • <bdo id="ks4iu"><del id="ks4iu"></del></bdo>
    <input id="ks4iu"><em id="ks4iu"></em></input>
    
    
  • <center id="ks4iu"><cite id="ks4iu"></cite></center>
  • 主站蜘蛛池模板: 色阁阁日韩欧美在线| jizz老师喷水| 色欲综合久久中文字幕网| 暖暖在线日本免费中文| 国产精品久免费的黄网站| 亚洲成色www久久网站| 91精品久久久久久久久网影视| 熟女性饥渴一区二区三区| 天天色天天射天天操| 伊人久久波多野结衣中文字幕| babes性欧美高清| 激情亚洲综合网| 国产麻豆剧传媒精品网站| 亚洲日本久久一区二区va| 北条麻妃久久99精品| 月夜直播在线看片www| 国产思思99RE99在线观看| 久久精品亚洲综合专区| 草草影院地址ccyycom浮力影院37| 日韩三级小视频| 国产ts人妖合集magnet| 中文字幕一区二区三区乱码| 精品成人一区二区三区四区| 奇米影视888欧美在线观看| 亚洲精品无码mv在线观看网站| 91精品国产91久久久久| 欧美亚洲国产丝袜在线| 国产成人av一区二区三区在线 | 日本动态120秒免费| 啊轻点灬大巴太粗太长视频| 一级一级一级毛片| 泰国午夜理伦三级| 国产精品一级二级三级| 久久夜色精品国产亚洲| 羞羞的视频在线免费观看| 好男人在线社区www我在线观看| 亚洲精品自产拍在线观看| 中文字幕中出在线| 日本免费一区二区三区最新| 午夜精品久久久久久久99热| 99麻豆久久久国产精品免费|