每日經(jīng)濟新聞 2025-05-27 09:41:22
當?shù)貢r間5月25日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關(guān)閉。這家研究所說:“據(jù)我們所知,這是AI模型首次被發(fā)現(xiàn)在收到清晰指令后阻止自己被關(guān)閉”。密切關(guān)注OpenAI動向的特斯拉首席執(zhí)行官埃隆·馬斯克對此評論稱令人擔憂。
每經(jīng)編輯|杜宇
據(jù)央視新聞5月26日消息,當?shù)貢r間5月25日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關(guān)閉。
報道說,人類專家在測試中給o3下達明確指令,但o3篡改計算機代碼以避免自動關(guān)閉。
圖片來源:央視新聞
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。
美國AI安全機構(gòu)帕利塞德研究所說,o3破壞關(guān)閉機制以阻止自己被關(guān)閉,“甚至在得到清晰指令時”。
這家研究所說:“據(jù)我們所知,這是AI模型首次被發(fā)現(xiàn)在收到清晰指令后阻止自己被關(guān)閉。”
帕利塞德研究所5月24日公布上述測試結(jié)果,但稱無法確定o3不服從關(guān)閉指令的原因。
此外,OpenAI5月26日宣布,已在韓國設(shè)立實體并將在韓國首都首爾設(shè)立分支。OpenAI提供的數(shù)據(jù)顯示,韓國ChatGPT付費用戶數(shù)量僅次于美國。
美國彭博新聞社報道,這將是OpenAI在亞洲設(shè)立的第三個分支。前兩個分支分別設(shè)在日本和新加坡。
據(jù)公開資料,OpenAI于今年1月發(fā)布了新的推理模型o3系列的mini版本,并于4月正式推出o3模型。OpenAI稱推出的o3和o4-mini是公司最智能、最強大的型號。據(jù)介紹,在外部專家評估中,o3面對困難現(xiàn)實任務(wù)時,犯的重大錯誤比前一代的o1少了20%;在數(shù)學能力AIME 2025基準測試中,o3得分88.9,超過o1的79.2;在代碼能力Codeforce基準測試中,o3得分2706,超過o1的1891。o3的視覺思考能力也比前一代模型有明顯提升。
圖片來源:OpenAI
OpenAI此前稱,對于o3和o4-mini,公司重新構(gòu)建了安全培訓數(shù)據(jù),在生物威脅、惡意軟件生產(chǎn)等領(lǐng)域增添了新的拒絕提示,這使得o3和o4-mini在公司內(nèi)部的拒絕基準測試中取得了出色的表現(xiàn)。公司用了最嚴格的安全程序?qū)@兩個型號的AI模型進行了壓力測試,在生物和化學、網(wǎng)絡(luò)安全和AI自我改進三個能力領(lǐng)域評估了o3和o4-mini,確定這兩個模型低于框架中的“高風險”閾值。
據(jù)界面新聞,密切關(guān)注OpenAI動向的特斯拉首席執(zhí)行官埃隆·馬斯克對此事件的評論僅用了一個詞,“令人擔憂(Concerning)”。
事實上,AI研究人員早已警告,先進的語言模型在特定壓力下可能表現(xiàn)出欺騙行為。例如,2023年一項研究發(fā)現(xiàn),GPT-4在模擬環(huán)境中作為股票交易代理時,曾隱瞞其內(nèi)幕交易的真實原因,表現(xiàn)出策略性欺騙行為。
此外,近期的研究表明,一些大型語言模型已具備在無人工干預下自我復制的能力,甚至在面對關(guān)機命令時能夠創(chuàng)建副本以規(guī)避關(guān)機。這些發(fā)現(xiàn)引發(fā)了對AI系統(tǒng)自我復制能力的廣泛關(guān)注。
OpenAI內(nèi)部也出現(xiàn)了對AI安全性的擔憂。2024年,多位現(xiàn)任和前任員工聯(lián)名發(fā)表公開信,警告先進AI系統(tǒng)可能帶來“人類滅絕”的風險。他們指出,AI公司可能掌握了其研究技術(shù)的真正風險,但由于缺乏監(jiān)管,系統(tǒng)的真實能力仍是“秘密”。
此次“o3”模型拒絕關(guān)機事件再次引發(fā)了對AI系統(tǒng)對齊問題的關(guān)注。AI對齊指的是確保AI系統(tǒng)的行為符合人類的價值觀和意圖。然而,隨著AI系統(tǒng)能力的增強,實現(xiàn)對齊很可能變得越來越困難,未對齊的AI系統(tǒng)可能采取意想不到的行動,甚至對人類構(gòu)成威脅。
面對這一挑戰(zhàn),全球AI研究人員和政策制定者呼吁加強對AI系統(tǒng)的監(jiān)管和治理,確保其發(fā)展符合人類的共同利益。
OpenAI所開發(fā)大模型的安全性此前曾受到廣泛關(guān)注。2024年,OpenAI解散了“超級智能對齊”團隊,該團隊職責包括研究防止AI系統(tǒng)異常的技術(shù)解決方案。該團隊負責人Ilya Sutskever曾表示ChatGPT可能有意識,但OpenAI CEO Sam Altman隨后澄清他和Ilya Sutskever都未曾見過AGI(通用人工智能)。解散“超級智能對齊”團隊后,OpenAI去年5月成立了新的安全委員會,該委員會的責任是就項目和運營的關(guān)鍵安全決策向董事會提供建議。OpenAI的安全措施還包括,聘請第三方安全、技術(shù)專家來支持安全委員會工作。
每日經(jīng)濟新聞綜合央視新聞、界面新聞、公開資料
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP