每日經濟新聞 2023-04-11 16:14:06
◎針對ChatGPT們的“圍剿”仍在繼續(xù)。
每經記者 蔡鼎 每經編輯 高涵
據《華爾街日報》4月11日報道,由于人們越來越擔心生成式人工智能(AI)技術可能被用來進行歧視或傳播有害信息,拜登政府已經開始研究是否需要對ChatGPT等人工智能工具進行審查。
作為潛在監(jiān)管的第一步,美國商務部已經于美東時間4月11日(周二)正式公開征求意見,就其所謂的問責措施發(fā)表意見,包括有潛在風險的新人工智能模型在發(fā)布前是否應該通過認證程序。
《每日經濟新聞》記者注意到,北京時間周二,中國的監(jiān)管機構已經對生成式AI技術進行過一系列的表態(tài)。其中提到,提供生成式AI產品或服務應當遵守法律法規(guī)的要求,尊重社會公德、公序良俗。此外,4月10日,中國支付清算協(xié)會網站發(fā)布“關于支付行業(yè)從業(yè)人員謹慎使用ChatGPT等工具的倡議”。
前騰訊安全技術中心專家李鐵軍在接受《每日經濟新聞》記者采訪時指出,目前各方面對(生成式)AI的擔憂比較多,美國方面以馬斯克為代表。“他們擔心AI的自我生長,可能突破人類限制。如果真的突破,或許人類干不過AI,后果難以評估。”
美國政府采取上述監(jiān)管行動之際,新興人工智能工具的使用在過去幾個月大范圍風靡,這些工具可以快速生產類似人類產出的文字、圖片和視頻等。一些分析師估計,微軟支持的聊天機器人ChatGPT比歷史上任何消費類應用程序的用戶增長規(guī)模都更快。
美國國家電信和信息管理局(下稱NTIA,美國商務部發(fā)布征求意見的機構)局長Alan Davidson表示,“看到這些工具在相對早期就能發(fā)揮(如此強大的)作用,真是令人驚訝。我們知道,我們需要設置一些‘護欄’,以確保這些工具被負責任地使用。”
《華爾街日報》報道截圖
Davidson表示,上述征求意見將被用來幫助制定給美國政策制定者關于如何對待人工智能的建議。他還補充稱,NTIA的法律任務涉及向總統(tǒng)提供科技政策建議,而不是編寫或執(zhí)行法規(guī)。
報道中還稱,行業(yè)和政府官員對一系列潛在的人工智能危害表示擔憂,包括利用該技術進行犯罪或傳播虛假信息。美國參議員Michael Bennet上個月曾寫信給幾家人工智能公司,詢問在公共實驗中聊天機器人向冒充年輕人的用戶提供有害建議的情況,兒童的安全也是他們最關心的問題。
康涅狄格州民主黨參議員Richard Blumenthal在接受媒體采訪時也表示,“關于人工智能可能帶來的爆炸性的好處和壞處,人們正在進行非常活躍的討論。對國會來說,這是一個終極挑戰(zhàn)——技術性高度復雜、事關重大,非常緊迫。”
《每日經濟新聞》記者注意到,包括特斯拉CEO馬斯克和“人工智能教父”Geoffrey Hinton在內的科技領袖最近也開始呼吁暫停訓練比GPT-4更強大的AI系統(tǒng)。GPT-4是OpenAI大約在一個月前發(fā)布的聊天機器人版本。這些科技大佬警告稱,OpenAI與Alphabet旗下谷歌等競爭對手之間正在展開AI“軍備競賽”,但并未對潛在風險進行充分的管理和規(guī)劃。
圖片來源:futureofoffice
據悉,拜登上周在白宮也與一個科學家顧問委員會討論了這個話題。當一名記者問及生成式人工智能技術是否危險時,拜登答道:“有可能。還有待觀察。”
據悉,這個委員會的成員包括了微軟和谷歌的代表,他們和洽談發(fā)布人工智能系統(tǒng)的公司表示,他們正在不斷更新安全“護欄”,如通過編程避免讓聊天機器人回答某些有害問題。
前騰訊安全技術中心專家李鐵軍在接受《每日經濟新聞》記者采訪時指出,“目前各方面對(生成式)人工智能的擔憂比較多,美國方面以馬斯克為代表。這些人擔心AI的自我生長,可能突破人類限制。如果真的突破,或許人類干不過AI,后果難以評估。我也看了有關討論,一部分科學家確實有這方面的擔憂,已經感覺像是《黑客帝國》里描述的東西了。”
“美國政客的討論就是充分利用新技術確保競爭優(yōu)勢,但安全方面的擔憂確實是很重要的一方面,美國網絡安全與基礎設施安全局官員上周還在一個論壇上對生成式人工智能的安全影響表示了嚴重關切,警告說需要采取立法行動來規(guī)范其使用。”李鐵軍對記者補充道。
每經記者還注意到,就在美國政府周二就生成式AI的潛在監(jiān)管公開征求意見之前,中國的監(jiān)管機構已經對該技術進行過一系列的表態(tài)。
北京時間4月11日(周二),國家互聯網信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見。其中提到,提供生成式人工智能產品或服務應當遵守法律法規(guī)的要求,尊重社會公德、公序良俗。此外,利用生成式人工智能產品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規(guī)定》向國家網信部門申報安全評估,并按照《互聯網信息服務算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。
圖片來源:國家網信辦
4月10日,中國支付清算協(xié)會網站發(fā)布“關于支付行業(yè)從業(yè)人員謹慎使用ChatGPT等工具的倡議”。
倡議稱,ChatGPT 等工具近期引起了各方廣泛關注,已有部分企業(yè)員工使用 ChatGPT 等工具開展工作。但是,此類智能化工具已暴露出跨境數據泄露等風險。為有效應對風險、保護客戶隱私、維護數據安全,提升支付清算行業(yè)的數據安全管理水平,根據《中華人民共和國網絡安全法》《中華人民共和國數據安全法》等法律規(guī)定,中國支付清算協(xié)會向行業(yè)發(fā)出倡議。
圖片來源:中國支付清算協(xié)會
除了中國和美國外,4月3日,德國聯邦數據保護專員發(fā)言人稱,出于數據保護方面的考慮,可能會暫時禁止在德國使用ChatGPT。
當地時間4月4日,加拿大隱私專員辦公室(OPC)宣布對聊天機器人ChatGPT開發(fā)公司OpenAI展開調查,該調查涉及“OpenAI未經同意收集、使用和披露個人信息”的指控。
目前OPC沒有透露更多的調查細節(jié)。該機構的一位隱私專員表示,人工智能技術及其對隱私的影響是OPC的優(yōu)先事項,“我們需要跟上快速發(fā)展的技術并保持領先,這是我作為隱私專員重點關注的領域之一。”
這是繼意大利之后又一個對ChatGPT“出手”的國家監(jiān)管機構。此外,法國、愛爾蘭、西班牙等歐洲國家也開始考慮對人工智能聊天機器人采取更嚴格的監(jiān)管。
在監(jiān)管聲四起的當下,一些人工智能企業(yè)也主動歡迎并尋求制定新的監(jiān)管規(guī)定。例如,OpenAI最近還在一篇博客文章中表示,“我們認為,強大的人工智能系統(tǒng)應該接受嚴格的安全評估。需要監(jiān)管來確保這些做法得到采用,我們積極與各國政府接觸,探討可能采取的最佳監(jiān)管形式。”
另據Axios,美東時間本周三,OpenAI、微軟、谷歌、蘋果、英偉達、Stability AI、Hugging Face、Anthropic等公司將開會討論制定AI技術開發(fā)使用標準,討論如何以最負責任的態(tài)度繼續(xù)開發(fā)AI。
Axios報道截圖
眾議院監(jiān)督委員會技術小組主席、南卡羅萊州共和黨眾議院Nancy Mace上個月在一場關于人工智能的聽證會上發(fā)表講話時,討論了人工智能的風險和好處。然后她表示,她的開庭陳詞所有內容,都是用ChatGPT寫的。Mace問在場的人士,人工智能是否發(fā)展得太快了:“我們有能力開發(fā)出對人類生存構成威脅的人工智能嗎?還是說這只是科幻小說?”
谷歌前CEO Eric Schmidt此前則表示,美國國會應該把重點放在促進人才發(fā)展和創(chuàng)新上。
《每日經濟新聞》記者還注意到,由于沒有專門針對人工智能的聯邦法律,一些政府機構已經使用了其他法律權利。例如,金融部門監(jiān)管機構已經調查了貸款機構如何使用人工智能來承銷貸款,目的是防止對少數群體的歧視。美國司法部反壟斷部門則表示,其正在檢測該領域的競爭,而美國聯邦貿易委員會(FTC)則警告企業(yè),它們可能會因對人工智能產品做出虛假或未經證實的聲明而面臨法律后果。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP