每日經(jīng)濟新聞 2024-10-09 21:42:44
每經(jīng)記者 鄭雨航 每經(jīng)實習記者 岳楚鵬 每經(jīng)編輯 蘭素英
2024年諾貝爾物理學獎頒給了計算機科學家約翰·霍普菲爾德(John J. Hopfield)和杰弗里·欣頓(Geoffrey E. Hinton),理由是他們?yōu)闄C器學習奠定了基礎,為今天包括ChatGPT在內(nèi)的人工智能(AI)鋪平了道路。
毫無疑問,這一結(jié)果讓很多人感到意外,因為機器學習并非傳統(tǒng)物理學的分支領(lǐng)域。有網(wǎng)友調(diào)侃稱,這是把圖靈獎該干的事情給干了;也有科學家表達了不解——“人工神經(jīng)網(wǎng)絡對物理學研究產(chǎn)生了深遠的影響,但可以說它們本身就是物理學研究的成果嗎?”
面對外界的疑問,諾貝爾獎官方不得不在X平臺上回應:“您是否知道機器學習模式是基于物理方程?”同時,諾貝爾獎委員會也表示,利用人工神經(jīng)網(wǎng)絡的機器學習能夠快速理解大量數(shù)據(jù),已經(jīng)在科學研究中發(fā)揮了重要作用,包括在物理學領(lǐng)域,它被用于創(chuàng)造“具有特定屬性的新材料”。諾貝爾物理學委員會成員Anders Irbäck教授盛贊道:“他們都是真正的先驅(qū)者,尋找到了解決問題的新方法。”
其實,不單是“吃瓜群眾”,作為獲獎者之一的欣頓本人也是一臉驚訝,“完全沒想到會發(fā)生這種事”。
在獲獎之余,欣頓還就AI安全發(fā)出了警告。他認為,擁有比人類更聰明的技術(shù)“在很多方面都是好事”,但“這一切的后果可能是,比我們更聰明的系統(tǒng)最終會掌控一切”。
當?shù)貢r間2023年6月28日,加拿大安大略省多倫多,被稱為“人工智能教父”的認知心理學家和計算機科學家杰弗里·欣頓在碰撞技術(shù)會議上發(fā)表講話。 視覺中國圖
出人意料的獲獎名單
北京時間10月8日下午5點45分,美國和加拿大科學家約翰·霍普菲爾德和被外界稱為“AI教父”的杰弗里·欣頓被授予諾貝爾物理學獎,以表彰他們通過人工神經(jīng)網(wǎng)絡實現(xiàn)機器學習的基礎性發(fā)現(xiàn)和發(fā)明,幫助計算機以更接近人腦的方式學習,為AI的發(fā)展奠定了基礎。
該獎項是對AI在人們生活和工作方式中日益重要的地位的認可。諾貝爾物理學委員會主席艾倫·穆恩斯(Ellen Moons)表示:“獲獎者的工作已經(jīng)帶來了巨大的好處。在物理學中,我們在廣泛的領(lǐng)域使用人工神經(jīng)網(wǎng)絡,例如開發(fā)具有特定性能的新材料。”
諾貝爾獎委員會在X平臺上的帖子中表示,霍普菲爾德博士和欣頓博士的突破“立足于物理科學的基礎之上”,“他們?yōu)槲覀冋故玖艘环N全新的方式,讓我們能夠利用計算機來幫助和指導我們應對社會面臨的許多挑戰(zhàn)”。
不過,這一結(jié)果還是讓無數(shù)網(wǎng)友大吃一驚,之前誰也沒料到諾貝爾物理學獎居然會頒給計算機科學相關(guān)的研究。有網(wǎng)友驚呼,“這是個玩笑嗎?這應該是圖靈獎該干的事情。”
不單是網(wǎng)友,也有科學家表示不解。南安普頓大學計算機科學家、聯(lián)合國AI顧問溫迪·霍爾教授表示,她對這一獎項的頒發(fā)感到驚訝。“諾貝爾獎沒有設立計算機科學獎,以這種方式來頒發(fā)獎項是一種有趣的方式,但似乎有點牽強,”她說,“顯然,人工神經(jīng)網(wǎng)絡對物理學研究產(chǎn)生了深遠的影響,但可以說它們本身就是物理學研究的成果嗎?”
面對外界的疑問,諾貝爾獎官方不得不在X平臺上解釋說:“您是否知道機器學習模式是基于物理方程?”
其實,不單是外界,獲獎者欣頓本人都沒想到自己能夠“跨界”獲得諾貝爾物理學獎。他在接到諾貝爾獎委員會的電話時說道:“我完全沒想到會發(fā)生這種事。”當時他正在加利福尼亞州一家“廉價酒店”,他表示,這消息簡直是“出乎意料”。
他們有何貢獻?
欣頓出生于倫敦郊外,自20世紀70年代末以來,他大部分時間都生活和工作在美國和加拿大。
20世紀70年代初,欣頓在愛丁堡大學讀研究生時開始研究人工神經(jīng)網(wǎng)絡,當時很少有研究人員認為這個想法會成功。直到2012年,他終于與其學生一起取得了突破。2013年,欣頓加入了谷歌。2023年5月,他從谷歌離職。自那以后,他持續(xù)公開呼吁謹慎對待AI技術(shù),成為旨在引導AI系統(tǒng),使其行為符合設計者利益和預期目標的“AI對齊派”代表。
2019年,欣頓與蒙特利爾大學計算機科學教授約書亞·本吉奧(Yoshua Bengio)和Meta首席AI科學家楊立昆(Yann LeCun)因在人工神經(jīng)網(wǎng)絡方面的工作共同獲得了圖靈獎,該獎通常被譽為“計算機界的諾貝爾獎”。
相較于欣頓,霍普菲爾德則是一個正統(tǒng)的物理學家,因在計算機科學、生物學和物理學領(lǐng)域的開創(chuàng)性研究而聞名。他如今在普林斯頓大學擔任名譽教授。
霍普菲爾德于1933年生于美國伊利諾伊州芝加哥,1958年在貝爾實驗室開始了他的職業(yè)生涯,主要研究固體物質(zhì)的特性。1961年,他以助理教授的身份前往加利福尼亞大學伯克利分校,并于1964年加入普林斯頓大學物理系。16年后,他前往加州理工學院擔任化學和生物學教授,并于1997年回到普林斯頓大學,在分子生物學系任職。
1982年,霍普菲爾德開發(fā)了一種神經(jīng)網(wǎng)絡模型來描述大腦是如何進行聯(lián)想、回憶的,即霍普菲爾德網(wǎng)絡,這使得機器能夠使用人工神經(jīng)網(wǎng)絡“存儲”記憶,構(gòu)成了現(xiàn)在所有人工神經(jīng)網(wǎng)絡的基礎。
根據(jù)瑞典皇家科學院的公告,欣頓以霍普菲爾德網(wǎng)絡為基礎,發(fā)明了一個采用不同方法的新網(wǎng)絡—— 玻 爾 茲 曼 機 (the Boltzmann machine),通過輸入機器運行時很可能出現(xiàn)的示例來訓練機器。玻爾茲曼機可用于對圖像進行分類,或創(chuàng)建訓練模式類型的新示例。欣頓在此基礎上繼續(xù)發(fā)展,幫助開啟了機器學習的爆炸式發(fā)展。他在人工神經(jīng)網(wǎng)絡方面的開創(chuàng)性研究為ChatGPT等AI系統(tǒng)鋪平了道路。
更值得一提的是,OpenAI聯(lián)合創(chuàng)始人、前首席科學家伊爾亞·蘇茨克維(Ilya Sutskever)也是欣頓的學生。他們兩人和另一名計算機科學家亞歷克斯·克里澤夫斯基(Alex Krizhevsky)還一起發(fā)明了卷積神經(jīng)網(wǎng)絡AlexNet。
欣頓發(fā)出AI安全警告
雖然欣頓因為其在機器學習領(lǐng)域的研究獲得了諸多殊榮,但現(xiàn)在的他更多的精力集中在推動AI安全發(fā)展上。在諾貝爾獎委員會向其宣布獲獎喜訊時,他也不忘就AI技術(shù)的危險性向外界發(fā)出警告。
欣頓擔憂地表示:“我認為它(AI)將產(chǎn)生巨大的影響。它將與工業(yè)革命相媲美,它不會在體力上超越人類,而是會在智力上超越人類。”
欣頓表示,擁有比人類更聰明的技術(shù)“在很多方面都是好事”,這將帶來醫(yī)療保健的大幅改善、更好的數(shù)字助理以及生產(chǎn)力的大幅提升。“但我們也必須擔心一些可能的不良后果,尤其是這些事情失控的威脅。”他補充道,“我擔心,這一切的后果可能是,比我們更聰明的系統(tǒng)最終會掌控一切。”
今年5月,欣頓接受記者采訪的時候甚至直白地稱:“很難想象如何阻止壞人利用它(AI)做壞事。”他表示:“未來5~20年,AI有一半概率比人類聰明。當它們比我們更聰明時,我不知道我們被接管的可能性有多大,但在我看來,這很有可能。”
伴隨AI的飛速發(fā)展,人們對其安全性的憂慮在不斷上升。
今年6月,13位來自OpenAI和谷歌的現(xiàn)任及前任員工聯(lián)合發(fā)布了一封公開信,表達了對AI技術(shù)潛在風險的嚴重擔憂,并呼吁相關(guān)公司采取更加透明和負責任的措施來應對這些風險。
這封信也得到了欣頓的背書,信中指出,盡管AI技術(shù)可能會給人類帶來巨大益處,但其帶來的風險同樣不容忽視。這些風險包括加劇社會不平等、操縱和虛假傳播信息,以及自主AI系統(tǒng)失控可能導致的人類滅絕。
封面圖片來源:視覺中國
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP