一段時間以來,以ChatGPT為代表的人工智能大模型攪動了全球人工智能技術發(fā)展的浪潮。從寫代碼到講故事,從撰寫文章到自動制作數(shù)據(jù)表格……人工智能正在給人類的工作、學習、生活帶來諸多變化。
我們距離“無所不能”的通用人工智能還有多遠?人工智能的發(fā)展帶來哪些安全隱患和挑戰(zhàn)?近日召開的2023北京智源大會上,來自全球的人工智能專家學者圍繞相關話題展開探討。
通用人工智能路途尚遠
“想象一下,未來10年,通用人工智能(AGI)幾乎在每一個領域都超過人類的專業(yè)知識,最終可能超過所有大型公司的總體生產(chǎn)力,這將提高人們的生活水平。”O(jiān)penAI首席執(zhí)行官山姆·阿爾特曼展現(xiàn)了一幅人工智能的未來圖景。
所謂AGI,是指能夠像人類一樣在各種領域進行智能任務的人工智能系統(tǒng)。這與目前人工智能應用只聚焦于特定任務或領域(如圖像識別、語音識別、自然語言處理等)不同,對人工智能技術提出了更高要求。
“通用人工智能可以比人類更好、更快地學習和執(zhí)行任務,包括人類無法處理的任務。由于機器在速度、內(nèi)存、通信和帶寬方面的巨大優(yōu)勢,未來通用人工智能幾乎在所有領域都將遠超人類的能力?!泵绹又荽髮W伯克利分校計算機科學教授斯圖爾特·羅素說。
盡管人工智能已經(jīng)有了“超越”人類的“時間表”,但在很多專家看來,目前的人工智能距離AGI還有不小的距離。
羅素認為,當下火熱的大語言模型并不“理解世界”,只是通用人工智能的一塊“拼圖”——“我們并不了解如何將它與其他部分連接起來,甚至還有一些缺失的拼圖還沒有找到。”
北京智源人工智能研究院院長黃鐵軍指出,要實現(xiàn)通用人工智能,有3條技術路線:第一是大模型,通過海量高質(zhì)量數(shù)據(jù),讓人工智能具備智能涌現(xiàn)能力;第二是具身智能,通過強化學習方法,訓練出具身模型;第三是類腦智能,讓機器達到或類似于人腦能力。
對于人工智能的發(fā)展,圖靈獎得主、紐約大學教授楊立昆提出了“世界模型”的概念——人工智能系統(tǒng)可以通過這一模型理解世界的運轉(zhuǎn)方式,并以最優(yōu)化、成本最小的方式來行動。
加強安全治理領域國際合作
根據(jù)普華永道會計師事務所預測,到2030年,人工智能將創(chuàng)造15.7萬億美元的經(jīng)濟價值。人工智能為經(jīng)濟發(fā)展提供了重要機遇,但也引發(fā)了安全性方面的擔憂和爭議。
圖靈獎得主、多倫多大學教授杰弗里·辛頓認為,目前的人工智能已經(jīng)可以通過學習,掌握“欺騙”人類的方式?!耙坏┤斯ぶ悄芫邆淞恕垓_’的能力,就有了‘控制’人類的能力。這樣的超級智能可能會比預想中發(fā)生得更快?!?/p>
在通用人工智能時代到來之前,人工智能的安全風險主要來自于“人”?!拔覀儾粦摷僭O機器是公正的,因為機器可能會試圖改變?nèi)祟惖男袨?。更準確地說,是機器的所有者想要改變其他人的行為。”圖靈獎得主、中國科學院院士姚期智說,當前人工智能的發(fā)展處于重要窗口期,各國應共同合作,搭建人工智能的治理結(jié)構。
隨著人工智能的本事越來越大,人工智能的“對齊”問題浮上水面。所謂“對齊”,即人工智能系統(tǒng)的目標要和人類的價值觀與利益“對齊”,保持一致。
如何讓人工智能與人類“對齊”?阿爾特曼認為,人們應當負責任地將人工智能應用到世界中,重視和管理好安全風險。他建議在人工智能技術研發(fā)過程中建立平等、統(tǒng)一的國際規(guī)范和標準,并通過國際合作,以可驗證的方式建立人工智能系統(tǒng)安全開發(fā)的信任體系。
黃鐵軍認為,人工智能雖然會產(chǎn)生預料之外的新能力,但這并不意味著人類無法對人工智能進行管理?!叭绾喂芾砣斯ぶ悄苓@樣一個創(chuàng)造性極強的系統(tǒng),社會學、歷史學等學科都能提供很好的借鑒意義。”
今年2月,中國在《全球安全倡議概念文件》中提出加強人工智能等新興科技領域國際安全治理,預防和管控潛在安全風險。在此次智源大會上,專家學者積極評價中國在推動人工智能國際治理上的貢獻。
阿爾特曼說,中國在人工智能領域擁有大量優(yōu)秀的人才和產(chǎn)品系統(tǒng),在人工智能的安全方面應發(fā)揮關鍵作用。
麻省理工學院人工智能與基礎交互研究中心教授馬克斯·泰格馬克表示,中國在塑造全球人工智能議程上的能力日益增長,可以在人工智能安全治理領域發(fā)揮領導作用。
推動大模型共建共享
當下,全球人工智能領域的科技競賽日趨白熱化。2023中關村論壇上發(fā)布的《中國人工智能大模型地圖研究報告》顯示,全國已發(fā)布了79個參數(shù)在10億規(guī)模以上的人工智能大模型。
從全球來看,中國和美國已發(fā)布的大模型數(shù)量超過全球總數(shù)的80%。中國自2020年起進入大模型快速發(fā)展期,在大模型方面已建立起涵蓋理論方法和軟硬件技術的體系化研發(fā)能力,形成了緊跟世界前沿的大模型技術群,涌現(xiàn)出多個具有行業(yè)影響力的預訓練大模型。
在此次大會上,全面開源的智源“悟道3.0”系列大模型及算法正式發(fā)布。據(jù)了解,“悟道3.0”涵蓋了一系列領先成果,包括“悟道·天鷹”(Aquila)語言大模型系列、天秤(FlagEval)開源大模型評測體系與開放平臺,“悟道·視界”視覺大模型系列以及一系列多模態(tài)模型成果等。
黃鐵軍認為,人工智能大模型有3個特點:一是規(guī)模大;二是有“涌現(xiàn)性”,即能夠產(chǎn)生預料之外的新能力;三是通用性,不限于解決專門問題或者專門領域。他表示,大模型不是任何一家機構或者一家公司壟斷的技術,應當共建共享,推出一套智力社會所需的基礎的算法體系。
本文標題: 如何保證人工智能不學壞?
本文地址: http://www.sun000666.com/brand/news-a129of58a4.html
內(nèi)容均來源于網(wǎng)絡,錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com
2009-2024 黃頁88版權所有 京ICP備2023012932號-1 │ 京公網(wǎng)安備 11010802023561號 京ICP證100626
內(nèi)容均來源于網(wǎng)絡,錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com