中國科學院院士梅宏: |
|
面對AI熱潮,科技倫理治理要跟上 |
|

“智能是人類區(qū)別于其他動物的專有特征,特別是認知能力。我們可以接受機器在感知能力方面超越人類,但對機器認知智能的研發(fā),需要高度審慎。從科技倫理的視角來看,我們?yōu)槭裁匆斐鲆粋替代我們認知的東西?”
2024年11月22日,在以“跨越邊界的科技倫理”為主題的第二屆中國科技倫理高峰論壇上,中國科學院院士、北京大學教授梅宏直指當前數(shù)字技術面臨的倫理挑戰(zhàn)。
從智能制造到智慧城市,從醫(yī)療健康到金融服務,當前大語言模型火爆,人工智能(AI)風頭正盛。梅宏認為,AI熱潮中泡沫太大,仍處于技術成熟度曲線的高峰階段,喧囂埋沒理性,需要一個冷靜期。
他強調,雖然基于當前的技術路徑,大模型尚不能“無中生有”、做出超越人類預期的事情,但一味信奉“蠻力”、追求規(guī)模,也極易發(fā)展出在覆蓋面和復雜度上令人們難以掌控的“巨獸”。
“拿著手機讀不到有價值的內容”
在經歷了兩個“春天”和兩個“冬天”后,AI迎來了第三個“春天”,深度學習技術帶來的一次次突破不斷刷新著人們對AI的認知。
但是,從臉書(Facebook)數(shù)據(jù)泄露到大模型生成內容引發(fā)侵權糾紛和虛假信息傳播,數(shù)字技術在為人類社會經濟發(fā)展帶來益處的同時,也帶來了數(shù)據(jù)隱私保護、算法偏見、責任認定等一系列倫理問題。
例如,就當前大語言模型的技術路線而言,“黑盒”導致的不可解釋性是其最大“罩門”,如果不加任何規(guī)制而大量應用,可能導致人類知識體系面臨嚴峻挑戰(zhàn)。訓練語料的質量缺陷、概率統(tǒng)計的內生誤差等因素會導致大模型產生幻覺,生成錯誤內容;再加上人為干預誘導,極易生成虛假內容。
“通過算法,平臺可以個性化推送內容,但也可能形成用戶的信息繭房。我最近最大的困擾是拿著手機卻讀不到想讀的有價值的內容。”梅宏表示,目前幾乎大部分網(wǎng)絡平臺都在AI算法和大數(shù)據(jù)驅動下運營,這就帶來對算法和數(shù)據(jù)應用的有效監(jiān)管問題,這些亟待通過建立完善的治理體系加以解決。當涉及平臺跨境時,還需要有相應的國際治理體系。
現(xiàn)實情況不盡如人意
當前,社會對“AI+”或“AI for everything”(一切皆人工智能)抱有很高的期望。然而,現(xiàn)實情況卻不盡如人意。
“雷聲隆隆,雨點并不大。”梅宏坦言,“從當前的熱潮中,我看到了太多‘炒作’和‘非理性’導致的 AI‘過熱’現(xiàn)象,也對當前AI發(fā)展技術路徑多樣性的欠缺產生了一些擔憂。”
“大語言模型的成功依賴于人類長時間積累的龐大語料庫,文生視頻的成功也依賴于互聯(lián)網(wǎng)上存在的海量視頻。然而,其他行業(yè)的數(shù)據(jù)積累尚未達到這個量級。獲取全數(shù)據(jù),關鍵是跨越足夠的時間尺度。”梅宏表示,AI的應用還需要經歷一段時期的探索、磨合和積累,才可能迎來繁榮。
“在我看來,AI當前的問題有3個:泡沫太大,仍處于技術成熟度曲線的高峰階段,喧囂埋沒理性,需要一個冷靜期;以偏概全,對成功個案不顧前提地放大、泛化,過度承諾;期望過高,用戶神化AI的預期效果,提出難以實現(xiàn)的需求。”梅宏說。
面對AI技術發(fā)展及其應用現(xiàn)狀,梅宏建議,在尚搞不清如何應用、用到何處時,不妨先積累數(shù)據(jù),“可采盡采、能存盡存”。
沒有跳出概率統(tǒng)計框架
那么,大語言模型能走向通用人工智能嗎?梅宏認為,從基本原理來看,目前的大語言模型沒有跳出概率統(tǒng)計這個框架。
梅宏并不認為現(xiàn)在的AI有所謂“意識”或者知識涌現(xiàn)能力。以大語言模型為例,模型本身無法產生新的東西,其生成的內容取決于對大量文本內容的統(tǒng)計,如果某些內容反復出現(xiàn),它們大概率就會將之視為“合理存在”的內容。
“就這個意義而言,大模型可被視為由已有語料壓縮而成的知識庫,生成結果的語義正確性高度依賴于數(shù)據(jù)的空間廣度、時間深度以及分布密度,更高度依賴于數(shù)據(jù)的質量。”梅宏提到,學術界的研究更應關心大模型構建過程的可重復性和可追溯性,盡可能保證結果的可解釋和可信任。
“大膽預測,作為壓縮了人類已有可公開訪問的絕大多數(shù)知識的基礎模型,大語言模型將像互聯(lián)網(wǎng)一樣走向開源。全世界共同維護一個開放共享的基礎模型,盡力保證其與人類知識同步。”梅宏說,“這至少也是表達自己的一種期望。”
適時調整倫理審查的復核清單
“發(fā)明技術的最終目的是為了讓人類的生活變得更好,毫無疑問應該充分考慮技術可能帶來的倫理問題。”梅宏表示,在AI快速發(fā)展的熱潮下,需要對可能的風險進行研判,并提醒科技工作者時刻牢記科技向善、以人為本。
隨著數(shù)字技術的發(fā)展,科技倫理治理也應當跟上。梅宏強調,目前應當完善科技倫理治理體制機制,明確數(shù)字技術領域的治理重點和安全護欄,對數(shù)字技術進行分級分類治理,同時建立健全生成式人工智能(AIGC)的主動披露標注制度并開展相關技術研究。
那么,數(shù)字技術領域是否應該存在研究禁區(qū)?梅宏認為,在基礎研究階段一般不做限制,涉及對人的認知能力調控、違背人的自由意志的研究應列為禁區(qū)。在技術和產品應用階段,要根據(jù)具體場景及影響來確定。
“例如大規(guī)模遠程監(jiān)控、自主決策的社會評價體系、操縱個人意識和行為并造成個體或他人身體或心理傷害的技術,以及以超越或替代人的認知能力為目標的AI技術研發(fā),應當受到限制。”梅宏說。
同時他表示,數(shù)字技術領域的研究禁區(qū)應該建立動態(tài)調整機制,適時調整倫理審查的復核清單。
此外,梅宏呼吁建立AI生成內容的披露標準機制,建立涵蓋大模型開發(fā)者、創(chuàng)作者、使用者的標注責任機制;鼓勵多條技術路線推進大模型生成內容標注技術研發(fā);完善大模型內容審核制度規(guī)范和檢測技術開發(fā);推進相關標準和規(guī)范制定并將之國際化。■
《科學新聞》 (科學新聞2024年12月刊 封面)