|
|
AI for Science:強化科研倫理規(guī)范 防止AI技術(shù)濫用 |
|
AI for Science是指人工智能(AI)賦能科學(xué)研究,目的是依托AI技術(shù)的進步提升科研能力,促進科學(xué)發(fā)展。AI對人類認知行為的技術(shù)性替代不斷加強,從肢體感官上升到大腦,進而滲透到人類認知行為的不同環(huán)節(jié)。換言之,在認知和決策方面,人類把一部分功能或是一部分“權(quán)力”讓渡給了AI系統(tǒng)。
AI for Science有可能創(chuàng)造性地融合以往多種科研范式。如今人類已置身于一個數(shù)字化、網(wǎng)絡(luò)化的科學(xué)世界,傳統(tǒng)的經(jīng)驗研究、理論研究或計算模擬,都因此受到多方面沖擊。在走向智能化的過程中,除了機器學(xué)習(xí)和大語言模型的運用,還需要結(jié)合特定領(lǐng)域的科學(xué)理論設(shè)計和新的模型、算法的開發(fā),憑借足夠的算力支持,AI技術(shù)能夠跨越時空,整合不同學(xué)科領(lǐng)域積累的豐富經(jīng)驗和數(shù)據(jù),進行高效模擬與計算。
AI for Science與以往科研過程中對人類認知行為的技術(shù)性替代的一個很大的區(qū)別在于,它是開放且不斷進化的社會技術(shù)系統(tǒng)。AI技術(shù)的譜系很長,并且在不斷進化,同時還需要一系列數(shù)字技術(shù)和基礎(chǔ)設(shè)施作為支撐。因此,如今AI for Science中“唱主角”的不單是大學(xué)或科研機構(gòu),還包括一些AI研發(fā)企業(yè)。這使得AI for Science成為一種變革更徹底、影響更深遠的技術(shù)性替代。這種技術(shù)性替代意味著更高的技術(shù)壁壘,會在科學(xué)知識生產(chǎn)能力上形成更大、更難以超越的代際差異。所以各國都高度重視利用AI技術(shù)重構(gòu)科研系統(tǒng),如美國、英國政府先后發(fā)布AI for Science的戰(zhàn)略研究報告和相應(yīng)的行動策略。
如今在科研中被廣泛應(yīng)用的生成式AI就是一個典型案例。生成式AI帶來的機遇和挑戰(zhàn)并存,不能簡單地否定其為科研帶來的福祉和新機遇。如果錯失了這個歷史性機遇,代際差異將會被拉大。同時也應(yīng)該看到生成式AI給科學(xué)知識生產(chǎn)帶來的顛覆性影響,主動迎接挑戰(zhàn)。
生成式AI帶來倫理挑戰(zhàn)
2023年7月7日,《自然》新聞欄目曾做了一項實驗,兩位科學(xué)家借助ChatGPT在一個小時內(nèi)撰寫出一篇相對完整的研究論文。同年10月,另一項《自然》的調(diào)查結(jié)果顯示,全球超過31%的博士后研究人員經(jīng)常使用ChatGPT。早在2022年底,《斯坦福日報》進行了一項調(diào)查,結(jié)果顯示17%的學(xué)生曾使用ChatGPT完成秋季學(xué)期的作業(yè)和考試,這也是后來一段時間美國大學(xué)教授反對在大學(xué)中使用ChatGPT的原因。
截至目前,如何對待生成式AI應(yīng)用于科研尚未有定論,人們的態(tài)度在不斷變化,從最開始堅決反對,到逐漸允許嘗試,再到鼓勵合規(guī)使用。如今,已經(jīng)沒有高;蚱诳瘯^續(xù)頑固地堅持一定不能使用ChatGPT等生成式AI,但由此帶來的科研倫理問題不可忽視。
首先是生成式AI與學(xué)術(shù)不端的聯(lián)系。2023 年,《自然》對 1600 名研究人員進行了一項調(diào)查,68% 的受訪者表示,AI將使剽竊更容易,也更難被發(fā)現(xiàn)。生成式AI在統(tǒng)計分析時,對于結(jié)果一致性和應(yīng)用更高級的統(tǒng)計方法表現(xiàn)出局限性,不具備高級學(xué)科必要的專業(yè)知識,并不能在前沿問題上給出準(zhǔn)確答案。最令人擔(dān)心的是,一旦虛假的學(xué)術(shù)論文進入公開的學(xué)術(shù)數(shù)據(jù)庫、被引入學(xué)術(shù)交流的生產(chǎn)鏈之后,再想對其進行清理會非常困難。由此可見,這類型的學(xué)術(shù)不端不僅影響知識生產(chǎn),還會影響所有在這些知識成果上進行的決策。
其次,生成式AI會對科學(xué)家的職業(yè)倫理造成影響。以往,科研人員是知識產(chǎn)品的直接負責(zé)人,對所生產(chǎn)的知識負有直接且唯一的責(zé)任,也承擔(dān)知識或技術(shù)產(chǎn)品帶來的風(fēng)險。但AI技術(shù)和人類知識生產(chǎn)者形成了一種前所未有的新型人—機關(guān)系,未來可能難以嚴格區(qū)分使用者與其所依賴的AI工具。另外,當(dāng)高級研究者與教育者面對學(xué)生更加熟練、更有技巧地使用生成式AI時,師生關(guān)系也可能發(fā)生顛覆。
更為重要的是,生成式AI生成知識產(chǎn)品的過程所蘊含的技術(shù)特征與科學(xué)家的職業(yè)倫理要求產(chǎn)生沖突。比如,來自數(shù)字健康領(lǐng)域的學(xué)者對生成式AI能否捕捉到護理學(xué)科的道德價值觀和核心原則表示擔(dān)憂,因為護理學(xué)強調(diào)對患者的同情、同理心、關(guān)懷、尊重,但生成式AI作為一種技術(shù)工具,對這種倫理關(guān)懷是無知的。
除此之外,生成式AI對于人類學(xué)術(shù)創(chuàng)造力的影響也值得高度關(guān)注。一些學(xué)者認為,ChatGPT等生成式AI的使用會導(dǎo)致學(xué)術(shù)創(chuàng)造力的喪失,致使學(xué)術(shù)獨創(chuàng)性原則受到挑戰(zhàn)。在這種情況下,更需要對科研應(yīng)當(dāng)秉持的獨創(chuàng)性原則進行反思。如今的生成式AI的高級認知能力還較低,如果對其產(chǎn)生技術(shù)依賴,可能帶來降低科研人員獨立探索、自主思考和獨立解決問題的積極性等風(fēng)險。因此,堅持科研獨創(chuàng)性,使得科學(xué)知識生產(chǎn)作為社會職業(yè)所具有的獨特特征和價值得到維護,是科研人員共同的使命。
同時,AI可能會導(dǎo)致科研中產(chǎn)生新的不平等。在AI for Science的時代,新的不平等表現(xiàn)在不同領(lǐng)域、國別、年齡、職業(yè)、學(xué)歷等因素上。傳統(tǒng)領(lǐng)域中卓有成就的學(xué)者的地位可能因此受到影響甚至顛覆。獲得和使用AI技術(shù)的差異,也會帶來教育和科研領(lǐng)域新的分化和分層。在如今大學(xué)鼓勵使用深層次AI輔助教育和研究的背景下,這是一個亟待解決的問題。
長時段、包容性的“社會實驗”
對于如何在科研中合規(guī)地使用AI,是一項多樣性、長時段的“社會實驗”。比如,哈佛大學(xué)認為,隨著技術(shù)迭代和發(fā)展,其社會影響將會在較長時間內(nèi)呈現(xiàn)出比較復(fù)雜的局面,需要人們在這場“實驗”中探索怎樣更好地實踐這個過程。哈佛大學(xué)將AI的使用權(quán)利交給全體師生,并且保留學(xué)校根據(jù)技術(shù)的迭代和教學(xué)實驗的發(fā)展進行政策調(diào)整的權(quán)利。
事實上,沒有任何一種倫理原則能夠解決當(dāng)下人類遇到的所有問題,多種倫理立場并存和利益相關(guān)者的磋商至關(guān)重要,新的實踐智慧將在這一過程中凝練而生。要在使用AI新技術(shù)的多元、包容的“社會實驗”中發(fā)現(xiàn)好的實踐模式,識別可能出現(xiàn)的社會倫理問題。要防止極端認識的產(chǎn)生,如過度將AI放在崇高的位置、過度輕視AI以壓制多元探索的可能,尤其警惕用過去經(jīng)驗在未來挑戰(zhàn)中做簡單裁決。通過這樣的“社會實驗”,人們會找到更好地與AI相互協(xié)調(diào)的方式。
對于AI帶來的學(xué)術(shù)不端,需要進行有效的識別和深層治理,充分利用技術(shù)本身來應(yīng)對技術(shù)帶來的風(fēng)險或許是一個不錯的思路。應(yīng)該加快開發(fā)生成式AI的檢測技術(shù),防止科研中的技術(shù)濫用。要堅持精準(zhǔn)治理,完善對于利用生成式AI代寫論文、數(shù)據(jù)造假等科研不端行為的監(jiān)管體系。
防止AI技術(shù)濫用
對于科研人員而言,在具備AI勝任力的同時,還必須具備AI時代普遍的倫理素養(yǎng)。可以說,同時具有技術(shù)素養(yǎng)和倫理素養(yǎng)已經(jīng)成為科研智能化時代防止AI技術(shù)濫用的內(nèi)在要求。如歐洲一些大學(xué)已提出詳細的AI使用原則,包括大學(xué)支持學(xué)生和教職員工建立良好的AI素養(yǎng),教職人員應(yīng)該具備能力支持學(xué)生在學(xué)習(xí)過程中有效且適當(dāng)?shù)厥褂蒙墒紸I,調(diào)整教學(xué)評估并納入生成式AI的道德使用,支持平等的獲取,確保學(xué)術(shù)嚴謹性和誠信得到維護等。
AI的發(fā)展也為人們反思人類認知過程提供了良好的契機,使科學(xué)家認識到以往的研究工作中可以通過技術(shù)手段來提高效率和質(zhì)量的部分以及真正不可替代的部分,即人類創(chuàng)造力真正之所系。
在這個過程中,探索科研場景下AI技術(shù)的價值對齊是不可忽視的工作?蒲幸(guī)范已經(jīng)相當(dāng)明確且得到廣泛認同。然而,要使技術(shù)真正符合這些規(guī)范,仍有許多問題需要解決,也需要更多前瞻性研究!
(作者系清華大學(xué)教授,見習(xí)記者蒲雅杰整理)
《科學(xué)新聞》 (科學(xué)新聞2024年12月刊 封面)