隨著互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展,社交媒體顛覆了傳統(tǒng)紙媒在新聞傳播中無可取代的地位,成為當(dāng)下新聞分享的主要平臺(tái)。
據(jù)美國皮尤研究中心的報(bào)告統(tǒng)計(jì),約有62%的美國人從社交媒體上獲取新聞。盡管新聞與消息的來源獲得了無限的放大,但是當(dāng)讀者在閱讀、分享這些新聞信息時(shí),很難辨識(shí)這些內(nèi)容的真假。
在2016年美國大選中,不同利益集團(tuán)相互指責(zé)和控訴對(duì)方制造和傳播虛假信息的事件至今仍讓人記憶猶新。梳理美國大選背后的假新聞甚至可以發(fā)現(xiàn),制造、傳播虛假新聞已成為一條“灰色”產(chǎn)業(yè)鏈。
皮尤研究中心曾做過調(diào)查,約24%的受訪者承認(rèn)曾轉(zhuǎn)發(fā)過社交媒體上的假新聞,約82%的人認(rèn)為自己經(jīng)常在網(wǎng)絡(luò)上看到虛假消息,約64%的人覺得虛假新聞已擾亂了社會(huì)的基本秩序。
確實(shí),網(wǎng)絡(luò)虛假新聞比真實(shí)新聞傳播得更快、更廣。比如,與擁有準(zhǔn)確醫(yī)療內(nèi)容的帖子相比,那些關(guān)于虛假醫(yī)療信息的網(wǎng)絡(luò)帖子常常能獲得更多的閱讀量和評(píng)論。在一個(gè)觀眾關(guān)注度有限、內(nèi)容選擇飽和的網(wǎng)絡(luò)世界里,虛假信息似乎對(duì)觀眾更有吸引力或更吸引人。
而且這一問題正變得越來越嚴(yán)重:到2022年,發(fā)達(dá)經(jīng)濟(jì)體的人們可能會(huì)遇到比真實(shí)信息更多的虛假新聞。這可能會(huì)導(dǎo)致一種被研究者稱之為“現(xiàn)實(shí)眩暈”的現(xiàn)象——在這種現(xiàn)象中,電腦可以產(chǎn)生如此令人信服的內(nèi)容,以至于普通人可能很難弄清楚什么才是真實(shí)的。
怎樣才能讓人類逃脫虛假新聞的陷阱呢?如今,借助人工智能新技術(shù),或許能幫助人類走出黑暗。
檢測謊言
機(jī)器學(xué)習(xí)算法是人工智能的一種類型。其涉及概率論、統(tǒng)計(jì)學(xué)、算法復(fù)雜度理論等多門學(xué)科。幾十年來,通過分析信息的文本并確定某條特定信息是來自真實(shí)的個(gè)人交流,或者是大規(guī)模分發(fā)的藥品招標(biāo),抑或是遺失已久的財(cái)產(chǎn)索賠的可能性,機(jī)器學(xué)習(xí)算法已經(jīng)取得了成功。
在過濾垃圾郵件中,基于文本分析,人工智能系統(tǒng)可以評(píng)估一個(gè)帖子的文本或標(biāo)題與某人在網(wǎng)上共享文章的實(shí)際內(nèi)容的對(duì)比情況。同時(shí),借助人工智能系統(tǒng),可以檢查類似的文章,看看其他新聞媒體是否有不同的事實(shí)。類似的人工智能系統(tǒng)還可以識(shí)別出散布虛假新聞的特定賬戶和源網(wǎng)站。
不過,這些方法的使用基于這樣的假設(shè),即傳播假新聞的人不會(huì)改變他們的方式。然而事實(shí)是,他們經(jīng)常改變策略,操縱虛假帖子的內(nèi)容,以使其看起來更真實(shí),更可信。
當(dāng)然,信息的上下文也很關(guān)鍵。詞語的含義會(huì)隨著時(shí)間的變化而改變。而且同樣的詞在自由網(wǎng)站和保守網(wǎng)站上也可能具有不同的含義。例如,在一個(gè)更自由的網(wǎng)站上,一個(gè)帶有“維基解密(WikiLeaks)”和“民主黨全國委員會(huì)(DNC)”字樣的帖子更有可能是新聞,而在一個(gè)保守的網(wǎng)站上,這樣的帖子則可能另有它意?梢,利用人工智能檢測虛假新聞仍面臨很多挑戰(zhàn)。
盡管如此,目前已有不少網(wǎng)絡(luò)公司加入到新聞打假行動(dòng)中。社交網(wǎng)站Facebook正在調(diào)整其算法,以消除其新聞傳播中的虛假新聞。谷歌與事實(shí)檢查網(wǎng)站開展合作,到目前為止,取得的結(jié)果還參差不齊。2016年,由AI團(tuán)體的志愿者舉辦的“虛假新聞挑戰(zhàn)賽”,旨在鼓勵(lì)開發(fā)有助于打擊惡意報(bào)道的工具。
利用人工智能造假
然而,利用人工智能檢測虛假新聞的最大挑戰(zhàn)在于,人工智能打假遇上人工智能造假。
2017年12月,一段出自國外Reddit論壇的視頻迅速躥紅網(wǎng)絡(luò)。視頻中的藝人的臉其實(shí)是人工智能技術(shù)輔助合成的,但是看起來幾乎毫無破綻。在該視頻中,一種稱之為“deepfakes”的技術(shù)的運(yùn)用充分證明了機(jī)器學(xué)習(xí)系統(tǒng)令人驚嘆的創(chuàng)造能力。所謂deepfakes,簡單來說就是一種人臉交換技術(shù),即在圖像或視頻中把一張臉替換成另一張臉。
通過人工智能新技術(shù),不僅人臉可以實(shí)現(xiàn)“移花接木”,口型也可以實(shí)現(xiàn)輕松對(duì)應(yīng)。
2017年7月,華盛頓大學(xué)的研究人員利用人工智能技術(shù),制作了一段時(shí)長1分55秒的美國前總統(tǒng)奧巴馬演講的假視頻,其圖像和聲音都達(dá)到以假亂真的水平。研究團(tuán)隊(duì)設(shè)計(jì)了一個(gè)人工智能程序,讓其分析互聯(lián)網(wǎng)上奧巴馬的各種音頻和視頻,經(jīng)過17個(gè)小時(shí)的“自主學(xué)習(xí)”后,人工智能就能通過奧巴馬的聲音,判斷出對(duì)應(yīng)的面部細(xì)節(jié),從而模擬出匹配的數(shù)字圖像。
新技術(shù)的突破讓眾人驚嘆的同時(shí),引起了人們對(duì)該技術(shù)的恐懼和擔(dān)憂。比方說,“換臉術(shù)”“對(duì)口型”會(huì)給很多無辜清白的公眾人物造成困擾;“假視頻”會(huì)加劇虛假新聞的散播,從而大大降低視頻作為證據(jù)的可信度。
一旦這些技術(shù)被濫用,由其引發(fā)的道德、倫理、版權(quán)等諸多問題,都將對(duì)個(gè)人、社會(huì)造成難以想象的影響,而且隨著直播、短視頻等平臺(tái)生產(chǎn)出大量內(nèi)容,手機(jī)的面部識(shí)別功能也開始日益普及,如果這些數(shù)據(jù)被人惡意利用,其后果將無法估量。
如今,研究人員已經(jīng)在準(zhǔn)備使用人工智能來識(shí)別這些由人工智能制造出來的“假貨”。例如,視頻放大技術(shù)可以檢測人類脈搏的變化,從而確定視頻中的人是真實(shí)的還是由計(jì)算機(jī)生成的。
但是,隨著技術(shù)的發(fā)展,造假者和打假者都會(huì)變得更先進(jìn)。有些“假貨”可能會(huì)變得非常復(fù)雜,以至于很難被揭穿——不像前幾代“假貨”,它們使用簡單的語言,并且很容易被反駁。
人類的智慧才是關(guān)鍵
事實(shí)上,打擊虛假新聞傳播的最好辦法可能還得依靠人類。
虛假新聞帶來的社會(huì)后果——政治兩極分化加劇,黨派紛爭加劇,以及侵蝕主流媒體和政府的信任度——是非常嚴(yán)重的。如果有越來越多的人知道虛假新聞的風(fēng)險(xiǎn)如此之高,他們可能會(huì)對(duì)這些信息更加謹(jǐn)慎小心,特別是如果這些信息是基于情感的尤為值得警惕,因?yàn)檫@是吸引人們注意力的有效方式。
當(dāng)有人看到一個(gè)令人憤怒的帖子,那么這個(gè)人最好調(diào)查一下這些信息內(nèi)容,而不是馬上分享。分享的行為也為一個(gè)帖子增加了可信度:當(dāng)其他人看到這個(gè)帖子時(shí),他們覺得這個(gè)帖子是由其認(rèn)識(shí)的人分享的,而且他們對(duì)這個(gè)人至少還有點(diǎn)信任,所以不太可能會(huì)注意到最初的消息來源是否有問題。
現(xiàn)在,像YouTube和Facebook這樣的社交媒體網(wǎng)站,可以自主決定給其網(wǎng)站的內(nèi)容貼上標(biāo)簽,清楚地顯示出新聞欄目是否是由有信譽(yù)的消息來源進(jìn)行證實(shí)的。不僅如此,F(xiàn)acebook創(chuàng)始人馬克·扎克伯格希望動(dòng)員Facebook用戶的“社區(qū)”來指導(dǎo)其公司的算法,并且Facebook可能會(huì)向眾源驗(yàn)證的方向努力。維基百科也提供了一個(gè)模型,由專門跟蹤和驗(yàn)證信息的志愿者組成。
扎克伯格認(rèn)為,F(xiàn)acebook可以利用與新聞機(jī)構(gòu)和志愿者的合作來訓(xùn)練人工智能,不斷調(diào)整系統(tǒng),以應(yīng)對(duì)宣傳者在主題和策略上的變化。盡管如此,人工智能并不能抓住網(wǎng)上發(fā)布的每一條新聞,但是它會(huì)讓很多人更容易從虛假信息中獲知事實(shí)。
魔高一尺,道高一丈。無論怎樣,這場真假之戰(zhàn)仍將繼續(xù)!