移至主內容

公共討論6-2》

AI來襲 如何影響公共討論?

圖片來源:達志影像
作者
李怡志
expand_circle_down

任教於政治大學新聞系,參與網路新聞與內容產業30年,關心新科技對傳播的技術、商業及倫理影響,同時擔任多個非營利及公共媒體董監事。

  • 社群媒體因資訊過載、匿名性,降低公共意見交流品質,生成式AI恐更惡化。
  • 生成式AI已有能力過濾虛假資訊,且整合摘要服務更有機會呈現多元內容。
  • 網路使用者應隨時抱持高度反思,才能逃離演算法和AI為我們精心打造的回聲室。
     

生成式人工智慧(以下簡稱生成式AI)的能力越來越強大,很容易大量產生各種內容,因此也有人擔心它會影響民眾參與公共討論的方式與品質。

近代論及公共討論時,通常會參考哈伯瑪斯(Jürgen Habermas)的公共領域概念。哈伯瑪斯將公共領域視為一個不受國家與社會控制的互動場域,透過參與者的理性批判論述形成公共意見。

公共意見或共識的形成並不容易,首先,在這個空間中需要平等與自由的溝通,每個參與者或者團體應該都有心,以達到共識為目的來討論。雖然我們知道個體之間必然存在差異,但透過公共討論,應該讓多元、不同的聲音變成對公共有用的共識。此外,參與討論的人要能夠針對議題的不同方案提出思慮周全的理由,而非只是爭論短期、表面的正確與否。政治學者馬凱爾(Patchen Markell)則認為哈伯瑪斯的所謂共識並非只看結果,溝通過程與方法更為重要。

這種對於社會公共討論的想像很美好,但實際上很難做到,特別在網路媒體與社群媒體發達的年代,一來平等的對話很難發生,二來不是每個人都抱持尋求共識的態度在上網或參與討論,加上參與者未必具備反思的「交互參照」(inter-referring)能力或心態,所以不容易形成所謂的「重疊共識」(overlapping consensus)。

網路的公共討論空間有3大特點

生成式AI可以協助使用者或系統產生大量內容,勢必又會影響網路的公共討論,但在討論生成式AI可能帶來的影響之前,我們要先檢視一下原本的狀態如何。網路社群媒體在促進公共意見交流上有一些特點,這些特點在不同的角度下,可能是優點也可能是缺點,其中包含:

資訊過載:對於不主動閱讀完整文章,也不主動搜尋資訊的網路使用者而言,透過社群媒體非常容易接受到大量、破碎、去結構化的零碎資料,而一般人的心力與能力都很難重新彙整成完整、具體的想法,這在生成式AI之後會更加惡化。

匿名性:網路討論的參與者可以不用擔心身分曝光而大膽表達自己的想法,但也因為匿名不用負責,所以降低了因為要負責而維護的言論品質與思慮周全性,生成式AI也可能惡化這個現象。

演算法、協同過濾(collaborative filtering):網路系統通常配合使用者的喜好,會遞送特定立場、情緒、類型的內容,從立場上來看,會出現回聲室(Echo Chamber)效應,使用者較容易看到相似、但不一定反應社會真實情況的言論。例如在2025大罷免前,很多人在社群媒體看到的立場,可能與投票結果有落差。在資訊上也會有過濾泡泡(Filter Bubble)或資訊繭房(Information Cocoons)效應,讓閱聽人只看到特定類別的內容。生成式AI對這個現象的影響可能有正負兩面。

生成式AI可能的影響有正有負

因為生成式AI變化非常快,以下討論都以2025年9月的時點為準,筆者沒有能力對日後的科技發展做出太遙遠的預測,但可以對產品做些想像。

前述網路言論空間中的資訊過載、匿名性、演算法,都可能因為大量的生成內容而進一步惡化。生成式AI目前最顯而易見的危害,就是快速生成大量的內容,不論其中資訊是正確或虛假,都可能影響公共討論。生成的內容即便為真,仍可能因為回聲室效應、過濾泡泡,影響人們對於真實環境的判斷,資訊數量的不正確,依舊是一種錯誤

而虛假內容的危害與過往一樣,但因為生成式內容的速度快,又支持多模態,所以文字、圖片、影片的造假都十分容易,也已經充斥在社群媒體之上,對於原本只依賴社群媒體為主要資訊來源的閱聽人而言,生成式AI應該會負面影響這些人參與公共討論的品質。

這種現象不只發生在網路而已,台灣的電視新聞也曾經用生成式AI模擬柯文哲的聲音或社會新聞當事人的動態影像。

目前許多國家開始針對這個現象進行管理,例如建議或強制要求標示人工智慧內容,但這樣的標示對於原本就不重視資訊來源的閱聽人而言,警示的效果可能會逐漸遞減直到無感。

但資訊科技通常有不同的使用法,生成式AI也可以提升公共討論品質,以下提出兩個可能的方向:

即時事實查證與交互參照:網路上許多意見、討論,甚至傳統媒體的論壇、電視上的談話性節目,都會依據錯誤或虛假資訊來表達,並因此強化了虛假資訊的傳播。如果今天任何網路上的言論都會先經過生成式AI的「協助」,判斷論據中是否有虛假資訊,理論上可以提升言論品質。

設想一個情境,如果一個使用者在有生成式AI輔助的平台上發表言論,但沒有論據或論據並不正確,例如「我討厭外勞、因為外勞犯罪率很高」的時候,系統可能就會即時表示這個說法過度概化(overgeneralization),更何況移工在台灣的犯罪率並不高,這樣說並不適合。而當使用者說「外勞侵蝕台灣健保資源」時,系統又會馬上提醒,移工年齡通常較輕、健康狀況普遍良好,平均醫療支出其實低於本國人,繳交的保費大於實際使用量,對健保財務來說是「淨貢獻者」。

目前生成式AI已經有能力即時顯示這樣的資訊,端看服務業者是否願意導入,以及使用者是否願意自己的寶貴意見被AI檢視。

多元的彙整:演算法經常遞送讀者喜歡看的內容,產生過濾泡泡或回聲室效應,讀者有可能「偏讀」,例如只看得到特定立場傾向、特定領域的內容。但我們同時也可以看到,像 Perplexity 這樣的服務、或Google現在的AI摘要,雖然作法上還有著作權的疑慮,但這些整合生成服務有可能將來自不同立場、語言、國家的內容,彙整成一篇新的內容,因此不同立場的人,都有可能減少偏讀。而且這種彙整的內容,通常會比社群媒體上看到的碎片更完整,也能夠容納多元觀點、更複雜的資訊,協助公民在溝通時有更完整的資訊

任何平台、新聞媒體,在獲得授權的情況下,現在都有能力提供這種AI整合資訊服務,利用人工智慧的輔助,讓讀者可以看到更多元、完整的內容。

如何逃避演算法與AI客製化的回聲室

當生成式AI逐漸介入網路上的公共討論時,不可避免地,我們會在不同管道看到更多由AI生成的資訊與意見,當然這些內容不一定有錯,也不一定不好,而且要辨識資訊是否出自於生成式AI也越來越難,所以靠閱聽人的篩選、辨識,長期來看不切實際也不可行。

首先,不論在演算法驅動的年代、或生成式AI內容的年代,使用者面對演算法的自我反思(Reflexivity)永遠是最重要的一點,但也最難。網路的使用者應該隨時抱持高度的反思,看到每一則內容時,都思考演算法刻意遞送每一則內容給自己的可能原因,例如順應我的喜好、測試不同的演算法訊號、我的朋友喜歡這個內容、控制我的情緒等等。

當我們看到與我們立場、身分相符合的內容,得永遠先思考:「為什麼我會在這個時候看到這個內容?」演算法推薦這篇內容給我,不管是不是AI產生的,可能都判斷這是我喜歡的內容。如果使用者接納、相信所有演算法推薦的內容,那麼AI生成的內容就會源源不絕送到面前。

另一方面,閱聽人如果希望更廣泛地看到社會公共討論,那麼在演算法之前,也可以思考有什麼內容自己是看不到的?在演算法為我們精心裝潢的回聲室之外,還可能有什麼聲音?我要如何才能接收到這些公共討論?

為了達到這一點,即便我們很難完全逃避掉演算法與生成式AI為我們精心打造的回聲室,但還是可以自己裝潢這個回聲室,主動加入更多不同的社群、維持意見與自己不同的朋友、追蹤高品質但看了會高血壓的意見領袖,如此公共討論與共識才可能在回聲室中發生。假如閱聽人假裝自己的回聲室中已經充分呈現了社會的意見,並享受過濾泡泡的安全感,這種回聲室中會更容易出現AI生成的內容,並且建立虛假的社會共識。

我曾長期服務於網路公司,知道網路公司雖然可以讓演算法機制與內容更促成資訊交流與共識,但企業實際上沒有義務這樣做,而且這種服務通常不受使用者歡迎。使用者的選擇,最終會影響科技公司的產品路徑,我們現在看到所有「不好」的產品,通常都是科技公司在長期的摸索中,配合使用者的喜好與能力而變成現在的樣子。

生成式人工智慧雖然可能為公共討論造成危害,但也有機會促進更負責的討論,主要關鍵還是取決於閱聽人的態度。