
Google搜尋的AI摘要在2025年10月登台。(取自Google官網)
(央廣新聞台北4日訊)詐騙集團以AI大量產製釣魚網站,甚至是與你互動的聊天對象,詐騙成本更低、防詐難度更高。不只如此,連AI也開始被騙,像是中國恐試圖污染資料庫,讓Google「AI摘要」也淪為認知戰工具。產官學三方在2025假訊息大調查發佈會上共同研討AI時代假訊息與詐騙的全新樣態。
2025假訊息大調查出爐 LINE群組風險曝光
2025假訊息年度大調查結果上週出爐,研究主持人之一、台大新聞所所長謝吉隆指出,連續4年調查發現民眾接觸假訊息的比率持續上升達96.52%;其中,今年特別新增「個人投資理財」與「竊取個資」兩個假訊息主題類型後,馬上躍升至第一及第三多的主題,顯見詐財是假訊息的主要目的。至於媒體工作者及政治人物仍是最受假訊息衝擊的族群,今年也發現「科學家」的信任度最不受影響,只有23.09%民眾表示信任衰退。
同為研究主持人、台大新聞所教授洪貞玲也提到,過往調查其實沒有特別區分假訊息的「主題類型」,今年調查後卻發現同樣面對假訊息,民眾辨別「政治議題」真假時,傾向依據消息來源而非搜尋其他佐證資料,值得關注。
他說:「對於這些可疑的假訊息,民眾基本上比較會用自身經驗或相關方便的工具來做確認,比如說詐騙的訊息,他就會依照自己的知識跟經驗來判斷;可是如果遇到政治相關,反而民眾好像會比較在意要去找消息來源本身是不是正確,我覺得這個訊息其實值得我們思考,那是不是表示說民眾對於政治訊息,他很在意的是誰提供這個訊息給我們。」
此外,今年調查也引入新的實驗方法,終於有機會一窺相當封閉、過往難以觸及的通訊軟體LINE群組內的假訊息傳播。第三位研究主持人、中研院政治所研究員沈智新解釋,該研究依據政治傾向、管理機制等七大類別設計不同群組樣貌,具體瞭解民眾經驗。結果發現群組內有無「管理機制」是民眾判斷假訊息的最重要指標,假若一個LINE群組「討論熱烈卻無人管理」,超過半數民眾認為易有假新聞;而若以政黨傾向區分,調查也發現泛藍(白)或泛綠陣營雙方呈現「互不信任」的狀態,也就是認為對立陣營組成的群組更容易散播假訊息。

中研院政治所研究員沈智新解釋新的實驗方法如何研究LINE群組中的假訊息傳播。(央廣新聞饒辰書攝)
此份調查是由洪貞玲、謝吉隆、沈智新三位學者主持,並委託臺大動態民意研究平台針對台灣地區(含離島及澎湖)年滿20歲以上民眾進行網路問卷調查,於2025年12月20日至25日共6天回收2,755份有效問卷,並進行地區、性別和年齡的加權處理以符合母體結構,在95%信心水準下抽樣誤差約為±1.87個百分點。詳細《2025假訊息大調查》報告可點選此連結取得。

發佈調查結果的同時亦邀集產官學三方加入論壇(央廣新聞饒辰書攝)
騙你的可能不是真人 詐騙集團也有AI轉型
除發表調查結果外,同場亦邀請產官學三方針對「AI假訊息生態與全社會韌性」進行論壇討論。針對網路上詐欺訊息的數量,行政院打詐中心副執秘賴正庸經過實測後直言,1小時內他在社群媒體上滑到67篇跟AI有關的詐欺訊息,其中Threads更是2篇就有1篇的高頻率。他也坦言,即便是專家,仍約有十分之一的訊息難以分辨是否為詐騙,可見詐欺假訊息的問題因為AI而漸趨嚴峻。

行政院打詐中心副執秘賴正庸(右)、國家資通安全研究院副院長許建榮(左)。(央廣新聞饒辰書攝)
賴正庸進一步分享,近期他們嘗試以AI工具復刻詐騙手法,發現不論製作網頁、影片、客服都難不倒它,確認AI Agent(AI代理)已是當今詐騙活動慣用的手法。對此,事實查核組織MyGoPen創辦人兼營運長葉子揚也以近日媽祖繞境為例,指出民眾欲掃碼領禮物時連到的可能是假的「賣貨便」詐騙,該釣魚網站先偽裝成超商7-11請民眾加入假LINE帳號,最後透過共享螢幕等方式騙取民眾銀行帳戶資產。
在AI的幫助下,設計釣魚網站也變得更加容易。葉子揚分享,詐騙釣魚網站通常利用「短網址」轉址服務,而且一次就轉幾百次來繞過防詐騙的偵測機制,又或者同個網站在手機上看跟在電腦上看長得完全不一樣,這些在技術上並非難事,卻常打中民眾弱點。
AI詐騙行動更已走向「國際分工」,賴正庸說:「今年2月份才有一個有趣的案子,台灣有個詐騙集團自己生產詐騙引擎、AI agent的引擎,生產了引擎以後套上日文發音,直接Deep Fake(深偽)日本警視廳的警察賣給馬來西亞的詐騙集團,用這一套的引擎去騙日本人,還騙了不少。後來是跨國我們把它偵破,所以詐騙集團在馬來西亞,馬來西亞的黑道去詐騙、日本的黑道去收錢、台灣的黑道賣AI Tool(工具)。」
AI假醫生亂竄 健康頻道淪為認知戰溫床
台灣事實查核中心TFC董事黃兆徽則提到,經濟、民生、醫療這三類是TFC觀察到最多的假訊息類型,尤其最近更大量出現「AI假醫生」,不只詐騙民眾的荷包,也會在特定時刻詐騙人們的大腦、淪為認知作戰的溫床。
黃兆徽說:「因為每個人喜歡的醫生不同,所以差不多的內容它用AI變形之後,今天是一個老的男醫師跟你說、明天是一個年輕漂亮的女醫師跟你說,講的都是類似的內容。AI假醫生除了會傳播錯誤的健康概念、會要你去買你根本不需要的健康食品,更可怕的是它平常好像都只是在散播健康訊息,可是碰到一些政治議題的時候它又變成認知戰的目標。它騙了你的信任之後就會開始跟你說,你看台灣現在為什麼病這麼多,這是政府的什麼政策,就是開始變成認知戰。」

AI假醫生的影片封面。(取自TFC查核報告)
MyGoPen常接收民眾的假訊息回報,葉子揚也說,他們分析YouTube後,發現從去(2025)年5月開始出現很多假的AI醫生,而且他們都在說「台灣好棒」;直到今年3月左右,民眾回報的前10名有8名都是這些假醫生或健康養身頻道的AI影片,主要目標是銀髮族及高齡族群。他說:『(原音)後來我們就去觀察這些頻道的狀況然後分析到現在,可以看到它很明顯的從原本的陳志明醫師,然後開始變成講說台灣快要打仗了、我們要開始囤糧食、然後怎麼樣去準備這樣子,就比較有點引戰的內容,那個畫面都是變蠻多的』
極權國家滲透AI訓練資料 事實查核仍是解方
隨著去年10月Google搜尋的AI摘要服務在台灣開放後,這類假訊息的認知作戰目標也不再只限於真人,就連機器資料庫也淪為干預目標。同時身為Taiwan AI Labs內容執行長的黃兆徽就說:「日本國會的聽證發現極權國家中國、俄羅斯刻意製造假訊息、甚至有大量的內容農場,它已經不是想要傳Line給你了,它的目標是污染AI。當它散播了一大堆假訊息在網路世界的時候,AI又從網路世界找答案來訓練、找答案給你,那你收到的這個答案、你信以為真的答案,它裡面可能就是認知戰的結果。」
不過,水能載舟亦能覆舟,葉子揚舉例,若將前陣子網路流傳日本男童兇殺案的「兇手照片」丟給Google AI請它確認真假,AI都會說這是真的;然而該照片的兇手面孔實際上是AI生成,只是台灣許多媒體引用錯誤照片。他接著指出,直到他們刊登查核報告後,Google AI摘要便會提醒「MyGoPen有查證過這是假的 」,凸顯要對抗AI摘要的假訊息問題,「事實查核」仍是至關重要的一環。
機器人沒有人權 言論自由邊界有待重構
面對AI科技助長假訊息風險、對人類社會帶來新的衝擊,黃兆徽認為言論自由雖是基本人權,可是當平台上充斥AI機器人的時候,「機器人哪有人權」,因為它們背後實際上是一個個公關公司、極權國家,所以對此祭出一些管制手段、要求平台負起責任才是合理的作法。事實上,這次調查多數民眾都認為「加強政府立法管制」是遏止假訊息的最佳方法,比例達36.44%。
行政院政務委員林明昕也指出,在新的傳播環境之下有必要重新思考新聞學、法律學的理論框架,像是關於言論自由的界線、執法者對刑法「謙抑」的理解等等都應保持開放態度,順應時代氛圍演進。他也強調,行政手段、民事責任、乃至團體訴訟亦都是「管制」層次上可以施力的途徑,並非只有刑法一途。
針對假訊息議題,林明昕表示會持續強化事實查核、阻擋金流的國際合作,同時提高全民打詐的共識及意識,這些都是AI時代下仍須持續努力的方向。
