◎ 李忠憲
人工智慧的迅猛發展為 人類社會帶來前所未有的便利,但同時也撕開了一道深不見底的倫理裂縫。立委黃國昌於立法院質詢時播放了一段AI合成的音檔,聲稱是某檢察官對人民不當質詢的「證據」。儘管事後遭法務部質疑真偽,他卻未明確交代來源與技術細節。這段「模擬卻無誠信」的音檔,揭開了政治人物如何利用AI操弄輿論,顛覆公共討論的信任機制。
立委黃國昌於立法院質詢時播放了一段AI合成的音檔,聲稱是某檢察官對人民不當質詢的「證據」。(資料照)
然而,更令人震驚的是,這類AI技術也被詐騙集團掌握並精緻化應用。根據最新報導,一名台北婦人因接到假冒銀行來電,誤信帳戶遭冒用。之後一連串AI模擬的假警局畫面、視訊「地檢署」人員偵訊,甚至還搭配偽造文件與多聲道語音,令她誤以為身陷刑事案件。在高度恐懼下,她寄出提款卡與密碼,最終退休金與積蓄共8891萬元被詐騙一空。這起案例不是科幻小說,而是真實發生在你我社會的噩夢。
兩件看似無關的事件,其實共通地指出:當人工智慧得以「複製人性」,而使用者卻毫無倫理自覺時,科技就成為騙術的最高階形式。
海德格曾指出,科技不只是中立工具,而是揭示真理的一種方式。AI語音與影像的擬真能力,早已不是單純「方便使用」的技術,而是足以操控人類認知與判斷的權力工具。
當政治人物如黃國昌,選擇不明示技術使用背景、將AI產物當作「證據」使用時,他不只違反民主討論的誠信原則,更危及社會的語言信任系統。這種行為,正如哲學家哈里·法蘭克福所說的「Bullshit」:說話者並不關心真偽,而只在乎說服效果與情緒操作。與謊言不同,Bullshit 並非關心真偽,而是徹底無視真理,只為操控聽者情緒與反應。黃國昌的行徑,正符合這種語言詐術。
詐團利用AI深偽變臉技術,製作幾可亂真的虛假影像及聲音。(警方提供)
更可悲的是,詐騙集團同樣掌握這套邏輯。他們用AI模擬檢警人員、模仿國家機關的口吻與畫面,不再靠粗糙的話術與恐嚇,而是精準套用人們對「國家威權」的恐懼與信任。當「假檢警」以視訊對你說話、畫面還出現警徽、檔案與制服時,誰不會心慌?
這不只是技術被濫用,更是我們社會對於「什麼才是真實」的基本信任正在崩塌。
康德道德哲學的核心教誨之一是:人應永遠被視為目的,而非手段。這正是AI時代最被踐踏的倫理底線。黃國昌利用AI合成音檔「演一場戲」,不是為了追求事實,而是為了達成自己攻擊政敵的政治目的。詐騙集團則將受害者視為提款機與可操控的傀儡,毫無尊重其作為理性個體的尊嚴與決策權。
當AI技術讓虛假內容能夠輕易複製他人聲音、臉孔、言語與身份,我們不只是面臨資訊真偽的危機,而是身陷倫理價值被系統性掏空的黑洞。
這些事件背後最令人毛骨悚然的,不只是技術的可怕,而是「沒有任何人負責」的態度。
黃國昌拒絕說明AI音檔來源,卻又強調「只是表現效果」,平台業者允許deepfake技術流通,卻不強制標示或偵測,詐騙集團當然惡毒,但他們只是鑽入制度與社會鬆動地帶的投機者。
問題是,誰為這場倫理失序負責?
立法機關至今未針對AI模擬語音與影像作出明確規範。教育體系也未針對青少年進行AI識假教育。政府機關尚未建立有效的 AI 詐騙即時預警與通報機制。整體社會仍以為這些「科技犯罪」只是個案,殊不知:這是我們對誠信與尊重的共識正在瓦解的徵兆。
AI詐騙的真可怕之處,不在於技術本身,而在於我們願意用它來說謊、操弄與無責任地進行人際關係。技術沒有靈魂,但我們有。當人類選擇將科技作為操控他人的工具時,那不只是欺騙受害者,也是背叛了自己作為道德主體的本質。
AI詐騙的真可怕之處,不在於技術本身,而在於我們願意用它來說謊、操弄與無責任地進行人際關係。示意圖。(路透檔案照)
是時候正視:人工智慧時代的第一個大災難,不是來自機器的反叛,而是來自人心的墮落。
當 AI 成為權力操控的工具,當政治人物濫用技術誤導大眾,人民的反制不只是罷免,更是對倫理與真實的守護。
#大罷免大成功封口黃國昌
(作者為資安學者)
本文經授權轉載自李忠憲臉書
編輯精選