人工智慧(AI)近年快速發展,有心人士也利用深偽(Deepfake)技術製造幾可亂真的造假內容。國家中山科學研究院資通所督導長黃益進16日表示,深偽技術主要可分為文字、語音、圖片及影片,用於認知作戰上,可偽造錯誤情資、製作爭議訊息,造成民眾對立與衝突。
國防部16日召開「深偽(Deepfake)技術簡介及國防應用樣態」及「國軍預防熱傷害應處作為」記者會。
黃益進表示,深偽(Deepfake)技術主要可分為文字、語音、圖片及影片四大部分。駭客組織可利用深偽技術,產生以假亂真的電子郵件,相較於人工撰寫的釣魚郵件,最高可提升約4倍郵件點擊率,可運用於盜取特定人物的重要個資及機密資訊。
談到深偽技術在國防的運用,黃益進表示,認知作戰可偽造以假亂真的錯誤情資,並將其廣泛散播,使目標對象於資訊不對稱的情況下,信以為真,產生內部矛盾,甚至瓦解戰鬥意志,也經常運用資訊作戰,以達成認知作戰目的。
他以俄烏戰爭為例,2022年時駭客製作烏克蘭總統澤倫斯基準備投降的深偽影片,並發布至數個烏克蘭的新聞網站,試圖侵擾軍心;此外,深偽技術還可加工衛星圖片,產生出不存在的建築或地形,並在網路散播,藉欺騙、混淆偵察工作,讓電腦做出錯誤判斷。
至於國軍是否有辦法將深偽技術,應用於「反認知作戰」?黃益進表示,深偽技術日新月異,中科院內已有相關研發能量,可以提供國軍相關技術協助。
國防部發言人孫立方少將表示,根據過往經驗,漢光演習期間,中共會製造大量的假訊息,例如「漢光是給三軍統帥的逃跑路線演習」、「國軍官兵叛逃」、「國軍發生重大失誤導致傷亡」等,來影響台灣軍民士氣。
孫立方表示,由於中共認知作戰攻勢不斷,國軍不可能對每一條訊息都進行回應,目前採取的作法是以「不對稱」的方式,針對假訊息進行反制,在假訊息還未傳散出來前截斷,就是主動掌握議題及輿論的重點。
他進一步表示,共軍認知戰概念不單純只靠訊息影響,而是將軍事行動及訊息扣合後,對民眾認知產生影響,型塑立場、改變想法或行為。
他舉例,在國內輿論圈及社群媒體上,中共都用極化的手法影響相關討論,一個有相當理性討論空間的中性議題,可被大量偕同是操控,變成完全極化、左右兩邊完全沒有交集的討論;或用分化手法,將台灣分成政府民間、軍隊民眾等類似手法很多,國軍都有掌握和處理。