首頁 科技 科技要聞

面對AI風險 學者籲建安全資料庫

台灣多個民團8月25日舉辦「AI與風險社會」講座,邀學者專家與談。(中央社)
台灣多個民團8月25日舉辦「AI與風險社會」講座,邀學者專家與談。(中央社)

【記者鍾元/台北報導】【大紀元2024年08月26日訊】(大紀元記者鍾元台灣報導)台灣多個民團25日共同主辦「AI與風險社會」講座,邀請學者專家與談。學者分析人工智慧(AI)發展背後的風險指出,面對AI風險,台灣政府應建構安全、本土化資料庫。

由台灣獨立建國聯盟、台灣安保協會、現代文化基金會、新台灣和平基金會主辦的「AI與風險社會」講座,由黑熊學院執行長朱福銘主持綜合討論。

文化大學新聞學系教授陳慧蓉探討了AI對新聞業及社會的影響。她將AI背後的風險比喻為「進擊的巨人」,建議應該築起風險防範的三道城牆:「主權資料庫建置、責任應用與發展、AI公民識讀。」

陳慧蓉呼籲政府、企業、公民社會應持續研究AI,並發展更安全的規範。她強調AI背後的數位學習與人類的語言學習模式不同,社會應該關注未來AI數位系統學習失控時,政府、社會應該如何制止。

陳慧蓉提到,被稱之為「AI教父」的前Google執行長辛頓(Geoffrey Hinton)已指出幾個AI風險:

一、被惡意國家、組織、個人所錯用;二、造成科技性失業(尤其是機械性與記憶性的工作,例如法務助理,個人助理,翻譯等);三、通用AI對人類社會的存在性威脅(例如個人及公司AI系統不僅發展自己的程式碼,也開始跑自己的程式碼 ,如同火車開始蓋自己的軌道)。

陳慧蓉連結到8月1日上路的歐盟《人工智慧法》(AI Act),以「風險」為主軸區分AI的四種風險,分別為:

一、「不可接受風險」(Unacceptable Risk)是完全禁止,例如社會信用積分系統、操弄型AI。二、「高風險」(High Risk)也是歐盟AI法案主要規範對象。三、有限風險(Limited Risk)針對透明化規範,開發者及部署者必須讓終端使用者知道他們是與AI互動,例如聊天機器人,深偽,AI生成照片。四、「最低風險」(Minimal Risk)則不受歐盟AI法案所規範,例如AI電玩,垃圾郵件過濾器等。

陳慧蓉提到歐盟對AI的規範,隨著生成式AI的發展,也會隨之修正。她指出,AI資料庫經常忽視台灣本地文化,導致AI生成的內容,不符合台灣本土特徵。對此,她認為目前以台灣主體性為文本的「可信任生成式AI對話引擎」(TAIDE),引入台灣特有的語料庫。她也呼籲未來台灣的AI重點發展,更應該關注轉型正義及永續價值,建構「可信任」AI模型,以反映民主社會的多元性。

台灣勞工陣線秘書長孫友聯提到ChatGPT都承認自身的「偏見與歧視」,他也提到大量使用AI,讓從事人的服務的行業(如銀行、咖啡館)逐漸失去溫度。

孫友聯表示,隨著科技進步,勞動市場正在重塑,人們在生產過程中使用先進的機器設備代替人類勞動,讓部分職業可能被AI取代,形成「科技性失業」。此外,他說,在勞動領域,因為AI具有高重複性的特徵,可能會對勞動者的性別歧視、員工管理、人臉辨識及工作安全等方面造成挑戰。

孫友聯呼籲,政府在發展AI法制過程中,不可遺漏社會保險及勞動法律領域。透過制度化的措施為個人提供足夠的「緩衝」,避免因為AI的蓬勃,忽略讓勞動者掉入被邊緣化或被社會排除的風險,以應對AI發展過程所帶來的挑戰。

文化大學哲學系教授吳豐維以哲學家對風險和AI開頭,指出當代哲學如何看待AI的潛在風險和道德問題,並分析了AI法案如何通過風險評估來制定法律規範。

吳豐維指出,近年歐盟已基於不同的AI風險,來制定不同強度的規範。他提醒台灣政府未來可參照歐盟法案,當要促進AI的發展時,目的是保護人們的健康、安全與基本權利免於AI的傷害,同時針對高度風險AI的提供者/開發者制定規範,以保護AI 的發展。

此外,吳豐維提醒,根據歐盟的《人工智慧法》,政府應該特別禁止AI操弄行為與決策、剝削弱勢、收集敏感的生物識別、社會評分,以避免過度發展的AI系統反過來傷害公民社會、國家主權。

吳豐維提出歐盟《人工智慧法》的倫理特色,AI具有目的義務論(deontology)性格,「隱私」(privacy)、「尊嚴」(dignity)、「自主」(autonomy)。歐盟的AI法案所提出的風險評估,在哲學上為「負向效益主義」(negative utilitarianism)特性。就「風險」概念,採取的是兩害相權取其輕。

吳豐維強調,AI資料庫會導致「移風易俗」,因為不同的資料庫,有不同價值觀,必須重視「主體性」乃至「主權」問題。他提到,台灣所使用的資料庫必須能反映出台灣的主權、特有的價值觀,避免在使用AI的過程中,被錯誤的資訊或價值觀所誤導。

他指出,AI的發展變成超級智慧,也有一種「可能的」風險。若AI的判斷出現嚴重偏離,也會導致反過來形成傷害人類的決策。如果未來AI資料庫發展成「超級智慧」,判定人類「長期」對地球是有危害,就有可能反過來將人類當作是攻擊的目標。

責任編輯:葉紫微#