儘管世界許多人普遍看好AI的發展,但許多關於AI的問題仍處於無解的狀態,甚至這些問題有著擴大的趨勢。包括詐騙、假訊息操縱選舉、版權等問題,為此專業人士對於AI產生的問題發出警告。
AI的版權爭議
由26名日本著名聲優組成的「NOMORE未經許可生成AI」組織發表聲明,反對自己的聲音在未經許可的情況下被「生成式AI」不當使用,該影片於10月15日發表到X、YouTube等各大社群平台上。
他們希望大家重視著作權,呼籲業界和政府應加速擬定規範,避免這種問題再發生。實際上,日本新聞協會、日本攝影著作權協會、日本出版業去年也曾發出類似的呼籲,而日本政府當時有回應這項要求,並制定相關規定,但實際效果卻不如預期。
另外,《紐約時報》、富比士(Forbes)和康泰納仕(Condé Nast)等媒體和出版商,日前共同指控亞馬遜執行長貝佐斯(Jeff Bezos),指控他支持的AI初創公司Perplexity,侵犯版權利益。
原因是Perplexity未經許可就使用它們的資料來生成搜索結果。《紐約時報》去年以相同的理由起訴了OpenAI和微軟(Microsoft)。
AI成為假訊息與詐騙工具
除了版權問題之外,極權政府和壞人濫用AI,進行詐騙、傳播假訊息的問題也在不斷擴大,且令人難以察覺和分辨。
日本媒體10月3日報導指,中共利用AI技術創立超過200個帳號,在社群平台上散播有關於「沖繩希望獨立」的假影片和訊息。這些帳號聲稱「琉球不屬於日本,屬於中國」,希望藉此分化沖繩與日本之間的關係。目前這些影片已經在社群媒體上累積數百萬次互動。
中共、俄羅斯、伊朗就曾被多次披露,利用AI的「深偽技術」(Deepfake)和AI製造許多假訊息和影片,並將這些東西發布到國內外各大社群平台,以達宣傳洗腦或分裂歐美等國際社會的目的。
知名科技創投公司Y Combinator的執行長譚(Garry Tan)10月11日揭露,壞人利用AI生成的語音進行「相當複雜的網路釣魚騙局」。
微軟解決方案顧問公司Sammitrovic的IT顧問米特羅維奇(Sam Mitrovic)9月表明,自己收過Gmail帳戶的「假信件」、「假語音」,只是當時有所警覺才沒有上當受騙。
他說,「AI騙局變得越來越複雜、越來越令人信服,且部署的規模也越來越大,這種騙局聽起來、看起來都很合理。這種騙局我給它A的分數,因為很多人都可能會上當。」
日本的電腦工程師清原仁(Kiyohara Jin)對《大紀元》表示,「目前,世界上的AI發展速度過快,沒有走在一個健康的發展路線上,AI很可能引發人類無法承受的災難。多數人為了眼前利益,並未真正重視安全,且人的道德層面也尚未跟上,這就讓那些道德敗壞的團體或個人有漏可鑽。」
辛頓:應對AI有所規範
辛頓有「AI教父」之稱,他與普林斯頓大學的霍普菲爾德(John J. Hopfield)10月11日共同獲得2024年諾貝爾物理學獎。不過,他們並沒有感到喜悅,而是對於人類的未來感到擔憂。
辛頓在諾貝爾委員會的視訊會議上表示,「我認為我們正處於歷史的分岔點,接下來的幾年裡,我們需要弄清楚,是否有辦法應對這個威脅。」
辛頓呼籲研究更多關於AI的安全問題,並弄清楚如何控制比人類更聰明的AI。
他說,如果不控制AI這項技術,就會增加網路釣魚攻擊、假影片和政治干預的風險,「現在相當多優秀的研究人員相信,AI在不久的將來會變得比人更聰明,而我們需要認真思考將會發生什麼。」
他在一次採訪中明確提到,美國現行法律對於AI用於軍事上的規範還不夠完整,這可能造成AI被用於戰爭時,出現難以掌控或糟糕的狀況。另外,中共方面它沒有法律的顧忌,因此投入大量資源去發展與AI相關的武器,這種情況更令人擔憂。
霍普菲爾德:世界或被少數人控制
10月11日,霍普菲爾德教授在普林斯頓大學禮堂的視訊通話中,也表達了他的擔憂。
他說,「任何事物都有正反兩面,但我們對於AI還不夠了解,也不知道它的極限在哪裡。這讓我十分不安,因為它有許多不可控制的地方。尤其是現在大家正在大力推動的AI神經網絡系統。」
「我擔心的不是AI,而是AI與全球資訊流結合後的結果。」霍普菲爾德最後總結,AI只依靠簡單的演算法,就可以控制非常大的資訊系統,這讓人感到不安;人們還不夠了解其運作方法,且世界很可能被這些東西或少數人操控。◇