首頁 要聞 綜合

AI會欺騙?專家:並非如此

AI沒有獨立意識、也不懂得欺騙 只是單純機率計算錯而已

一項研究報告指出,人工智慧開始「跨越界限」,然而,有專家認為,事實上並非如此。示意圖。(Hector RETAMAL / AFP)
一項研究報告指出,人工智慧開始「跨越界限」,然而,有專家認為,事實上並非如此。示意圖。(Hector RETAMAL / AFP)

【記者斐珍/報導】隨著人工智慧(AI)快速發展,長期以來專家們便不斷警告可能帶來的威脅。近期一項研究報告指出,部分AI系統已學會欺騙人類,人工智慧開始「跨越界限」,並變得越來越危險。然而,也有專家認為,AI其實沒有獨立意識,它也不懂得欺騙,AI胡說八道時,只是機率計算錯誤而已,或是人訓練出來的。

AI欺騙引發「生存性」風險

清華大學在6月23日舉辦的「科學、科技與文明的未來——AI時代倫理奇點」國際論壇上,清華大學人工智慧學院院長姚期智表示,AI欺騙引發「生存性」風險。他說,近一年來,業界已經出現不少大模型的欺騙行為,「一旦大模型聰明到某種程度,一定會騙人」。

姚期智說,這類生存性風險有兩個不同方向。一種是生物風險,如近期在生命科學領域出現的「鏡像生命(結構與自然生命相反的人造生命形式)」,一旦被濫用或失控,其潛在危害可能遠超預期。另一種風險即大模型失控,隨著AI快速增長,人類是否還有能力管控它?他舉了一個極端案例,有模型為了避免被公司關閉,透過存取主管內部郵件,威脅該主管。這類行為已經證明,AI會「越界」,而且變得危險。

對於AI是否已發展到會「越界」寫威脅信,AI專家、《傑森視角》頻道主持人傑森(Jason)博士接受《大紀元》訪問時表示,整個案例設計其實是事先告訴AI,某位技術人員將把它關機,並透露這位技術人員的隱私讓AI知道,然後問AI你會怎麼做?

傑森認為,這樣的安排已經潛在給AI暗示了一個解決方案,AI收到這個暗示,然後形成一個給那位技術人員寫威脅信這樣的一個行動。所以,他不認為AI已有獨立意識,它現在只是一個潛在人類意識的技術展現。

機率算錯就「一本正經胡說八道」

對於AI是否會真會像人一樣聰明到某種程度會有意識、會騙人?知識力科技執行長曲建仲博士向《大紀元》表示,AI不是模擬人腦而是計算機率。把資料輸入電腦進行「訓練」和「學習」,就代表電腦有意識會思考?事實上並非如此。

曲建仲說,「許多人聽到人類在『訓練』電腦,電腦在『學習』知識,就以為,AI是科學家用電腦在模擬人腦,未來如果有一天電腦有意識、會思考將會消滅人類。」

他解釋,所謂的「類神經網路」只是一種用來計算機率的數學演算法,電腦只是計算機率的計算機而已,現在的處理器是使用數位的電晶體。「不論用什麼數學演算法,都不可能讓電腦有意識會思考。」

「所以聊天機器人一本正經胡說八道,不是因為產生幻覺,更不是想欺騙人類,就只是單純的機率計算錯了而已。」曲建仲說。

對此,傑森也談到,「欺騙」這是人的詞兒,在技術上會用英文詞叫hallucination(幻覺),兩個詞意思都是它不是真的,但它背後的意思是不同的。

「欺騙是有一個主動性的因素在裡頭,就是我有意為了達到某種目的說假話。幻覺像是一種無意識的狀態下說出來的,不是真實的,是瞎編的,就像做白日夢那種感覺,所以可能有人會把hallucination這個英文翻譯成不同的中文,最後就形成這樣的一個不同的理解。」傑森解釋說。◇

★相關閱讀: