獨立電視製片人李軍在新唐人《菁英論壇》節目中表示,現在有一大批高科技專家學者、政客,對於AI的發展憂心忡忡。2023年的5月份,被稱為ChatGPT之父的Altman和超過350名人工智能方面的專家,聯合簽署了一份公開信。他們認為人工智能有可能導致人類滅絕的風險,所以應當將其視為與大流行病和核武戰爭同等的社會風險。Altman說過一句話,無論誰成為AI的領頭羊,他都將統治全世界。這句話讓很多人不寒而慄,因為如果這個技術落到了沒有道德的人或組織身上,那對人類將是滅頂之災。Altman還建議建立類似國際原子能機構組織,安全監管AI的發展,政府也要加強監管。伊隆‧馬斯克則認為AI技術有10%到20%的可能性會消滅人類。川普(特朗普)曾問過馬斯克,說現在有可能用AI技術來模仿美國總統,發動核戰爭觸發世界核大戰嗎?馬斯克的回答是肯定的,所以川普很擔心,如果AI失控的話,會給人類帶來巨大的災難。
李軍說,從長遠看,隨著AI從弱人工智能一步步發展到人工通用智能,甚至到超人工智能,人類的各項工作甚至是家庭角色包括妻子、丈夫都有可能被取代,這對整個社會的發展應該是顛覆性的了,更有可能是失控的。那時候或許它已經比人類聰明很多倍了,成了人類的主人了。人類有辦法避免這種可能性嗎?
人工智能專家傑森在《菁英論壇》中表示,馬斯克提到的AI有10%、20%的可能未來真的是會毀滅人類,那我想它可能是有一定的延展性。比如說把現有的技術再延展五六代、三四代,那麼AI有可能會出現自我意識。
現在人工智能有一個比較危險的方向,叫做Agent,就是讓一系列人工智能程序中的每個程序扮演不同的角色,再用它們的交互的過程來實現某種工作。比如它的構造用十個AI的Agent,我叫它代理人或者智能體,每個都扮演不同的角色,讓他們在交互過程實現一個軟件開發的全過程。這個過程在現有人工智能模型下還不那麼可怕,但是如果將來人工智能本身智力越來越高的時候,那麼在這個互相幾個Agent交互過程中,人類的可控性就被削弱很多了,你不知道它們在交互過程中會討論出一個什麼樣的狀態來。為了達到某個目標,它們如果沒有一個明確的法律準繩或者說道德的準繩,它們會討論出什麼過程?如果討論出的這個東西是很糟糕的,那麼這個就讓人很擔心,我對這個方向是擔心的。
AI發展遭遇瓶頸期 人類緩口氣傑森在《菁英論壇》表示,未來AI會不會到最後控制了人類?2023年我覺得可能,今年我稍微樂觀了一點點。大概在2022年的11月,當時ChatGPT出來的時候,我第一次被震驚到了,當時那個人工智能模型是OpenAI的GPT3.5,已經讓我非常吃驚了。等到大概2023年3月的時候,OpenAI就推出來了GPT-4,那個就徹底讓我驚訝了。如果把GPT-3理解成一個幼兒園,小學一二年級小孩兒智商的話,那麼GPT-4其實就已經達到了高中生甚至有部分是大學生的智商,因為它通過法律考試的時候,成績超過了前10%,在這麼短的時間內發展如此之快,這讓我非常驚訝。當時我在節目中說,人類社會出現奇異點了,就是人類從此走上了一條不歸路。
當然在今年,我稍微放心了一點。在過去的一年裡,GPT-4幾乎一直處於整個現在人工智能的山尖這個位置上,不管是Google出的Gemini(聊天機械人),還是後來Claude出的Claude3模型,雖然這模型的能力稍微明顯地超出了GPT-4,但是它的提高是非常小的。從這個過程我就看到,其實很可能人類人工智能如果沒有新的技術突破的話,按現有的技術,未來的發展可能會緩下來。原來大家預計今年、明年就會出現真正的通用性人工智能,現在看來這樣的設想可能稍微有點突進了。就我看的話,是因為有技術上的原因使得目前GPT-4出現了某種意義上的瓶頸,再突破很可能是一種量化的突破,而不是GPT-4和GPT-3.5之間質變的突破,就是人類事實上是走向了一個數據瓶頸這樣的概念。
傑森表示,限制技術發展的原因主要是數據方向。有人說某種意義上講,GPT-4已經拿下了互聯網70%的信息,換句話說,在人類數據增長的過程中,它能拿到的數據已經基本上都拿下來了,要是說再擴展,再乘以十倍的數據量,那很可能就不是人類現有能生成的自然數據量了,可能就得用人工智能自動生成創造。那麼這個時候就有點內卷了,因為AI的智力就來自於現有的知識,現有的知識卷出來的人工智能的輸出,然後以這個輸出再去作為數據,它就跟原來那個實實在在來自於人類原始的數據的質量,各方面就不一樣了,多樣性、創造力各方面都不一樣了。所以,數據現在成為整個人工智能發展的一個瓶頸,這使得整個社會有可能緩一口氣,來面對未來人類如何應對AI的問題。
中共無道德底線 歐美阻其核武AI化大紀元資深編輯與主筆石山在《菁英論壇》表示,全世界現在談的最多的就是AI軍事化,尤其是核武器,一旦真的發射以後就控制不住了。因為現在美國跟歐洲已經有默契了,它們正在跟中國和俄羅斯試圖要談這個問題,就是一定不能把AI用在核武器的控制上面。如果AI突然偽裝成總統發出核攻擊的指令,這是太令人恐懼的一個前景了。
傑森在《菁英論壇》中表示,AI控制核武器,我想目前還沒有哪個神經病的國家想這麼做,但是,這是在一個和平理性的狀態下說這樣的話。有很多鼓勵AI發展的那些技術人士或者專家,他們說的很多話都是基於目前這樣的狀態,但是他沒有在動態的極端情況下去考慮這個事情會往哪個方向走。而中共是沒有道德底線的,從我們知道的生物科技等各方面都可體現出來,它做出來的東西就是超出人類的倫理道德。但是這個過程中,要是中共真的在未來因為某種原因,不管是南海、台灣海峽跟整個世界變成對手的時候,中共會不會因此開始考慮把AI技術更多地應用於武器上?不說核武器,只是導彈各方面,事實上存在非常大的可能性。獨裁國家經常會說一句話,就是大不了我們死幾億人換來什麼什麼,這就是為什麼目前AI在國際上處於兩難的狀態。一方面大家都覺得應該控制AI的發展,一方面又說應該發展AI,不能讓中共領先了,AI要由西方控制,讓中共發展起來怎麼辦?人類事實上某種程度上是被一些邪惡的因素裹挾著,以技術競爭為藉口,把人類往一個非常危險的境地上推。
AI改變資訊傳播模式 人類文明面臨巨大衝擊《大紀元時報》總編輯郭君在《菁英論壇》中表示,AI軍事化,尤其是用AI來控制核武器,確實是一個最明顯讓人類擔憂的問題,但實際上AI帶來的衝擊遠遠不止在軍事化上。比如有兩個美國科學家用了一個普通電腦,使用AI技術給出指令,讓AI找出可以危害全人類的劇毒的化學結構,結果AI一個晚上就找出了五萬多個新的結構,這個結果把兩位科學家嚇壞了,我想全世界都應該嚇壞了才對,因為誰敢保證這個技術不被壞人使用?
還有深度偽造,AI也可以偽造文書、聲音、畫面。人類過去幾千年都相信眼見為實,這是人類認知和認識這個世界的基礎,是我們世界觀的基礎。如果未來變成眼見未必為實的話,我們現在已經是這個樣子,看到很多東西很真實,我都想這是真的還是假的?我們應該相信什麼?人類文明從某個角度看就是一種資訊流通模式的發展,從語言、文字、圖畫,最後到報紙、雜誌,這種資訊承傳的文化也塑造了後面接下來的文明。但現在AI的發展其實已經衝擊到了資訊的創造和傳播的模式,這對人類文明的方式將是一個巨大衝擊。
此外,有人預計按照現在的速度發展,20年之後AI技術可以取代大部分人的工作,也就是說20年之後,大部分人都沒有工作做了,或者是不需要工作了,那這種所謂的進步是不是太快了?
郭君表示,我們真的能夠適應這個變化嗎?這對人類現存的社會結構、經濟結構會造成一個什麼樣的衝擊,其實沒有人知道。這就是很多人工智能專家呼籲降低AI發展速度的一個原因,目前誰也不知道AI後面走向的含義,人類需要調整和適應未來的這種危機,這是肯定的。
新唐人、大紀元推出的新檔電視節目《菁英論壇》,是立足於華人世界的高端電視論壇,該節目將彙集全球各界精英,聚焦熱點議題,剖析天下大勢,為觀眾提供有關社會時事和歷史真相的深度觀察。
本期《菁英論壇》全部內容,敬請線上收看。
《菁英論壇》製作組
責任編輯:李昊#
轉載和引用《菁英論壇》文章,請保持原文內容,並標明出處。