有關機器或者人工智能機器給人類帶來災難的擔心已經持續了兩三百年。我們看到大部分有關世界末日的電影其實都和人工智能的電腦系統有或多或少的關系。大部分人不明白AI的原理,對未知的未來感到擔憂,這當然有情可原。但最近越來越多的高科技行業人士,甚至是AI的專家也開始對這個問題表達他們的擔心。那么,這些憂慮到底是基于什么樣的原因?是有所根據,還是杞人憂天、危言聳聽呢?AI會導致人類走向末日嗎?
掌握AI將統治全球 AI發展進入危險期
2023年的5月份,被稱為ChatGPT之父的Altman和超過350名人工智能方面的專家,聯合簽署了一份公開信。他們認為人工智能有可能導致人類滅絕的風險,所以應當將其視為與大流行病和核武戰爭同等的社會風險。Altman說過一句話,無論誰成為AI的領頭羊,他都將統治全世界。這句話讓很多人不寒而栗,因為如果這個技術落到了沒有道德的人或組織身上,那對人類將是滅頂之災。 Altman還建議建立類似國際原子能機構組織,安全監管AI的發展,政府也要加強監管。伊隆.馬斯克則認為AI技術有10%到20%的可能性會消滅人類。川普曾問過馬斯克,說現在有可能用AI技術來模仿美國總統,發動核戰爭觸發世界核大戰嗎?馬斯克的回答是肯定的,所以川普很擔心,如果AI失控的話,會給人類帶來鉅大的災難。
從長遠看,隨著AI從弱人工智能一步步發展到人工通用智能,甚至到超人工智能,人類的各項工作甚至是家庭角色包括妻子、丈夫都有可能被取代,這對整個社會的發展應該是顛覆性的了,更有可能是失控的。那時候或許它已經比人類聰明很多倍了,成了人類的主人了。即使沒到這一步,就拿Altman的一句話,他說無論誰成為AI的領頭羊,他都將統治全世界。這句話讓很多人不寒而栗,因為這個技術如果落到了沒有道德的人或組織身上,那對人類也是滅頂之災,人類有辦法避免這種可能性嗎?
馬斯克提到的AI有10%、20%的可能未來真的是會毀滅人類,那它可能是有一定的延展性。比如說把現有的技術再延展五六代、三四代,那么AI有可能會出現自我意識。
現在人工智能有一個比較危險的方向,叫做Agent,就是讓一系列人工智能程序中的每個程序扮演不同的角色,再用它們的交互的過程來實現某種工作。比如它的構造用十個AI的Agent,稱為代理人或者智能體,每個都扮演不同的角色,讓他們在交互過程實現一個軟件開發的全過程。這個過程在現有人工智能模型下還不那么可怕,但是如果將來人工智能本身智力越來越高的時候,那么在這個互相幾個Agent交互過程中,人類的可控性就被削弱很多了,你不知道它們在交互過程中會討論出一個什么樣的狀態來。為了達到某個目標,它們如果沒有一個明確的法律準繩或者說道德的準繩,它們會討論出什么過程?如果討論出的這個東西是很糟糕的,那么這個就讓人很擔心。
AI發展遭遇瓶頸期 人類緩口氣
未來AI會不會到最后控制了人類?大概在2022年的11月,當時ChatGPT出來的時候,很多人第一次被震驚到了,當時那個人工智能模型是OpenAI的HYPERLINK。等到大概2023年3月的時候,OpenAI就推出來了GPT-4,那個就徹底讓人驚訝了。如果把GPT-3理解成一個幼兒園,小學一二年級小孩兒智商的話,那么GPT-4其實就已經達到了高中生甚至有部分是大學生的智商,因為它通過法律考試的時候,成績超過了前10%,在這么短的時間內發展如此之快,這讓人非常驚訝。
在過去的一年里,GPT-4幾乎一直處于整個現在人工智能的山尖這個位置上,不管是Google出的Gemini(聊天機械人),還是后來Claude出的Claude3模型,雖然個這模型的能力稍微明顯地超出了GPT-4,但是它的提高是非常小的。從這個過程可以看到,其實很可能人類人工智能如果沒有新的技術突破的話,按現有的技術,未來的發展可能會緩下來。原來大家預計今年、明年就會出現真正的通用性人工智能,現在看來這樣的設想可能稍微有點突進了。是因為有技術上的原因使得目前GPT-4出現了某種意義上的瓶頸,再突破很可能是一種量化的突破,而不是GPT-4和GPT-3.5之間質變的突破,就是人類事實上是走向了一個數據瓶頸這樣的概念。
限制技術發展的原因主要是數據方向。有人說某種意義上講,GPT-4已經拿下了互聯網70%的信息,換句話說,在人類數據增長的過程中,它能拿到的數據已經基本上都拿下來了,要是說再擴展,再乘以十倍的數據量,那很可能就不是人類現有能生成的自然數據量了,可能就得用人工智能自動生成創造。那么這個時候就有點內卷了,因為AI的智力就來自于現有的知識,現有的知識卷出來的人工智能的輸出,然后以這個輸出再去作為數據,它就跟原來那個實實在在來自于人類原始的數據的質量,各方面就不一樣了,多樣性、創造力各方面都不一樣了。所以,數據現在成為整個人工智能發展的一個瓶頸,這使得整個社會有可能緩一口氣,來面對未來人類如何應對AI的問題。
AI改變資訊傳播模式 人類文明面臨巨大沖擊
AI軍事化,尤其是用AI來控制核武器,確實是一個最明顯讓人類擔憂的問題,但實際上AI帶來的沖擊遠遠不止在軍事化上。比如有兩個美國科學家用了一個普通電腦,使用AI技術給出指令,讓AI找出可以危害全人類的劇毒的化學結構,結果AI一個晚上就找出了五萬多個新的結構,這個結果把兩位科學家嚇壞了,全世界都應該嚇壞了才對,因為誰敢保證這個技術不被壞人使用?
還有深度偽造,AI也可以偽造文書、聲音、畫面。人類過去幾千年都相信眼見為實,這是人類認知和認識這個世界的基礎,是我們世界觀的基礎。如果未來變成眼見未必為實的話,我們現在已經是這個樣子,看到很多東西很真實,這是真的還是假的?我們應該相信什么?人類文明從某個角度看就是一種資訊流通模式的發展,從語言、文字、圖畫、最后到報紙、雜志,這種資訊承傳的文化也塑造了后面接下來的文明,但現在AI的發展其實已經沖擊到了資訊的創造和傳播的模式,這對人類文明的方式將是一個鉅大沖擊。
此外,有人預計按照現在的速度發展,20年之后AI技術可以取代大部分人的工作,也就是說20年之后,大部分人都沒有工作做做了,或者是不需要工作了,那這種所謂的進步是不是太快了?
我們真的能夠適應這個變化嗎?這對人類現存的社會結構、經濟結構會造成一個什么樣的沖擊,其實沒有人知道。這就是很多人工智能專家呼吁降低AI發展速度的一個原因,目前誰也不知道AI后面走向的含義,人類需要調整和適應未來的這種危機,這是肯定的。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.