馬斯克又放大招!就在剛剛,全球科技圈被馬斯克扔下了一顆AI核彈!Grok3大模型登場,測試結果超越主流大模型!
日前,馬斯克旗下人工智能公司xAI開發的Grok-3模型正式發布。馬斯克表示,Grok-3為地球上最聰明的AI,Grok 3的計算能力是Grok 2的10倍以上。
的確,在直播現場演示過程中,Grok 3在數學、科學和編程基準測試中,Grok 3擊敗了谷歌Gemini、DeepSeek的V3模型、Anthropic的Claude和OpenAI的GPT-4o。
另外,演示還使用Grok3幫助火星飛船計算航天發射窗口,以及把俄羅斯方塊和消消樂兩款游戲“融合成一款”等等,性能可以稱得上強大。
同時,馬斯克還強調,Grok-3可以減少AI幻覺,方法是通過來回檢查數據并嘗試實現邏輯一致性。
AI幻覺,是指大語言模型編造它認為是真實存在的甚至看起來合理或可信的信息,與現實世界事實或用戶輸入不一致的現象,說白了就是“胡說八道”,這也是AI大模型使用過程中普遍存在的現象。能解決或者減少AI幻覺,會極大的提高用戶使用體驗。
另外需要注意的是,Grok-3的訓練成本極高,使用了高達20萬塊的英偉達GPU,遠超此前的版本。不過馬斯克在2024年7月透露, Grok 3用了10萬塊英偉達H100芯片進行訓練,有可能是進行了擴容。但不管怎樣,這顯然跟DeepSeek形成了鮮明的對比。
首先,OpenAI前聯合創始人、特斯拉前AI總監安德烈·卡帕西在使用了2個小時Grok3后表示,Grok 3加上深度思考模式與OpenAI最強推理模型o1 pro大致相等,并且略優于DeepSeek的推理模型R1。也就是說,Grok3并沒有太大的領先優勢。
其次,目前來看,美國AI大模型有點大力出奇跡的意思,畢竟他們在算力方面有著充足的保障。
根據于此,Grok3可能比DeepSeek-V3的6710億參數要大一個數量級。
但這也從側面再次證明,國產大模型在技術方面沒有任何問題,甚至做到了領先。因為先進的AI芯片一直被美國限制著,算力儲備和應用方面美國處于領先,這或許也倒逼了國產大模型在參數壓縮、算法等方面不斷創新。所以說,在AI大模型領域,算力并非唯一的決定性因素。
通過大量數據和超大的算力進行長時間訓練,然后獲得一定的定性,并不一定是AI行業發展的最優方式,畢竟除了美國,其他國家難有這樣的能力。
以xAI之前擁有的10萬個英偉達GPU卡的計算機集群為例,這種規模在美國是科技巨頭們的標配,由于數量巨大,不僅需要巨額資金,對電力也有極高的要求。根據相關機構的估計,一個10萬卡集群一年消耗電量約為15.9億度電,相當于15 萬個家庭一年的用電量,在美國,這種集群僅電力支出就高達約1.3億美元。
雖然AI的發展趨勢,很重要,但目前還遠遠沒有到能改變人類世界的地步,如此巨大的電力消耗,顯然是有些暴殄天物了,甚至有些只是有錢人游戲的味道。
要知道,人們的日常生活、工作,工業生產,科學研究,全社會的運行都需要電,即便是到了科技高度發達的今天,現在仍然有很多國家面臨缺電的問題,影響到無數人。所以,無休止的發展算力規模,并不健康。需要在大模型、數據、算力之間找到一個合適的關系,才能發揮出AI的真正意義。
總之,隨著Grok3的問世,全球AI大模型的競賽還將繼續下去,但我們可以預見,這條賽道的未來將會是百花齊放的格局,因為開源、低成本、高性能三位一體的DeepSeek出現后,玩法已經變了,誰都可以通過DeepSeek去構建自己的大模型。
再有,馬斯克還表示,Grok3 將在后面開源。并且,OpenAI CEO山姆·奧特曼在網上發起了一個投票,詢問網友,是做一個相當小但仍需要在GPU上運行的o3-mini級開源模型更有用,還是做一個能做得最好的手機大小的開源模型。就連openai也要開源了。
可見,開源才才是方向。
不管怎樣,盲目堆積算力的時代已經過去,屬于全民大模型的時代正在到來,那么,你準備在AI領域大干一番嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.