Google最近的動作真的多。
感覺就是趁著OpenAI存糧打完了,瘋狂的撒豆子一樣往外面撒更新。
昨天晚上11點多,他們又發了一個關于Gemini的更新(其實功能禮拜天就上了,我也不知道他們為啥今天才發推文)。
就是這個東西。
這玩意,他會根據你的過往的所有Google搜索記錄,來讓模型更懂你,給你更加個性化的搜索的回答。
然后就是上周五,Google又發了Deep Research的更新,現在,底座換成了Gemini 2.0 Flash Thinking,基座比之前的1.5Pro能力還是強太多了。而且,是100w token的上下文。
再就是上周四,幾乎全網火爆的Gemini 2.0原生多模態,被玩出了各種花來。
更別提同樣在上周開源的Geeme3,以27B超小尺寸擊敗了DeepSeek v3、o3-mini等等。
Google這一周的動作,密集的有點離譜了。
但是每一個更新,都是實打實的,都是值得OpenAI,開個20分鐘直播發布會的玩意。
在體驗了幾天以后,我想說,Gemini 2.0,感覺還是被低估了,這波更新之后,已經成為我現在用的僅次于ChatGPT第二多的AI Chatbot產品。
因為,體驗和生態。
這3個新功能,我們一個一個來說。
第一個就是上周四更新的那個Gemini2.0的用嘴改圖。我也寫過一篇文章了:就不過多贅述了,只能說特別強。
網址在此:https://aistudio.google.com/,記得開魔法。
給大家看兩個好玩的case吧。
比如用嘴一鍵去水印。
或者一鍵換衣服。
甚至X上有一個賊好玩的,直接給自己換了個背景。
“ 你已經上班遲到了,你甚至還沒離開家……你沒有借口,于是你拍了一張今天健身的照片,然后打開 Gemini 2.0 flash expremental輸入如下指令:展示這位女士在 N 線 14 街站臺的一張自拍照,她豎起大拇指點贊,背景中有一群沮喪的 MTA 工作人員正在維修軌道。頭頂上方,一個小型 LED 屏幕顯示日期:2025 年 3 月 13 日。”
就,看著非常有用。
然后就是更新的第二個功能, Deep Research。
我也會用整篇文章,最大的篇幅,來聊這個功能。
我先表明態度,OpenAI的 Deep Research和o1 pro這兩個功能,是我至今還愿意為它付費200刀/月如此高昂價格的原因。
當你用過 Deep Research后,我相信,你一定會被其做震撼。
我自己是金融行業出來的,也跟N多金融領域的行業研究員還有科研的朋友交流過,大家基本的反饋都是作為老手,自己也起碼要干10個小時以上才能到達 Deep Research生產的研究報告的質量。
但是很多人可能不知道, Deep Research這個功能,其實是Google去年12月份,第一個發的。
但是吧,當時的底座,用的是Gemini 1.5 pro,那個模型,真的太爛了= =效果完全不夠看。
隨后才是2月份,OpenAI基于o3微調了一個模型,抄了一個他們的 Deep Research,把效果打到了新的高度,也讓 Deep Research這玩意,第一次跑了圈。
后面就是Preplyxity和Grok3,這兩個雖然也推出了類似的功能,但是名字其實都叫 Deep Search,純粹的AI搜索。跟 Deep Research幾乎沒啥關系。
Deep Research其實本質上是一個Agent產品,用戶提出問題后,會跟Agent一樣,先 拆解目標進行規劃,最后進行搜索、合成,產出一篇報告。
所以你能看到,最核心最核心的一步,其實是第一步, 先 拆解目標進行規劃,這個東西非常的考驗模型的規劃能力。
而規劃能力,就是邏輯能力的反應,所以你也可以說,這就是在深度考驗,模型的智能水平。
人OpenAI,用的是最牛逼最先進的o3微調,你Google,居然在2024年12月份,用的還是跟Sora同期的Gemini 1.5 pro,我都不知道用啥理由去理解Google,只能說都過去8個月了,他們還是忘不了當年被OpenAI狙擊的痛,所以至今還對Gmini 1.5 pro耿耿于懷念念不忘。。。
但是這一次,Google終于反應過來了,把基座模型,換成了Gemini 2.0 Flash Thinking Experimental,他們目前最新的推理模型。
雖然我覺得他們應該用2.0 Pro Thinking甚至是2.5才對。。。
你現在可以在Gemini的官網用到:
https://gemini.google.com/
左上角切換到 Deep Research模型或者下面對話框那打開 Deep Research按鈕,都行。
現在有個比較牛逼的點是 ,它免費。
OpenAI的 Deep Research貴到離譜,Plus會員(20刀/月)每個月智能用10次,產出10份報告,即使是Pro會員(200刀/月),每個月也只有150次。沒氪金的用戶,更是連體驗資格都沒有。
而這次,Google至少做了一個非常良心的事,即使你是免費用戶,也可以體驗到,真正的 Deep Research了,而不是那種垃圾 Deep Search。
每個免費用戶,每個月可以用X次,具體次數我把他們網站翻了個遍,也沒看到哪里寫清楚了。
只有這么一句。
反正可以白嫖,不行就換號大法啟動嘛,多大點事。
也給大家看一下效果。
比如我最近其實對一直在研究電影工業,也有部分工作是做這一塊,那么有一家公司是我一直想研究的,就是漫威。
所以我就把這段Prompt扔了進去。
“全面、系統地分析漫威(Marvel)在電影工業化進程中的布局與經驗,涵蓋歷史背景、核心戰略、制片體系、商業模式、營銷策略、技術應用,以及它如何與迪士尼等合作方共同塑造全球化、跨媒體的超級英雄宇宙。通過多角度調研與論證,提煉漫威在現代電影工業發展的成功要素,并思考未來趨勢與經驗教訓。”
跟OpenAI的 Deep Research的不同是,他會給你把框架和節奏拆完,讓你清晰的看到后面它會執行哪些步驟,你點擊開始研究之后,他才會去整個互聯網上去搜索。而 OpenAI的 Deep Research,是會在搜索的過程中,動態調整目標的。
當然你也可以修改方案,點擊以后用嘴改就行了。
而OpenAI的 Deep Research是會給你補全范圍,提問題,來激發你沒考慮到的部分。
在起手式上,OpenAI還是要強于Google的。
隨后就是搜索階段。
Gemini會默認展示思維過程,而且會用了巨大的UI畫幅去重點展示,搜了超級多的網站,甚至還有youtube。
在思考了10分鐘之后,一份報告,就會放在你的面前。
非常坦誠的講,這份電影工業化報告的質量,是沒有OpenAI生產的詳細和深度的。
搜索的很準,它搜了將近220個網站,我點進去看了一半,確實都很相關。但是最后的報告整合上,拉了胯了。
能解答我的一些疑惑,但是并沒有到那種直出即可用的地步。
而OpenAI的 Deep Research,是可以達到這個程度的。
可能還是受限于底層模型的原因,但凡我覺得Google換成Gemini 2.0 Pro Thinking,效果都可能會大幅提升,不過那樣的,可能又沒法免費了。。。
不過我的做科研朋友告訴我,他覺得,在科研領域上,Google比OpenAI好用,得益于Google 30年的搜索積累,和在google學術上的布局,搜索的精準度上會比OpenAI強非常多,最后得到的報告,也比OpenAI要好。
但是科研這塊我不懂,可能需要大家再去多測試一下,可以在評論區反饋。
總結就是, Gemini Deep Research模型能力拉了點,但是搜索能力很強,報告整合能力拉跨;OpenAI Deep Research搜索的精準度中規中矩,但是基座模型太強,整合能力無敵。
我這里也非常客觀的講一句我的理解。
Deep Research這種東西,會極高極快速的拉高你獲取高信息密度知識的上限,會大幅改變教育、研究的工作體系。
過往,無論是因為囊中羞澀,還是因為別的,沒有用過 Deep Research,那我非常的真誠的建議你,Gemini的這個 Deep Research,趁著目前還免費。
薅禿它。真的。
無論是做行業報告、還是做書籍總結、還是科學研究等等等等。
先用起來。真的。你會感受到,另一片天地。
最后,用簡短的篇幅,聊聊更新的第三個功能, Personalization。
當你第一次點進去的時候,會提示你,是否要跟你自己的Google賬號相關聯。
關聯了以后,Gemini就可以根據你過往的搜索記錄,來給你針對性的、個性化的回答了。
用Google搜索的越多,他就會越懂你,所以,你懂我什么意思把...
但是我發現了一個BUG,就是當我問題中有字母的時候,它的回答,就會變成英文,這個還讓人挺懊惱的。
但是,從這點依然能看出,Google在做產品上,終于開始把自己過往30年的積累,逐漸的往Gemini中融入了。
這種巨頭的生態積累,還是不容小覷的。
這一周密集的更新,個頂個都是很棒的功能,更別提Google手上還有個AI視頻的王炸,Veo2。
Google,感覺還是有點被低估了。
AI還遠未觸及頂點。
人類也遠未見識到它的極限。
>/ 作者:卡茲克
>/ 投稿或爆料,請聯系郵箱:wzglyay@gmail.com
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.