今年以來,中國AI企業深度求索(DeepSeek)發布的開源大模型DeepSeek-R1火爆出圈,引發全球廣泛關注。如今,幾乎所有人都在談論DeepSeek帶來的震撼,而且現在各行各業的公司、政務服務系統以及科研機構和高校等單位,都在全面接入DeepSeek-R1大模型。在這樣的背景下,可能不少人也想在自己的筆記本上部署DeepSeek-R1系列大模型來感受它的魅力。那么問題來了,如果用集顯輕薄本來跑DeepSeek-R1系列大模型,目前市面上主流的筆記本平臺,主要是AMD銳龍AI 300系列處理器和英特爾酷睿Ultra 200H系列處理器,在這兩大平臺上跑DeepSeek大模型,誰的運行速度更快呢?
DeepSeek-R1系列大模型介紹
在測試開始之前,先簡單介紹下DeepSeek-R1系列大模型。2025年1月20日,深度求索公司正式推出DeepSeek-R1大模型,它配備6710億個參數(即671B),得益于其創新的MoE(混合專家)架構設計,它們能根據具體任務需求智能地激活相關參數。在處理每個詞元時,它們僅需激活約370億參數(37B)就能實現高效精準的任務處理能力。
此外,DeepSeek-R1的輸入上下文長度是128K,能夠一次性解析約6.5萬漢字的長文本,而且DeepSeek-R1并不存在其他規模參數的版本,也就是說671B規模的DeepSeek-R1是真正的“滿血版”。
除了“滿血版”,深度求索公司還通過DeepSeek-R1的輸出“蒸餾”出六個小模型,這六個蒸餾小模型的名字都有DeepSeek-R1-Distill的前綴。所謂蒸餾,指的是知識蒸餾(Knowledge Distillation),它是AI領域的一項模型訓練技術,該技術通過類似于“教師(DeepSeek-R1)-學生(Qwen2.5、Llama-3.1等開源模型)”的方式讓規模較小、結構較為簡單的AI模型從已經經過充足訓練的大型、復雜模型身上學習其掌握的知識。
深度求索公司通過DeepSeek-R1的輸出基于Qwen2.5-Math、Qwen2.5、Llama-3.1和Llama-3.3等開源大模型蒸餾出六個小模型,它們分別是DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Llama-8B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B以及DeepSeek-R1-Distill-Llama-70B。根據深度求索公司公布的數據,蒸餾的32B和70B模型在多項能力上實現了對標OpenAI o1-mini的效果。
DeepSeek-R1和蒸餾出來的六個大模型都是開源的,每個人都可以下載部署,不過不同規模的大模型在部署時硬件的要求也不同,因為在本地部署大模型時對平臺的內存容量和顯存容量要求非常高,比如DeepSeek-R1的參數規模達到671B,經過Q4_K_M量化之后的模型文件也有404GB存儲空間,也就是說它至少需要500GB以上的內存或者顯存容量才能運行,這不是普通筆記本能應付的。
因此,更適合部署在筆記本平臺的是那六個蒸餾出來的模型。舉個例子,使用主流的INT4量化方案,DeepSeek-R1-Distill-Qwen-32B的文件體積為20GB,至少需要24GB顯存或者32GB內存才能運行;DeepSeek-R1-Distill-Llama-70B的文件體積為42.52GB,至少需要64GB內存或者顯存才能運行。從這個角度來看,現在大多數輕薄本都配備32GB內存,所以我們可以嘗試在這些輕薄本上部署32B及以下規模的DeepSeek-R1-Distill系列大模型。
AMD官方給出的推薦顯示,銳龍AI Max+ 395平臺在特定條件下最高可運行DeepSeek-R1-Distill-Llama-70B大模型;銳龍AI 9 HX 370平臺最高可運行DeepSeek-R1-Distill-Qwen-14B大模型;銳龍8040/銳龍7040平臺最高可運行DeepSeek-R1-Distill-Llama-14B大模型。
測試平臺介紹
AMD銳龍AI 9 HX 370 VS 英特爾酷睿Ultra 9 285H
看到這里,可能很多人都想知道自己的集顯輕薄本到底適合部署DeepSeek-R1系列中的哪個大模型以及它們的速度如何。還有的讀者可能想知道在本地跑DeepSeek-R1系列大模型時,AMD銳龍筆記本的速度快還是英特爾酷睿Ultra筆記本的速度快。別急,我們馬上測給大家看。
進入正式測試之前,我們先簡單介紹本地對比測試的兩大平臺。AMD陣營選擇的是一款搭載銳龍AI 9 HX 370處理器的超輕薄本,它配備32GB LPDDR5X 7500雙通道內存、1TB PCIe 4.0 SSD,集顯則是基于RDNA 3.5架構的Radeon 890M。英特爾平臺選擇的是一款搭載酷睿Ultra 9 285H處理器的輕薄本,它配備32GB LPDDR5X 7500雙通道內存、1TB PCIe 4.0 SSD,集顯則是基于英特爾Xe+架構的銳炫Arc 140T。
其中銳龍AI 9 HX 370是AMD第三代AI PC處理器銳龍AI 300系列的旗艦,在售的采用這款處理器的筆記本產品非常多,比較有代表性。而酷睿Ultra 9 285H也是英特爾第二代Ultra 產品中H-SKU的旗艦,在市面上高性能輕薄本中采用較廣泛,也非常具代表性。我們就通過這兩款典型處理器的表現,來測試分析AMD銳龍AI和英特爾酷睿Ultra在運行DeepSeek中的表現。
在運行大模型時,筆記本需要高效處理海量的并行計算,在并行計算這方面,因為顯卡的并行計算能力強大,還支持豐富的專屬API,顯存的帶寬也遠大于內存帶寬,能夠降低延遲,提供更快的速度。所以我們推薦大家在輕薄筆記本上部署DeepSeek-R1系列大模型時優先選擇用顯卡(集顯)來驅動,以獲得更好的使用體驗。
正因如此,本次對比測試的關鍵是AMD和英特爾兩大平臺內置集顯的比拼。雖說處理器是整個平臺的性能基石,但是在本地運行DeepSeek這樣的大模型時,主要看其集顯的并行性能。AMD陣營的Radeon 890M顯卡采用RDNA 3.5架構,配備1024個流處理器、16組計算單元,支持實時光追以及一系列AMD獨有的智能技術,比如AMD Variable Graphics Memory AMD可變顯存技術、AMD FSR技術等。英特爾陣營的銳炫Arc 140T顯卡采用Xe+架構,配備128個流處理器、8個Xe核心,支持實時光追。這兩者都支持WindowsML、DirectML、ONNX RT以及WebGPU等AI推理框架。
從我們的烤機測試來看,用于對比的兩臺輕薄本都能實現30W左右的整機性能釋放水平,從性能釋放的角度來講,這次對比的兩個平臺是對位的,測試結果更有參考價值。不過由于酷睿Ultra 9 285H處理器的基礎功耗為45W,而且參測的英特爾輕薄本的性能釋放策略比較激進,所以在烤機剛開始的十幾秒里,整機功能甚至能飆升到45W以上。而銳龍AI 9 HX 370機型是一款超輕薄本,機器非常輕薄,在處理器性能釋放上偏保守一些,會始終保持在30W左右。
另外,因為不同的筆記本廠商對筆記本的性能調校有所不同,而且模具、筆記本厚度以及散熱設計上的不同也會帶來性能上的差異,所以筆記本測試可謂“千機千面”,本次測試僅代表這兩款輕薄本自身的表現。
理論性能對比
UL Procyon AI Text Generation Benchmark
相信大家對UL公司都不陌生,我們廣泛使用的3DMark、PCMark軟件都是UL公司的產品。除了3DMark、PCMark,UL公司還推出了一款UL Procyon Benchmark測試套件,它專為工業、企業、政府、零售和媒體等專業用戶而生,這個套件中內置一系列基準測試,包括我們之前測試過的“視頻編輯”“照片編輯”“續航測試”等。
現在UL Procyon Benchmark測試套件中新增了對本地大模型的測試項目,它叫AI Text Generation Benchmark。這個基準測試包括Phi-3.5-mini、Mistral 7B、Llama-3.1-8B和Llama-2-13B在內的四個大模型負載。在測試期間,每個模型將執行七個提示,這些提示包含RAG和非RAG查詢的混合。這些測試主要衡量使用本地大模型分析本地存儲文件以總結或回答其內容相關查詢的性能。
盡管英特爾和AMD平臺都有各自的AI推理框架,比如英特爾陣營的OpenVINO和AMD陣營的ROCm,不過為了更方便地對比,我們在本次統一使用跨平臺的ONNX Runtime推理框架來測試,并在測試最后選擇“平均OTS速度”(平均輸出token的速度)作為對比的成績。
從整體的測試成績來看,AMD銳龍AI 9 HX 370輕薄本和英特爾酷睿Ultra 9 285H輕薄本都能流暢地在本地運行包括Phi-3.5-mini-instruct、Mistral-7B、Llama-3.1-8B以及Llama-2-13B在內的主流大模型,而且輸出token的速度都很快,它們運行最大參數規模的LLama-2-13B的平均OTS速度都在7 tokens/s以上。
不過按平臺來看的話,我們會看到AMD銳龍AI 9 HX 370輕薄本在以上四個大模型測試中的平均OTS速度都明顯領先于英特爾酷睿Ultra 9 285H輕薄本。尤其是在Phi-3.5-mini-instruct測試中,AMD銳龍AI 9 HX 370輕薄本的平均token輸出速度達到22.59 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約30.7%。在Mistral-7B測試中,AMD銳龍AI 9 HX 370輕薄本的平均token輸出速度達到14.13 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約8%。
在Llama-3.1-8B測試中,AMD銳龍AI 9 HX 370輕薄本的平均token輸出速度達到12.15 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約11.3%。即便是運行13B規模的Llama-2-13B大模型,AMD銳龍AI 9 HX 370輕薄本的平均token輸出速度也能達到7.92 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約6.3%。
在這項測試中,AMD和英特爾平臺都采用系統默認的集顯顯存分配方式,即我們不做任何修改。由于兩個平臺都采用32GB LPDDR5X 7500雙通道內存,所以它們能運行最大13B的Llama-2-13B模型,而且7 tokens/s左右的平均輸出速度也能基本滿足多數人日常使用的需求??梢钥吹?,在大模型理論性能測試中,AMD銳龍AI 9 HX 370平臺的速度全面領先英特爾酷睿Ultra 9 285H平臺,最大領先幅度達到30.7%。更快的token輸出速度就意味著更高的效率,誰也不想在使用大模型的過程中慢吞吞地等半天吧!
DeepSeek-R1系列大模型實測對比
llama-bench
以上通過基準測試考察了AMD銳龍AI 9 HX 370平臺和英特爾酷睿Ultra 9 285H平臺在本地運行主流大模型的性能。接下來我們通過llama.cpp在筆記本本地部署DeepSeek-R1系列大模型,并通過llama.cpp內置的llama-bench來實際測試這兩大平臺實際運行DeepSeek-R1系列大模型的表現。
llama.cpp是一個用C/C++編寫的開源推理框架,專門用于在日常設備上高效運行各類大模型。如果你對llama.cpp比較陌生,我們簡單解釋一下:你可能聽過Ollama、LM Studio等工具,它們主要用于在筆記本本地部署大模型,這些AI工具使用的底層核心推理框架就是llama.cpp。
從測試成績來看,在DeepSeek-R1-Distill-Qwen-1.5B模型中,AMD銳龍AI 9 HX 370輕薄本生成token的速度達到43.17 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約8.1%。在DeepSeek-R1-Distill-Qwen-7B模型中,AMD銳龍AI 9 HX 370輕薄本生成token的速度達到12.26 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約6.9%。在DeepSeek-R1-Distill-Llama-8B模型中,AMD銳龍AI 9 HX 370輕薄本表現最佳,生成token的速度達到11.68 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約16.7%。
在14B規模的DeepSeek-R1-Distill-Qwen-14B模型中,這兩個平臺的生成速度都在6 tokens/s以上,實際運行起來十分流暢,只不過在這個測試中,AMD銳龍AI 9 HX 370輕薄本落后大約4.7%,它的生成速度為6.66 tokens/s,而英特爾酷睿Ultra 9 285H輕薄本的速度為6.99 tokens/s。另外,由于這兩臺機器都采用32GB雙通道內存,因此在采取Q4_K_M量化之后,它們也能嘗試運行32B規模的DeepSeek-R1-Distill-Qwen-32B模型。只不過由于內存容量有限,這兩個平臺運行DeepSeek-R1-Distill-Qwen-32B模型的生成速度都只有3 tokens/s出頭,。雖然英特爾酷睿Ultra 9 285H輕薄本有優勢,但實際意義不大。
▲在llama-bench中測試兩個平臺運行DeepSeek-R1-Distill-Qwen-7B模型生成128個token的速度。
可以看到,系統默認內存設置下,如果是部署DeepSeek-R1-Distill-Llama-8B及以下規模的大模型,AMD銳龍AI 9 HX 370輕薄本在輸出token的速度表現上領先英特爾酷睿Ultra 9 285H輕薄本,最高領先幅度達到16.7%。而在DeepSeek-R1-Distill-Qwen-14B和DeepSeek-R1-Distill-Qwen-32B模型中,英特爾酷睿Ultra 9 285H輕薄本的表現更好一些,但實際意義不大,尤其是32B的模型。
AMD可變顯存技術
游戲改變者
對比測試就此結束了嗎?并沒有。我們在前文提到Radeon 890M顯卡支持眾多的AMD智能技術,其中AMD可變顯存技術值得詳細介紹,它是AMD專屬的智能技術之一,可以為顯存擴容,對我們在本地部署大模型很有幫助。
▲AMD銳龍AI 9 HX 370處理器內置的集顯默認顯存為512MB
AMD可變顯存技術適用于AMD銳龍AI 300系列處理器,它允許用戶將最高75%的系統內存用于顯卡,去當作集顯的專用顯存。在默認情況下,AMD集顯的“專用”顯存為512MB,不過有了AMD可變顯存技術的加持,我們可以在AMD Software Adrenalin Edition軟件中靈活地調整系統內存與顯存的分配情況。
以本次對比的AMD銳龍AI 9 HX 370輕薄本為例,這臺機器的內存為32GB,我們在AMD Software Adrenalin Edition軟件中最多可以分配24GB的空間給顯存,不過AMD建議始終留出至少16GB的內存供CPU使用,因此我們可以將測試平臺的顯存設置為16GB,即系統內存16GB+顯存16GB的搭配。
在游戲當中,通過AMD可變顯存技術給顯存分配更多空間之后,意味著筆記本平臺的顯卡顯存更大,那么那些需要占用大量顯存的游戲就能真正運行起來,不會出現“爆顯存”的問題,比如AMD官方舉的例子——《漫威銀河護衛隊》在銳龍AI 9 HX 370默認的顯存配置下無法運行,分配更多顯存之后才能運行。顯存的增加也會提升筆記本運行游戲的幀率,AMD公布的數據顯示在銳龍AI 9 HX 370平臺,分配更多顯存之后,該平臺運行《孤島驚魂6》的幀率會從55fps提升到78fps,提升幅度達到41.8%。
那么這對運行大模型來說有什么幫助呢?前文我們提到運行大模型需要大量的并行計算,顯卡更適合做這個工作。我們將16GB系統內存的空間分配給顯卡之后,顯卡就具備了16GB專用顯存,可以用于加載大模型,比如14B及以下規格的DeepSeek-R1-Distill系列模型經過量化之后,都能加載到16GB的顯存中,這樣一來,系統在運行大模型時的推理速度就更快。盡管這依然是通過系統內存分配過去的,無法改變內存在物理層面的客觀事實,但是通過BIOS和Windows系統對分配容量的鎖定,多出來的顯存對提升顯卡的圖形性能以及加載大模型的速度有非常大幫助。更重要的是,這是AMD專屬,英特爾陣營中的絕大多數輕薄本都沒有類似功能。
為本次測試的AMD銳龍AI 9 HX 370輕薄本分配16GB顯存之后,我們再通過UL Procyon AI Text Generation Benchmark來看看兩個平臺運行四個主流大模型的表現。從測試成績可以看到,顯存提升之后,AMD銳龍AI 9 HX 370輕薄本運行主流大模型的平均OTS速度得到“質”的飛躍,它在Phi-3.5-mini-instruct中的平均OTS速度達到27.55 tokens/s,大幅度領先英特爾酷睿Ultra 9 285H輕薄本,領先幅度達到夸張的59.3%。
在Mistral-7B和Llama-3.1-8B模型測試中,AMD銳龍AI 9 HX 370輕薄本的平均OTS速度分別達到17.6 tokens/s、15.27 tokens/s,這樣的表現分別領先英特爾酷睿Ultra 9 285H輕薄本大約34.5%和39.8%。對于LLama-2-13B這種更大規模的模型,AMD銳龍AI 9 HX 370輕薄本在分配16GB顯存之后的平均OTS提升到9.57 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約28.4%。
理論測試之后,我們同樣通過llama-bench來實測兩個平臺運行DeepSeek-R1系列大模型的表現??梢钥闯?,擁有16GB的專用顯存之后的AMD銳龍AI 9 HX 370輕薄本,在所有的模型中都有了明顯提升,并全部領先英特爾酷睿Ultra 9 285H平臺。比如在DeepSeek-R1-Distill-Qwen-14B模型中,AMD銳龍AI 9 HX 370輕薄本得益于顯存的擴大,它的生成速度達到了7.96 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約13.9%。
需要特別說明的是,由于DeepSeek-R1-Distill-Qwen-32B模型經過Q4_K_M量化之后的體積仍然接近20GB,AMD銳龍AI 9 HX 370輕薄本的顯存就算擴增到16GB也無法完全容納,而將顯存擴展到24GB之后,系統內存僅剩8GB,此時會無法加載32B大模型,因此它在運行DeepSeek-R1-Distill-Qwen-32B模型的過程中和英特爾酷睿Ultra 9 285H輕薄本一樣都是由GPU和CPU一起協作來完成推理的,不過AMD銳龍AI 9 HX 370輕薄本的顯存更多,所以它在推理速度上也有一定的優勢??梢姡嵘P記本系統的內存以及顯卡專用顯存容量,是可以顯著提升本地運行大模型速度的重要途徑。
接下來,我們在LM Studio中看看AMD銳龍AI 9 HX 370輕薄本(16GB顯存)和英特爾酷睿Ultra 9 285H輕薄本在實際使用大模型過程中的表現。LM Studio一個可以在本地部署多種大模型的工具,它支持Vulkan驅動。LM Studio并不是專業的測試工具,它只是一個大模型應用體驗工具,我們在這里主要通過它來實際使用DeepSeek-R1系列大模型,并通過幾個大多數用戶會用到的場景(文本創作、數學解題、翻譯)來考察兩個平臺的表現。
需要注意的是,由于DeepSeek-R1系列大模型支持思維鏈,每次提問它都會自行思考,而且在LM Studio軟件中我們也無法通過設置隨機種子(Seed)、溫度(Temperature)等方式來固定大模型的回復內容,所以在這里我們會連續問三遍同一個問題,取輸出token的平均速度作為測試成績。因為所提問題的不同以及回答內容token的不同,這里的LM Studio大模型測試結果僅供大家參考。
·詩歌創作
提示詞:“模仿李白的風格寫一首七律.飛機”(DeepSeek官方提示詞)
在LM Studio的詩歌創作測試中,我們分別讓五個DeepSeek-R1蒸餾大模型創作一首詩歌。從測試成績可以看到,在幾乎所有的模型中,AMD銳龍AI 9 HX 370輕薄本都取得了領先優勢,只有在不需要大的內存容量的DeepSeek-R1-Distill-Qwen-1.5B中,英特爾酷睿Ultra 9 285H輕薄本略微領先。而在7B、8B、14B以及32B模型中的表現,AMD銳龍AI 9 HX 370都完全優于英特爾酷睿Ultra 9 285H輕薄本。
比如,AMD銳龍AI 9 HX 370輕薄本在DeepSeek-R1-Distill-Llama-8B中的平均生成速度達到13.41 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約10.2%;在DeepSeek-R1-Distill-Qwen-14B中的平均生成速度達到7.66 tokens/s,領先英特爾酷睿Ultra 9 285H輕薄本大約12%。
·數學計算
提示詞:“在三棱錐P?ABC中,若PA⊥底面ABC,且棱AB, BP, BC, CP的長分別為1, 2, 3, 4,則該三棱錐的體積為?”
數學計算是非常耗時間的場景,因為DeepSeek-R1-Distill蒸餾模型會仔細思考解答思路,比如此次的兩個平臺通過DeepSeek-R1-Distill-Qwen-14B模型來回答時,大模型幾乎要思考15分鐘左右。正是因為需要耗費大量時間進行思考,所以這兩個平臺在數學計算中的平均生成速度都比詩歌創作時慢。
從結果來看,跟前面的詩歌創作中的表現類似,英特爾酷睿Ultra 9 285H輕薄本只是在DeepSeek-R1-Distill-Qwen-1.5B模型中有非常微弱的優勢,在7B、8B、14B以及32B模型中,英特爾酷睿Ultra 9 285H輕薄本的表現都不如AMD銳龍AI 9 HX 370輕薄本,落后4%~8%不等。
·翻譯
提示詞:
“將以下這段話翻譯為中文:
Night gathers, and now my watch begins. It shall not end until my death. I shall take no wife, hold no lands, father no children. I shall wear no crowns and win no glory. I shall live and die at my post.”
接下來讓五個DeepSeek-R1-Distill蒸餾模型翻譯《權力的游戲》劇集中的經典臺詞。在翻譯環節,英特爾酷睿Ultra 9 285H輕薄本全面落敗,它在DeepSeek-R1-Distill-Qwen-1.5B中落后AMD銳龍AI 9 HX 370輕薄本大約6.3%。在DeepSeek-R1-Distill-Qwen-32B模型中,AMD銳龍AI 9 HX 370輕薄本的平均生成速度達到3.47 tokens/s,而英特爾酷睿Ultra 9 285H輕薄本的平均生成速度僅2.84 tokens/s,落后銳龍平臺約22.2%。
從以上各項測試可以看到,AMD可變顯存技術是一項可以大幅度顯著提升本地AI大模型性能的“黑科技”,它在本地大模型遍地開花的時代能為用戶帶來立竿見影的實質性的幫助。對于AMD銳龍AI 9 HX 370輕薄本而言,借助AMD可變顯存技術將更多內存空間分配給顯卡之后,對比英特爾酷睿Ultra 9 285H輕薄本,它在運行本地大模型時能夠取得高達59.34%的性能提升,非常明顯和實用。
還有一點需要特別強調的是,本文為了測試的可比性,兩款輕薄本都使用了32GB的內存。試想一下,如果給AMD銳龍AI 9 HX 370輕薄本加裝更大容量的內容,并分配更多專屬的顯存給集顯使用,來運行和測試上面的大模型的話,AMD銳龍AI 9 HX 370輕薄本的優勢應該還會有非常大的提升,因為AMD可變顯存技術理論上可以最高給顯卡分配高達96GB的顯存使用,這也是我們在前面提到的,AMD銳龍AI Max+ 395平臺筆記本甚至可以在特定條件下最高可運行DeepSeek-R1-Distill-Llama-70B大模型!
總結
此次我們通過兩款配置典型的AMD銳龍AI 9 HX 370輕薄本和英特爾酷睿Ultra 9 285H輕薄本,對兩大平臺運行爆火的DeepSeek本地大模型的表現進行了深度測試和體驗,從理論到實戰,從主流大模型到五個DeepSeek-R1-Distill蒸餾模型,我們都做了詳細測試。
從測試結果來看,在系統默認、不手動分配集顯顯存容量的情況下,AMD銳龍AI 9 HX 370輕薄本在多數測試中表現出了優勢。在大模型理論性能測試中,AMD銳龍AI 9 HX 370輕薄本全面領先英特爾酷睿Ultra 9 285H輕薄本,最高領先幅度達到30.7%。在DeepSeek-R1-Distill蒸餾模型實測中,英特爾酷睿Ultra 9 285H輕薄本在一些項目中取得輕微優勢,比如在DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B中領先,但生成token的速度比較低,實際應用意義不大,尤其是32B的模型中。AMD銳龍AI 9 HX 370輕薄本則在DeepSeek-R1-Distill-1.5B、7B和8B蒸餾模型中的表現出顯著優勢,最高領先幅度達到16.7%。
而在開啟AMD平臺專屬的“黑科技”AMD可變顯存技術之后,通過分配16GB的專用顯存給Radeon 890M集顯,AMD銳龍AI 9 HX 370輕薄本的理論性能和大模型實測性能都有了非常明顯的提升,性能表現全面領先英特爾酷睿Ultra 9 285H輕薄本,在大模型理論測試中取得高達59.34%的領先優勢;在DeepSeek-R1-Distill蒸餾模型實測中擁有高達46.25%的優勢;在LM Studio大模型場景體驗中也有大約22.18%的領先優勢。
站在用戶的角度來看,在AI大模型應用日益火爆的今天,AMD平臺專屬的“黑科技”可變顯存技術可謂是提升AI性能的秘密武器,好用還免費,即使是給筆記本加裝更高容量的內存條也不貴,但通過在AMD Software Adrenalin Edition軟件中靈活地調整系統內存與顯存容量分配,卻可以立竿見影地大幅提升AI大模型的運行性能,甚至讓筆記本有脫胎換骨的表現,在大模型時代為用戶帶來了實質性的幫助,我們的測試也非常明確地證明了這點。這里要友情提醒的是,在輕薄本本地部署大模型非常依賴大容量的內存和性能更高的集顯,建議選擇32GB及以上內存的配置,這樣方能更好地“戰未來”。
綜上,無論你是打算部署最近火熱的DeepSeek大模型來嘗鮮,還是想要真正將AI用在日常工作中,相對于英特爾酷睿Ultra 200H系列處理器而言,AMD銳龍AI 300系列處理器以及最新的銳龍AI Max系列處理器也許都是更好的選擇,畢竟AMD銳龍AI歷代處理器本來在AI性能中就擁有優勢,AMD陣營還有像AMD可變顯存技術這樣的多項“黑科技”能夠起到事半功倍的加持效果。
友情提示
MCer請注意,由于微信公眾號調整了推薦機制,如果你發現最近很難刷到Microcomputer(微型計算機)公眾賬號推送的文章,但是又不想錯過微機的精彩評測內容,可以動動小手指把Microcomputer設置成星標公眾賬號哦!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.