而如果恰好你就是一名AI初学者、初期开发者或者创业者,难免需要在本地搭建AI开发环境,进行AI开发、验证或者部署的开发性工作,这时候一台适合在本地完成这些工作的高性能主机就很重要了。
说到这,小编想到AMD在今年年初推出的代号“StrixHalo”的锐龙AIMax300系列APU,可以说就是专门为满足高端AIPC上述需求而量身打造的。
锐龙AIMax300系列平台采用Zen5CPU和架构,并运用先进的芯粒(chiplets)封装技术。每个Zen5CPU核心位于独立的CCD上,两个CCD最高提供16颗Zen5超大核心32线程,集成显卡(iGPU)最高拥有40个计算单元。
此外,该平台采用LPDDR5x内存标准,内存带宽高达256GB/s,集成50TOPS“XDNA2”NPU,为Windows11AI+PC提供领先的AI性能。
目前市面上其实已经有不少搭载“StrixHalo”APU的AIPC产品,刚好,最近IT之家拿到了其中一款来自极摩客的EVO-X2桌面MiniAI工作站,有着桌面AI超算中心之称(以下简称“极摩客EVO-X2”),搭载系列顶级旗舰型号锐龙AIMax+395,相信会很适合从事AI初学开发和极客们折腾AI使用。所以今天我们不妨对其进行一番测试,看看它的表现究竟如何。
外观设计
极摩客EVO-X2采用银白色的长方体包装盒,正面只有金色的“GMKtec”字样,看起来十分简洁利落。
打开包装极客看到极摩客EVO-X2桌面AI超算中心主机本体,这款主机为德国红点奖设计师亲自操刀设计,表面采用国标“1050”再生铝材质,带来更高品质的机身质感。
银色的金属盖板只是外壳,中间的黑色部分才是真正意义上的主机本体,包含了主板、接口和散热模组等组件。
除了上方的三角形氛围灯开关,所有的接口和按键都在侧面的黑色区域内,包括绿色醒目的电源键、Performance性能模式切换键、SD卡插槽、1个USB4Type-C接口,2个接口,1个3.5mm音频接口。
背面则提供了1个电源插孔、1个3.5mm音频接口、1个GigaLAN(RJ45)网口、1个
(Gen2)接口、1个USB4Type-C接口、1个接口,1个接口和2个接口。
极摩客EVO-X2作为一款桌面AIMini工作站主机,整体还是十分小巧紧凑的,IT之家实测机身的厚度为77.0mm,长和宽分别为23.2cm和22.1cm。
机身重量方面,小编实测为1666g,基本上和一台普通的超轻薄本差不多重,放在背包里不会觉得很坠重。
配件方面,极摩客EVO-X2随机附赠了电源线和一根HDMI线,此外还有说明书和保修卡,都是常规配件。
整体来说,极摩客EVO-X2小巧精致,有设计感,放在桌面上可以起到很好的颜值点缀作用,同时也比较便携,对于可能需要移动办公和开发的用户来说还是比较友好的。
性能概述
正如前文所说,性能上,极摩客EVO-X2最大的看点自然是搭载了AMD“StrixHalo”系列旗舰芯片锐龙AIMax+395,这款APU拥有Zen5架构CPU,16超大核心32线程设计,最高频率可达5.1GHz,并配备了80MB的缓存,整体规格非常强悍。
它的NPU采用了全新的XDNA2架构,Al算力50TOPS,总性能高达126TOPS。根据AMD的介绍,其在Windows11Al+PC中,GPU在LMStudio里的Al性能比NVIDIAGeForceRTX4090高出2.2倍,且功耗降低87%。
然后是在内存和存储方面,极摩客X2采用128GB(16GB*8)LPDDR5X8000MHz低功耗内存,不可拆卸,同时还有2,双高速固态插槽,最大支持8TB。
上手之后,IT之家也对极摩客X2做了一些简单的基准性能测试,好让大家整体了解这款迷你主机的性能。
首先是CPU的性能测试,在《CineBenchR23》中,锐龙AIMax+395取得了单核1993pts,多核36612pts的表现,性能十分顶级。
CineBench2024中,锐龙AIMax+395单核为113pts,多核为1739pts。
GPU方面,IT之家测了《3DMark》的TimeSpy项目,得到显卡成绩为10870分,综合得分10698分。
在FireStrike项目中,锐龙AIMax+395显卡成绩为28286分,综合得分达到24614分。
然后是SolarBay项目的测试,锐龙AIMax+395显卡跑到185.99FPS,综合得分48915分。
可以看到,无论CPU还是GPU,锐龙AIMax+395的性能都非常亮眼,足以和目前中高端的游戏本相抗衡了。
还有内存方面小编也做了测试,通过AIDA64的内存测试工具测得读取速度达到119.47GB/s,写入速度达到211.96GB/s,拷贝速度为156.61GB/s,时延为139.8ns。
接着小编还使用CrystalDiskMark测了SSD的读写性能,在SEQ1MQ8T1项目中,这块SSD的读取速度为7105.01MB/s,写入速度为6439.17MB/s。
AI功能体验
我们知道,AMD锐龙AIMax+395拥有为大模型量身打造的超强算力,这让以往不能在本地部署的超大模型(例如文生文的70B,32B大模型,文生图的flux模型等)都可以在搭载锐龙AIMax+395的极摩客EVO-X2中顺利运行,对于AI初学者、初级开发者来说无疑会非常友好。所以接下来IT之家也将重点为大家体验使用极摩客EVO-X2在本地部署各类AI模型以及相关的应用体验。
1、超大模型本地部署体验
首先我们尝试用极摩客EVO-X2在本地运行超大参数的模型,看看它能否流畅、顺利地应对。这里我们先以拥有235B参数的Qwen3-235B-A22B-IQ2_S模型为例,这个参数量的模型在本地运行对于性能的开销是非常大的,而这里我们使用的是AMDAI生态伙伴模优优科技优化的模型文件,利用锐龙AIMax+395统一内存设计和高达96GB容量分配给显存,通过定制化的内存调度策略和深度量化优化,从而让全尺寸Qwen3-235B模型能够在AIPC上流畅运行。
具体来说,使用时我们用LMStudio加载该模型,然后开启对话,首先提问大模型一个类似人情世故的问题:两个人正常交谈,其中一个男人夸赞对方做事能力强,对方回答"哪里,哪里”,请问这里的“哪里,哪里”是什么意思?”
面对这样超大参数的模型,可以看到,在处理这个问题的过程中,AMD锐龙AIMax+395的GPU的负载达到49%,CPU负载达到61%,内存负载达到60%。
而此时,机器工作时的噪音仅为47.8dBA,并不算高。
经过思考和推理后,大模型做出了回答,整个回答的内容非常严谨,一共输出了663tokens,速度为9.46tokens/s,首个token输出时延为2.27s。
接下来,小编让大模型用莎士比亚的风格写一首关于人工智能的十四行诗,包含隐喻和押韵,并解释韵律格式。
经过32.84秒的推理和思考后,大模型写了一首英文诗。同时也解释了韵律格式和实用的手法。
回答一共输出886个tokens,速度为9.06tokens/s,首个token输出的时延仅为0.11s。
然后,小编又给了它一个鸡兔同笼的数学题,可以看到这次大模型花了2分钟52秒的时间来思考和推理,随后给出了不同的解答方法,最后结果都是正确的。
这次一共输出1482tokens,速度为8.72tokens/s,首个token输出的时延为2.22s。
接下来,小编换了另一个超大参数量的大模型:DeepSeek-V3。这和我们刚才测试的Qwen3-235B-A22B-IQ2_S几乎是同量级的模型,全量部署在极摩客EVO-X2,话不多说,我们接着看它的表现。
本次回答一共输出1105tokens,速度为4.39tokens/s,首个token输出的时延为5.47s,速度有点慢,但胜在可以稳定运行。
然后还是用一道数学题来考验大模型,常见的距离问题,DeepSeek给出的解法描述上有点复杂,不过最终的答案是正确的。
这次回答输出了874tokens,速度为4.55tokens/s,首个token输出时延为5.75s。
最后,小编让它帮我写一篇去北京的五天四夜游玩攻略,DeepSeek直接出了一份简单的攻略,不过整体内容上没什么毛病。
本次回答一共输出473tokens,速度为3.51tokens/s,首个token输出的时延为2.93s。
可以看到,在AMD锐龙AIMax+395的加持下,用极摩客EVO-X2在本地部署Qwen3-235B和DeepSeek-V3这样的超大参数模型,依然能获得十分流畅的体验,和大模型交流几乎不需要过多等待,tokens输出的速度也是比较快的。这样的体验放在半年多前的桌面mini主机上或者其他轻薄AIPC上几乎是不敢想的。
2、Amuse+本地模型的创意内容生成体验
在生成过程中,锐龙AIMax+395处理器GPU频繁冲高到100%,CPU占用为4%,内存占用为20%左右。
可以看到,本次生图耗时29.3s,性能为0.1it/s。
然后,小编提高一下复杂程度,让它生成一张主题为“一个男人在草地上弹吉他,天空中出现一道彩虹”,可以看到生成的照片很自然,就像真实的照片一样。而生成这张图耗时为29.4s。性能表现为0.1it/s。
gif
gif
3、MCP本地部署体验
接下来,IT之家又尝试了在极摩客EVO-X2上本地部署MCPAgent的体验。MCP(ModelContextProtocol)又叫大模型上下文协议,它为大模型提供了一个“万能插座”式的接口,使得AI应用能够安全地访问和操作本地及远程数据。在日常工作和学习中,我们经常需要与浏览器、文件、数据库和代码仓库等外部工具进行交互。在传统方式中,我们需要手动截图或复制文本,再将其粘贴到AI窗口中进行对话,MCP服务却充当AI和外部工具之间的桥梁,能够自动替代人类访问和操作这些外部工具。
具体测试时,小编在电脑端用本地LMStudio+CherryStudio的形式来进行,首先我们在LMStudio中部署本地大模型,这里小编部署的是Qwen3-8B-Q4_K_M8B大模型,大小为5.03GB,然后用CherryStudio配置MCPServer,然后在CherryStudio里面进行和MCP的交互。
这里以让它以“信心”为主题写一个300字左右的短篇小说,展示给我后,保存小说内容到C:\Users\ithome\Desktop\output\信心.docx这个指定的本地目录中。
可以看到,在极摩客EVO-X2上完成这个操作还是很丝滑的,大模型也成功在本地创建了名为“信心”的小说文档,打开后可以看到里面的内容和模型生成时的文字内容是一样的。
而在MCP服务运行过程中,Radeon8060S集成显卡的占用基本上维持在94%以上,内存占用达到24%左右,CPU占用达到8%。
此时极摩客EVO-X2绝对算是高负载运行了,但运行时的噪音依然不大,噪音还是47dBA左右,完全不扰人。
结语
总体来说,可以看到极摩客EVO-X2桌面MiniAI工作站主机凭借AMD锐龙AIMax+395APU的强劲性能,为AI开发者与极客带来了可以说是颠覆性的本地开发体验。
其搭载的锐龙AIMax+395芯片,以50TOPS算力的XDNA2架构NPU与高达96GB可分配显存的统一内存设计,彻底打破了“超大模型无法本地部署”的技术壁垒——无论是235B参数的Qwen3模型,还是DeepSeek-V3,都能在极摩客EVO-X2中流畅运行,让开发者彻底告别云端部署的网络延迟与token计费焦虑。设备使用成本大幅降低,算法和模型数据还不容易外泄,让用户隐私、算法和数据模型更加安全。
得益于Radeon8060S集成显卡与LPDDR5X8000MHz内存的协同,主机不仅能轻松加载单个超大模型,更支持多模型并行运行,配合Windows11系统的深度优化,实现了对LMStudio、等主流AI工具的无缝兼容。从本地部署Qwen3大模型进行自然语言交互,到通过Amuse+调用Flux-schnell模型生成2048×2048分辨率图像,再到利用MCP协议打通本地工具链,极摩客EVO-X2以“无网络依赖、低延迟响应、高算力释放”的特性,构建起覆盖开发、验证及部署全流程的本地AI生态。
对于AI初学者与创业者而言,这台主机不仅是性能强劲的开发平台,更是降低技术门槛的“入场券”——无需依赖云端服务,即可在本地完成大模型训练、创意内容生成与工具链集成,让AI技术真正从理论走向实践。
同时值得一提的是,除了这款极摩客EVO-X2,近期其他搭载锐龙AIMax+395处理器的桌面MiniAI工作站、移动工作站产品也都已经陆续上市,比如ROG幻X2025、惠普(HP)战99Ultra高性能笔记本移动工作站等等,如果你对AI感兴趣,希望深入挖掘AIPC本地应用的潜力,那么不妨尝试一下。





