著實有點Amazing啊。
這兩天GPU圈子發(fā)生了個事兒,被網(wǎng)友們討論地津津樂道——有一款顯卡賣爆了。
火到什么程度呢?就是一進貨就被搶光。
GPU供不應(yīng)求其實已經(jīng)司空見慣了,但之所以這次能被熱議起來,是因為這款產(chǎn)品背后的廠家。
為什么會如此?
從玩家們的討論中不難得出答案——性價比夠高,2000元價位就能在2K畫質(zhì)下暢玩3A游戲。
The Verge也非?!爸苯o”地給予了一句評價:
英特爾終于在GPU上拿下了一次勝利。
而這款顯卡,正是英特爾不久前發(fā)布的第二代Arc B580,售價僅249美元。
要知道,英偉達299美元的RTX 4060和AMD269美元的RX 7600,僅配備了8GB的VRAM。
但英特爾的Arc B580不僅價格比它們低,還配備了12GB的VRAM和192bit的顯存位寬。
即使是價格更低的Arc B570(219美元,下個月上市)也配備了10GB的VRAM。
除此之外,還有一個更有意思的事情。
雖然Arc是游戲顯卡,但畢竟是GPU啊,于是……也有一部分人買來開始搞AI了。而這,可能會讓它未來的銷售再增三分熱度。
這不,有人在Reddit上就分享了怎么在Arc B580上搞AI畫圖Comfy UI了:
不僅是個人用戶的嘗鮮,我們還打聽到有些企業(yè)已經(jīng)著手把英特爾的顯卡塞進包括工作站和服務(wù)器在內(nèi)的商用計算設(shè)備中了,具體搭配的“食譜”就是:英特爾至強系列CPU+Arc顯卡。
不過暫時用的還是英特爾上一代的A770,作為上一代的旗艦型號,A770有著16G大顯存,用在AI推理上,也算游刃有余。
據(jù)可靠的消息,如此組合最為搶眼的優(yōu)勢,同樣是“性價比”三字。
而由此引發(fā)的,更值得討論的一個話題應(yīng)當是:
消費級顯卡搞AI,到底行不行?
首先可以看出來,無論個人還是企業(yè),買英特爾消費級顯卡來搞AI,基本都是來做AI推理的。
實際上,推理算力需求正在飛速增長,大有超過訓練算力需求之勢。
一方面,隨著行業(yè)熱議的“預(yù)訓練Scaling Law撞墻”了,像OpenAI o1/o3系列模型也開始依靠增加推理算力提高模型能力。
另一方面,AI應(yīng)用落地的爆發(fā)也使得推理需求大幅增長,這些需求往往不強求算力的溢出甚至極致,即所謂硬需求不高,而是更加注重實現(xiàn)夠用的性能(包括并發(fā)度和時延),以及與之同步的易獲取、易部署、易使用和成本上是否夠?qū)嵒荨?/p>
那么做AI推理為什么選擇英特爾游戲顯卡?正如前面分析,性價比肯定是一大考慮因素。
從硬件方面講,即使是頂級的算力卡,單卡做AI推理在面對高并發(fā)等場景時,顯存也會成為瓶頸,但升級到四卡、八卡成本又會飆升。此時,英特爾 A770這種2000元價位就有16G大顯存的型號,就成了兼顧性能與成本之選。
從應(yīng)用方面講,很多場景其實對每秒token生成速度要求并不高,特別是有流式傳輸?shù)葍?yōu)化手段,只要first token latency到位了,后面生成速度滿足一定要求,體驗就很好。
看到這里可能有人要問了,用英特爾顯卡跑AI,CUDA的問題怎么解決?
拿最流行的大模型推理框架之一vLLM來說,得益于開源軟件的發(fā)展,其早已實現(xiàn)了高級別的抽象和封裝,其實換用哪種硬件,用起來都沒差太多。
再加上英特爾自己提供的開源oneAPI,就能做到很低的遷移成本。
可能還有人要問了,那為什么不選專用AI推理加速器,比如風頭正盛的Groq、Sambanova這些?
這就要說到,多模態(tài)交互是現(xiàn)在AI應(yīng)用的一大趨勢,無論是與AI視頻對話、數(shù)字人,還是直播、短視頻場景的一些應(yīng)用,都同時會用到視頻解碼或圖形渲染能力,這就非得是通用GPU不可。
專用加速器雖然在特定任務(wù)上有優(yōu)勢,但在處理多樣化需求時,通用GPU更具靈活性。
所以總結(jié)來看,用英特爾顯卡搞AI推理,算力夠用,大顯存還有,可行性就有了,性價比也有了,對于現(xiàn)有業(yè)務(wù)來說,遷移成本更是理想。
后面能拿下多大市場,會不會成為一個趨勢,就拭目以待了。
英特爾的曲線突圍
英特爾消費級顯卡被企業(yè)拿去搞AI推理了,英特爾自己是什么態(tài)度?
那肯定是樂見其成的,而且相當重視。
其實,英特爾在兩年前剛推出Arc系列時就采取與友商不同的策略,許可證方面明確不限制數(shù)據(jù)中心使用。
為了方便大家用好AI,英特爾的軟件團隊一直沒閑著,除了更新oneAPI,還在持續(xù)推出和更新一系列開源工具,吸粉不斷。
例如加速庫IPEX-LLM,可用于大模型的推理和微調(diào),在GitHub上已經(jīng)有6.8k star。
以及低比特量化工具neural-compressor,也獲得2.3k star。
從IPEX-LLM也可以看出英特爾對中國市場的重視,針對中國主流的開源大模型ChatGLM、Qwen、MiniCPM等都提供了適配,中文文檔和教程也做的比較完善。
為了方便大家選擇模型,英特爾還在HuggingFace上維護了一個低比特量化模型的排行榜,設(shè)置好條件,就可以一鍵比較并篩選出自己需要的模型。
其中性能排名靠前的,不乏英特爾自己動手量化的開源社區(qū)優(yōu)秀模型。
這么看下來,英特爾為AI開源社區(qū)做的眾多貢獻,給企業(yè)和開發(fā)者提供了便利,也是現(xiàn)在大家愿意嘗試英特爾顯卡的原因之一。
最后,我們還打聽到一個內(nèi)幕消息:
英特爾看到AI推理這個市場需求逐漸擴大后,在后續(xù)產(chǎn)品策略上也有所調(diào)整。
2025年,英特爾準備推出Battlemage系列顯卡的更大顯存版本,其容量將增至24G。
以后就是現(xiàn)有版本繼續(xù)服務(wù)于游戲等消費級市場,24G的更大顯存版本瞄準“生產(chǎn)力市場”。
“生產(chǎn)力市場”的目標用戶涵蓋了數(shù)據(jù)中心、邊緣機房、教育科研和個人開發(fā)者等。
擁有更大顯存的英特爾顯卡,不僅可在AI推理需求上,也能在渲染和視頻編解碼應(yīng)用上做到比專業(yè)圖形卡、工作站顯卡性價比更高。
還真別說,“從游戲人間轉(zhuǎn)向打工賺錢”+“算力夠用、顯存保大”,很有可能會成為英特爾GPU突圍的一招妙棋。
參考鏈接:
[1]https://www.reddit.com/r/pcgaming/comments/1hh2dvn/intel_finally_notches_a_gpu_win_confirms_arc_b580/
[2]https://www.techspot.com/news/105810-intel-launches-new-arc-battlemage-b580-b570-gaming.html
[3]videocardz.com/newz/intel-will-not-prohibit-gaming-arc-gpu-use-in-data-centers
[4] https://github.com/intel-analytics/ipex-llm
[5] https://github.com/intel/neural-compressor
[6] https://huggingface.co/spaces/Intel/low_bit_open_llm_leaderboard
轉(zhuǎn)載請注明來自杭州安米通儀器設(shè)備有限公司,本文標題:《英特爾新款游戲顯卡賣爆!24G大顯存版也在路上,這下AI玩家也要搶?》
還沒有評論,來說兩句吧...