本網站使用瀏覽器紀錄 (Cookies) 來提供您最好的使用體驗,我們使用的 Cookie 也包括了第三方 Cookie。相關資訊請訪問我們的隱私權與 Cookie 政策。如果您選擇繼續瀏覽或關閉這個提示,便表示您已接受我們的網站使用條款。 關閉
隨著智慧工廠、遠端監控與連網基礎設施的興起,市場對於能夠在長距離與嚴苛環境中運作的先進網路系統需求日益攀升。為滿足市場對可靠與安全連接解決方案的需求,Microchip Technology今日宣布推出全新系列的光纖乙太網路PHY收發器,提供 25 Gbps 與 10 Gbps 版本,並整合IEEE® 1588精準時間協定(PTP)與媒體存取控制安全性(MACsec)加密功能。 Microchip 的光纖乙太網路PHY收發器提供比傳統銅線乙太網路更具安全性、決定性與可擴充性的選擇,支援最長可達 10 公里的單模光纖傳輸,適用於企業園區、大學校區或倉儲設施等地理分散的基礎建設環境。整合的PTP時間戳記功能可實現次奈秒級(sub-nanosecond)同步精度,適用於如工業自動化、電信通訊與機器人等對時間敏感的應用場景。 「設計工程師在簡化複雜網路系統時,若要加入PTP或MACsec功能,可能得完全重構現有設計;我們的解決方案可協助客戶保留原有核心處理架構,」Microchip網路與連接解決方案事業群資深副總裁Charlie Forni表示,「我們將這些功能整合至收發器中,讓工程師能以外掛方式建構更智慧、更安全、更具擴充性的網路系統。」 這些新產品支援從1 Gbps至25 Gbps的乙太網路傳輸速度,為資料中心、校園區域網路、機器人與工業自動化等資料密集型應用提供更高頻寬。設計人員可根據應用需求,自由選擇傳輸速率與媒介(光纖或DAC直連銅纜),彈性擴展網路架構。 為保障連網環境中的敏感資料安全,新產品於晶片層即整合支援MACsec(IEEE 802.1AE)加密功能。此硬體級加密機制可保護乙太網路裝置之間的資料傳輸,防止包括中間人攻擊(Man-in-the-Middle)、阻斷服務攻擊(DoS)、竊聽與假冒等常見資安威脅,確保整體網路資料完整性。 全新光纖乙太網路PHY收發器型號一覽: LAN826x(最高10 Gbps) l 雙埠 o LAN8262-V/3HW:10 Gbps,雙埠,支援MACsec o LAN8263-V/3HW:10 Gbps,雙埠,支援PTP o LAN8264-V/3HW:10 Gbps,雙埠,支援PTP與MACsec l 四埠 o LAN8267-V/3HW:10 Gbps,四埠,支援PTP o LAN8268-V/3HW:10 Gbps,四埠,支援PTP與MACsec LAN802x / LAN804x(最高25 Gbps) l 雙埠 o LAN8022-V/3HW:25 Gbps,雙埠,支援MACsec o LAN8023-V/3HW:25 Gbps,雙埠,支援PTP o LAN8024-V/3HW:25 Gbps,雙埠,支援PTP與MACsec l 四埠 o LAN8042-V/3HW:25 Gbps,四埠,支援MACsec o LAN8043-V/3HW:25 Gbps,四埠,支援PTP o LAN8044-V/3HW:25 Gbps,四埠,支援PTP與MACsec Microchip提供廣泛的乙太網路解決方案,涵蓋從收發器到高埠數交換器,傳輸速度自10 Mbps至25 Gbps不等。產品陣容亦包括完整的單對乙太網(SPE)裝置,滿足工業、車用與嵌入式應用需求。結合資安、低延遲與寬溫範圍等功能,Microchip產品協助客戶在嚴苛環境中實現穩定且具擴充性的連網架構。欲了解更多資訊,請造訪Microchip乙太網產品網頁。 開發工具 為簡化開發流程,本系列光纖乙太網PHY收發器提供對應評估套件 LAN8044 Evaluation Kit(料號:EA00J09A),其中包含 LAN8044 EDSX子卡(EV57U68A)與 EVB-VSC7558TSN EDSX(UNG8415)。 價格與供貨資訊 光纖乙太網路PHY收發器現已進入量產階段,可透過Microchip官網、業務代表或授權經銷商洽購。
NVIDIA GTC DC 2025 - HPE(NYSE:HPE)宣布擴展NVIDIA AI Computing by HPE產品組合,協助政府機構、受監管產業與企業更輕鬆部署與擴展AI應用。此次擴展的產品將透過一站式AI工廠解決方案、統一的資料策略,以及搭載最新NVIDIA AI基礎架構與軟體的全新伺服器平台,協助企業組織更快、更有效率地建置安全的私有AI基礎架構。 根據《 2025年建構人工智慧優勢》(2025 Architecting an AI Advantage) 報告指出,各產業的AI應用正迅速成長,但仍有近六成的企業面臨AI目標與策略分散的挑戰,且有相同比例的企業缺乏完善的AI資料管理機制。為解決這些挑戰, HPE與NVIDIA攜手推出橫跨開發人員至主權AI雲端建置者的完整AI工廠解決方案組合,協助企業組織建立全方位的AI基礎架構策略。 「要加速企業廣泛採用AI,技術必須能確實解決企業在複雜部署和分散、高敏感資料管理方面所面臨的關鍵挑戰,」HPE 技術長暨混合雲執行副總裁與總經理Fidelma Russo 表示。「HPE與NVIDIA攜手合作,透過全堆疊的私有AI工廠提供不同做法,簡化營運流程,並協助企業與政府在合規的前提下迅速擴展規模。」 「AI工廠是智慧時代的新基礎架構,旨在大規模創造智慧成果,」NVIDIA企業軟體副總裁Justin Boitano表示。「NVIDIA與HPE正共同打造這些全堆疊系統,整合NVIDIA Blackwell、NVIDIA網路軟體與AI Data Platform參考設計,為代理型AI提供運算動能、釋放自動化潛力,並加速各產業的數位轉型。」 為企業與政府打造安全、可擴展的AI工廠HPE與NVIDIA共同開發NVIDIA AI Computing by HPE產品組合中的第二代HPE Private Cloud AI,現已推出小型規格版本,可加速企業實現AI價值的時間。此一站式AI工廠解決方案的新功能與服務包括: 業界領先的AI效能:HPE Private Cloud AI現採用全新ProLiant Compute DL380a Gen12伺服器與NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU,為企業AI工作負載提供三倍的性價比。HPE ProLiant Compute DL380a Gen12伺服器在MLPerf™ Inference v5.1基準測試中居於領導地位,獲得七項第一的成績,包括以RTX PRO 6000創下的效能紀錄。 政府 AI 工廠部署: HPE Private Cloud AI 和 HPE 的主權 AI工廠將支援新的 NVIDIA AI Factory for Government,這是一個全堆疊、端到端的參考設計,滿足高保證組織的合規需求,並提供在地端與混合雲中部署及管理多個 AI 工作負載的指引。 主權組織的安全AI架構:全新的實體隔離(air-gapped)管理功能可支援網路隔離的雲端環境,確保政府、主權機構及受監管產業在部署過程中符合安全與合規要求。 重新定義客戶體驗:HPE Services部門推出全新方案,運用HPE Private Cloud AI與NVIDIA NeMo打造數位虛擬助理,協助智慧城市以及零售、製造、醫療、金融與教育等產業改變客戶互動與業務支援方式。 加速實現AI成果:針對HPE Private Cloud Developer Edition推出全新系統導入加速服務,為使用者提供完整的安裝後功能測試,包括預先建置的範例管線與資料科學團隊的知識轉移課程。 HPE以美國韋爾鎮(Town of the Vail)作為HPE Agentic Smart City Solution標竿客戶。這是由AI驅動的整合型解決方案,利用安全、整合且可擴充的代理型AI系統,協助城市從零散的試點計畫擴展至全市的智慧基礎設施。SHI、NVIDIA與HPE的Unleash AI驗證合作夥伴正與韋爾鎮合作,利用HPE Private Cloud AI加速推動無障礙合規性、許可審查與野火偵測等應用。 代理型AI驅動的資料、管線與治理HPE亦發布其統一資料層的新功能,可在實體隔離環境中透過代理型AI進行資料治理與非結構化資料儲存。HPE的統一資料層結合HPE Data Fabric Software的全域命名空間與HPE Alletra Storage MP X10000的資料智慧技術,能加速AI資料生命週期。透過NVIDIA AI Data Platform 部署的統一資料層整合NVIDIA的加速運算、網路與AI軟體,使企業能夠靈活地為應用程式、模型與代理程式提供支援AI的資料。 以安全為核心設計的AI資料儲存:X10000現可在實體隔離環境中管理,為需要限制外部網路存取的環境提供雲端般的管理體驗。 GPU加速存取:X10000亦支援全新的NVIDIA S3oRDMA解決方案,透過GPU記憶體、系統記憶體與X10000之間的遠端直接記憶體存取(remote direct memory access,RDMA)傳輸,提供高達兩倍的效能。 代理型治理:為大幅簡化企業安全治理與整合資料的方式,HPE Data Fabric現已提供代理型AI驅動的治理功能。透過模型上下文協定(Model Context Protocol,MCP),HPE Data Fabric可實現模型與資料之間的安全互動、確保法規遵循的一致性,並縮短獲得洞察的時間。其全域命名空間可整合結構化、半結構化與非結構化資料,打造「無邊界」的AI資料管線。 透過NVIDIA AI Computing by HPE提供適用所有規模的完整AI基礎架構為解決大規模部署AI的挑戰,HPE在NVIDIA AI Computing by HPE產品組合中推出全新方案,協助開發人員、企業與主權機構擴展部署規模。 HPE ProLiant Compute XD685:現已支援8顆NVIDIA Blackwell Ultra(B300)GPU,採用5U直接液冷HGX機箱設計。系統配備HPE Integrated Lights Out(iLO)的內建安全防護機制,並搭載HPE Performance Cluster Manager提供整合式叢集管理。XD685已經過優化,適用於AI服務供應商、新型雲端業者,以及需要建置大規模、安全且經過驗證之AI叢集的企業與模型開發者。 NVIDIA GB300 NVL72 by HPE:針對超過1兆參數的AI模型進行優化,提供突破性的運算效能。現已開放訂購,預計於2025年12月出貨。 HPE ProLiant Compute DL380 Gen12 Server Premier Solution for Azure Local:提供安全的混合雲端基礎架構,使企業能在任何地方執行Azure服務並加速AI創新。此全新方案將特定的Azure服務與AI功能直接部署至資料中心,同時支援NVIDIA RTX PRO 6000 Blackwell Server Edition GPU,以滿足AI、圖形運算與虛擬桌面基礎架構(VDI)工作負載需求。 HPE提供廣泛的NVIDIA加速運算基礎架構選擇:包括強大的RTX PRO 6000 Blackwell Server Edition與體積小巧的NVIDIA RTX A1000 GPU,以提升八款HPE ProLiant平台上的AI與圖形處理效能。這些選項讓研究、教育、醫療、金融、媒體、製造與零售領域的企業能夠靈活部署可擴展且高效能的基礎架構,以加速處理嚴苛要求的工作負載。 HPE ProLiant 和 HPE Cray 伺服器將與最新的 NVIDIA 產品同步上市,包括 NVIDIA Rubin CPXs 與 NVIDIA Vera Rubin CPX 平台。HPE 伺服器的未來機型將支援 NVIDIA ConnectX-9 SuperNIC 與 NVIDIA BlueField-4。NVIDIA BlueField-4 是一款為千兆級 AI 工廠打造的 DPU,提供 800 Gb/s 的傳輸量,並具備多租戶網路、AI 執行時安全性、快速資料存取及高效能推論處理功能。
Akamai 在全球範圍內提供可擴展、安全且低延遲的 AI 推理,為智慧代理 AI 和實體 AI 浪潮提供助力 負責支援並保護全球線上運作的雲端服務供應商 Akamai Technologies, Inc.(以下簡稱:Akamai)(NASDAQ: AKAM)今日正式宣布推出 Akamai Inference Cloud。該平台透過將推理從核心資料中心擴展至網際網路邊緣,重新定義了AI 應用的場景與方式。 Akamai Inference Cloud 能夠在更靠近使用者與設備的位置進行智慧化推理。不同於傳統系統,該平台專為在全球範圍內提供低延遲、即時的邊緣 AI 運算而設計。此次推出的 Akamai Inference Cloud,結合 Akamai 在全球分散式架構方面的深厚經驗 與 NVIDIA Blackwell AI 基礎架構,對實現 AI 真正潛力所需的加速運算能力進行了顛覆性重構與擴展。 從個人化數位體驗、智慧代理到即時決策系統,下一代的 AI 應用程式迫切需要將 AI 推理部署於更靠近使用者的位置,以便在互動瞬間完成反應,並對請求的路由與執行路徑做出智慧化決策。智慧代理的工作負載日益仰賴低延遲推理、本地環境感知以及即時全球擴展的能力。專為推動此變革打造的 Akamai Inference Cloud,是一個分散式、生成式邊緣平台,可在更接近資料產生與決策執行的位置部署 NVIDIA AI 技術堆疊。 Akamai 執行長暨共同創辦人 Tom Leighton 博士 表示: 「下一波 AI 浪潮的發展同樣需要更靠近使用者—正如網際網路當年能夠成長為今日的全球平台一樣。Akamai 曾成功解決這一挑戰,如今我們再度迎接新一波機遇。借助 NVIDIA 的 AI 基礎架構,Akamai Inference Cloud 將在全球數千個節點上部署 AI 推理能力,以滿足不斷成長的運算與效能需求,從而實現更快速、更智慧、更安全的即時反應。」 NVIDIA創始人兼首席執行官 黃仁勳 指出: 「推理已成為 AI 中最密集的運算環節—並且必須在全球規模下即時進行。NVIDIA 與 Akamai 的合作,正是將推理能力推進到更靠近每一位使用者的位置,提供更快速、可擴展性更強的生成式 AI 服務,釋放新一代智慧應用的潛力。」 Akamai Inference Cloud 透過將智慧代理 AI 推理能力擴展至更靠近使用者與設備的位置,重新定義了 AI 應用的方式。該平台整合 NVIDIA RTX PRO Server(配備 NVIDIA RTX PRO 6000 Blackwell 伺服器版 GPU、NVIDIA BlueField-3 DPU 與 NVIDIA AI Enterprise 軟體),並結合 Akamai 的分散式雲端架構 與遍布全球超過 4,200 個據點的邊緣網路。Akamai Inference Cloud 也將運用 NVIDIA 最新技術(包括新發佈的 NVIDIA BlueField-4 DPU),進一步加速並強化從核心到邊緣的資料存取與 AI 推理工作負載,推動 Akamai 實現其打造全球高可擴展、分散式 AI 架構的願景。 Akamai 與 NVIDIA 攜手合作,透過 Akamai Inference Cloud,以前所未有的方式推進 AI 推理,共同開創 AI 發展新篇章: ● 將企業級 AI 工廠延伸至邊緣,賦能智慧代理與個人化體驗:AI 工廠是強大的引擎,負責統籌管理從資料擷取到大規模智慧生成的完整生命週期。Akamai Inference Cloud 將 AI 工廠延伸至邊緣,使資料與處理能去中心化,並藉由 Akamai 廣泛的邊緣節點將請求路由至最佳模型。這讓智慧代理能即時因應使用者位置、行為與意圖,並自主完成即時協商、購買或交易最佳化。 ● 支援串流推理與智慧代理,實現即時金融洞察與決策:AI 智慧代理往往需多次連續推理才能完成複雜任務,這可能導致延遲並降低使用者體驗。若每次推理都需遠端呼叫,則會造成網路延遲與反應遲滯。Akamai Inference Cloud 的邊緣原生架構提供近乎即時的回應,使 AI 智慧代理能在多步驟流程中以接近人類的速度運作,在詐欺偵測、安全支付與工業邊緣即時決策等場景中發揮重大作用。 ● 使實體 AI 具備超越人類的反應速度:無人駕駛車輛、工業機器人與智慧城市基礎設施等實體 AI 系統,需要毫秒級決策能力才能安全地與真實世界互動。Akamai Inference Cloud 旨在為這些系統賦能,使其能即時處理感測資料、進行安全判斷並協調行動,讓工廠產線、配送無人機、手術機器人與智慧交通網絡都能成為與人類安全協作、反應迅速的智慧體系。 ● 加速價值實現:在多個雲端區域編排複雜的分散式 AI 工作負載需要專業技能與團隊。Akamai Inference Cloud 的智慧編排層可自動將 AI 任務路由至最佳地點—常規推理透過邊緣的 NVIDIA NIM 微服務 即時執行,而複雜推理則交由集中式 AI 工廠處理。所有流程皆由單一平台統一管理,大幅降低基礎架構的複雜度。 Akamai Inference Cloud 現已正式上線,首波部署將覆蓋全球 20 個地點,並計畫持續擴展。 了解更多關於 Akamai Inference Cloud 的訊息,請訪問我們的網站。
於加州矽谷最大設計與製造中心提供 AI 優化基礎架構及高能源效益運算系統 於美國持續增長,設施與人才遍佈全美 加州聖荷西2025年10月30日 /美通社/ -- Super Micro Computer, Inc. (SMCI) 作為人工智能 (AI)/機器學習 (ML)、高效能運算 (HPC)、雲端、儲存及 5G/邊緣的全方位 IT 解決方案供應商,今日宣佈成立 Super Micro Federal LLC,旨在加速拓展聯邦市場。新成立的實體將專注於提供在美國開發、建構、驗證(及製造)的高效能、高能源效益解決方案,以滿足美國政府機構不斷演變的需求。 系統機架系列圖片 「Supermicro 致力支持美國聯邦政府,為其新一代技術計劃提供動力。」Supermicro 總裁兼行政總裁 Charles Liang 表示,「透過這項措施,Supermicro 將為美國聯邦政府機構提供完整的資料中心 IT 解決方案,這些方案均在我們位於加州矽谷的生產基地進行製造和測試。憑藉我們的 Data Center Building Block Solutions®(資料中心建構模組解決方案),我們能為各種資料中心的需求,設計並交付完整的 IT 架構。」 如需更多資訊,請瀏覽 https://www.supermicro.com/en/ Supermicro 的組織擴張,彰顯其對美國創新、本土製造和供應鏈的承諾。憑藉設於美國的工程團隊,該公司確保為聯邦政府加快產品上市時間和上線時間。 這間新的聯邦附屬公司將利用 Supermicro 的資料中心建構模組解決方案,實現 AI 就緒系統的快速客製化和部署。憑藉其在美國的強大製造能力,為政府機構提供兼具效能與成本效益的解決方案。 Supermicro 的全球總部位於加州聖荷西,加上近期在矽谷的擴展,使其在美國的業務版圖不斷增長。該公司亦正探索在美國設立新的生產設施,以應對日益增長的需求。這些措施均彰顯公司致力推動美國製造業發展和創造本土就業機會的承諾。 關於 Super Micro Computer, Inc. Supermicro(納斯達克股票代碼:SMCI)是全球應用程式最佳化整體 IT 解決方案的領導者。Supermicro 在美國加州聖荷西創立和營運,致力為企業、雲端、人工智能 (AI) 和 5G 電訊/邊緣 IT 基礎設施提供市場創新。我們是全方位的 IT 解決方案供應商,提供伺服器、人工智能、儲存、物聯網、交換器系統、軟件和支援服務。Supermicro 的主機板、電源和機箱設計專業知識,進一步支援開發和生產,並為全球客戶實現從雲端到邊緣的新一代創新。我們的產品均由公司內部(在美國、亞洲和荷蘭)設計和製造,並利用全球營運實現規模、效率和最佳化,從而改善 TCO 和降低對環境的影響(綠色運算)。屢獲殊榮的 Server Building Block Solutions® 產品組合,允許客戶從由我們靈活兼可重複使用的構建塊構建的廣泛系統系列中進行選擇,而為客戶的確切工作負載和應用進行最佳化。這些構建塊支援廣泛外形尺寸、處理器、記憶體、GPU、儲存、網絡、電源和冷卻解決方案(空調、自然風冷或液體冷卻)。 Supermicro、Server Building Block Solutions 和 We Keep IT Green,均為 Super Micro Computer, Inc. 的商標及/或註冊商標。 全部其他品牌、名稱和商標均為它們各自擁有者的財產。
【114年10月30日,台北訊】格斯科技*(6940)於「Energy Taiwan台灣國際智慧能源週」登場,展示橫跨家庭、工業及運算領域的完整儲能產品線,並於論壇發表主題演講〈接軌運算新時代:AIDC備援電力創新與落地〉,針對AI數據中心的能源挑戰與應用案例提出深度分析。展區內同步展示多款高穩定度電芯、系統化UPS模組與家庭儲能設備,全面展現台灣在電池製造與能源應用上的技術實力。 運算時代的能源挑戰:AI驅動電力需求再定義 隨著生成式AI與高效能運算(HPC)加速滲透,全球資料中心用電量正以每年逾30%速度成長。根據國際能源署(IEA)預估,AI與資料中心合計電力需求將於2026年突破1000TWh,等同整個日本年度用電量。這股能耗浪潮推動各地對「高可用、高效率、低碳排」電力系統的迫切需求,也讓電芯製造與備援電力技術成為運算基礎設施中不可或缺的環節。 格斯科技*發言人許志帆指出,AI資料中心(AIDC)具備「24/7不中斷」特性,其供電品質與瞬時響應能力直接關係到服務水準協議(SLA)的穩定度。以現行主流GPU伺服器如NVIDIA H100為例,其啟動瞬間的高功率需求,必須仰賴高倍率放電電池及智慧電源管理系統(BMS)支撐,才能確保運算效率與系統壽命的平衡。 創新備援電力方案:從材料到系統的垂直整合 在此次Energy Taiwan展區,格斯科技*以系統化方式呈現全系列產品,從高能量密度電芯到工業級/半導體廠專用UPS模組皆在現場展出。其中包含: Smart Household ESS:15kWh智慧家庭儲能系統,整合再生能源儲存與日夜尖離峰電力調度; Powercore 520V/300kW UPS系統:專為資料中心設計,具高功率輸出與毫秒級切換特性; VDA系列模組(21Ah/35Ah/45Ah):符合國際電芯規格,可支援車用與儲能雙應用; G140S/G140X系列電芯:分別具10Ah高能量密度與5Ah高功率密度,兼具穩定與輸出效能; 48V與800V雙平台模組:支援AI伺服器、通訊基站與輕工業設備的電力穩定需求。 格斯科技*採行LTO、NCM、XNO與LFP四系統並行策略,針對不同溫域與放電倍率進行最佳化設計。例如LTO電芯在-30°C仍能維持80%以上放電效率,並具超過20,000次循環壽命。所有電芯產品皆通過嚴苛的安全與壓力測試,具備極高的熱穩定性與抗穿刺能力,不起火、不爆炸,能在極端環境下保持運作安全,是AI資料中心(AIDC)備援電力的最佳方案。 應用落地:從資料中心到智慧城市的能源韌性 格斯科技*近期最新落地成果——桃園市立圖書館青埔智慧科技分館的AI備援系統。該館於昨(29)日正式開幕,由桃園市長張善政親自主持,他在致詞中指出:「這座智慧科技圖書館是桃園推動智慧城市的象徵,其背後的人工智慧伺服器就是智慧城市的心臟。」 青埔智慧科技分館在伺服器端採用美商美超微(Supermicro)解決方案,以支援全館AI智慧應用;而其中負責確保系統24小時穩定運作的UPS備援系統,則由格斯科技*提供。格斯科技*的高效率與超高安全LTO電芯模組具備優異的安全與熱穩定性,不起火、不爆炸,即使在極端環境下仍能維持長期穩定運作,為AI伺服器提供持續可靠的電力支撐,支援全館自動化照明、借閱、人流與環境監測等AI應用,成為全台少數真正以AI運算驅動的公共建築示範。張市長特別強調,青埔館是桃園智慧圖書館的起點,未來將逐步將這類科技導入更多分館,讓市民「借書越來越方便、AI智慧生活真正落地」。 接軌全球能源思維:以台灣製造驅動低碳新鏈結 面對AI運算時代的能源挑戰,格斯科技*以台灣製造為核心,從電芯研發、BMS控制到整機整合,形成完整的垂直化能源系統鏈。透過導入高效率電芯材料與智慧能源管理平台,格斯科技*不僅提升系統TCO效率逾40%,也協助企業與公共單位實踐ESG與RE100目標。 格斯科技*表示,未來將持續深化AI伺服器、資料中心及分散式能源市場的合作布局,並以「高效、低碳、智慧」為導向,為台灣能源轉型與智慧城市發展提供更具韌性的技術支撐。
Supermicro深化與NVIDIA的合作,將於2026年推出NVIDIA Vera Rubin NVL144與NVIDIA Vera Rubin CPX平台。這些平台與Blackwell Ultra相比,可提供超過3倍的AI Attention加速效能。 Supermicro推出基於其資料中心建構組件解決方案(Data Center Building Block Solutions®,DCBBS)技術的全新2OU NVIDIA HGX B300 8-GPU系統。該系統採用OCP架構的機架級設計,可在單一機架內支援最高144個GPU。 Supermicro在美國加州聖荷西的製造基地可確保所有解決方案在美國當地完成開發、組裝與驗證,並符合美國貿易協定法(TAA)相關規範,以及支援 Buy American Act政策。 Supermicro支援全堆疊(Full-Stack)式NVIDIA AI Factory for Government參考設計,並擴大AI解決方案產品組合,包括新增搭載NVIDIA GB300的桌邊型AI超級電腦Super AI Station,以及全新機架級NVIDIA GB200 NVL4 HPC解決方案。 加州聖荷西2025年10月30日 /美通社/ -- Super Micro Computer, Inc.(NASDAQ:SMCI)作為AI/機器學習、HPC、雲端、儲存和5G/邊緣領域的全方位IT解決方案供應商,於本週在美國華盛頓特區的NVIDIA GTC大會上展示先進的AI基礎設施解決方案,以及專為聯邦政府機構所設計的系統,可因應高度嚴苛的需求。Supermicro計劃於2026年推出下一代NVIDIA AI平台,包括NVIDIA Vera Rubin NVL144與NVIDIA Vera Rubin CPX。此外,Supermicro也推出了美國製造,並符合美國貿易協定法(Trade Agreements Act,TAA)規範的系統,包括高密度2OU NVIDIA HGX B300 8-GPU系統(可在每個機架內支援最高144個GPU),並擴充其伺服器產品組合,新增搭載NVIDIA GB300的Super AI Station和全新機架級NVIDIA GB200 NVL4 HPC解決方案。 Supermicro總裁暨執行長梁見後表示:「我們與NVIDIA的擴大性合作,以及對美國本土製造的投入,使Supermicro成為聯邦機構AI部署專案的可信賴合作夥伴。Supermicro公司總部、製造基地與研發中心皆位於矽谷核心地帶的加州聖荷西,具備極佳的技術與產能,能領先市場,為美國聯邦機構客戶提供從開發、建置、驗證到製造的完整解決方案。Supermicro與同樣位於矽谷的長期戰略夥伴NVIDIA進行了多年的緊密合作,進而成為美國AI基礎設施開發領域的領先企業。」 如需了解更多資訊,請瀏覽https://www.supermicro.com/en/accelerators/nvidia 與https://www.supermicro.com/en/featured/rtx-pro-6000-systems。 Supermicro正擴大其最新解決方案,包括基於NVIDIA HGX B300與B200,NVIDIA GB300與GB200,以及NVIDIA RTX PRO™ 6000 Blackwell伺服器版本GPU的系統。這些GPU可為關鍵型聯邦政府工作負載(如網路安全與風險偵測、工程與設計、醫療與生命科學、資料分析與融合平台、建模與模擬,以及安全的虛擬化基礎設施)提供空前的運算效能、效率與可擴充性。 Supermicro聚焦美國製造,並將其列為業務核心方針之一。所有針對政府機構應用最佳化的系統均在其位於加州聖荷西的全球總部開發、建構,並經過嚴格驗證,確保完全符合TAA規範以及Buy American Act標準。此美國本土製造產能可強化供應鏈安全性,並滿足聯邦機構對高可信度與高品質技術解決方案的需求。 透過與NVIDIA的合作,Supermicro計劃於2026年推出NVIDIA Vera Rubin NVL144與NVIDIA Rubin CPX平台。這些平台將在AI訓練與推論效能方面超越上一代產品,助力不同組織透過卓越的運算效率,運行規模複雜的AI工作負載。 Supermicro也推出了其最緊湊的2OU NVIDIA HGX B300 8-GPU伺服器。此系統是基於資料中心建構組件解決方案(Data Center Building Block Solutions®)技術,並採用OCP架構的機架級設計,可在單一機架中支援最高144個GPU,為政府機構資料中心內的大規模AI與HPC部署提供極佳的效能與可擴充性。 同時,Supermicro正持續擴大其專為美國政府單位應用打造的產品組合,並針對NVIDIA AI Factory for Government參考設計進行最佳化。NVIDIA AI Factory for Government是一個全堆疊、端到端的參考設計,可為地端與混合雲環境的部署,以及多種AI工作負載的管理提供導引,並符合需要高保障度之機構的合規要求。 此項專為政府機構打造的產品組合包括搭載NVIDIA GB300的Super AI Station與機架級NVIDIA GB200 NVL4 HPC解決方案。這兩項產品針對聯邦組織的應用環境進行了最佳化,提供更高的安全性、可靠性和可擴充性,進而滿足嚴格的政府單位標準。 GTC DC 支援全新加速型網路技術 Supermicro整合了最新NVIDIA技術,率先宣布其系統產品支援近期發布的NVIDIA BlueField-4 DPU與NVIDIA ConnectX-9 SuperNIC,以強化Gigascale級AI工廠的網路效能。這些新一代加速型基礎設施技術上市後,Supermicro可立即將這些技術整合至新的AI系統中,實現更快速的叢集級AI網路傳輸、儲存存取與資料處理Offload,強化新一代NVIDIA AI基礎設施的性能。同時,Supermicro透過其模組化硬體設計,可將NVIDIA BlueField-4與ConnectX-9等新技術快速整合至現有系統產品,僅需最低程度的重新設計,加速產品上市,並降低開發成本。 全新Super AI Station:為桌上型環境提供AI伺服器級的效能 Supermicro持續落實其領先市場的策略,率先宣布推出全新液冷式ARS-511GD-NB-LCC Super AI Station。這款系統將高規格伺服器級GB300 Superchip整合至桌邊式機體,在同類型的眾多系統內屬於業界首款機型,可提供備極強的性能。與傳統PCIe架構GPU工作站相比,該系統具有超過5倍以上的AI PFLOPS算力。ARS-511GD-NB-LCC Super AI Station也是一套完整的解決方案,能支援AI模型訓練、微調(Fine-Tuning)、應用程式與演算法原型設計與開發,並可部署至地端(On-Prem)環境,實現極低的延遲和完善的資料安全性,進一步支援最高1兆參數(Parameter)規模的模型。這款獨立式平台的適用對象,包括無法透過傳統伺服器基礎設施進行AI開發,以及因無法取得,或在成本、隱私與延遲方面的考量,而無法使用叢集級系統或雲端AI服務的政府單位、新創企業、高科技和研究實驗室等機構。 此款Super AI Station是經過完善整合的一體化解決方案,並可部署在桌上型或機架式環境。其核心元件和性能包括: NVIDIA GB300 Grace Blackwell Ultra桌上型Superchip 最高可達784GB的Coherent Memory NVIDIA ConnectX-8 SuperNIC 針對CPU、GPU、ConnectX-8與記憶體的封閉式直達晶片液冷(Closed-Loop Direct-to-Chip Liquid Cooling)散熱設計 最高可達20 PFLOPS的AI效能 NVIDIA AI軟體套件 可選擇性加裝一組PCIe GPU以支援圖型與渲染加速 5U桌上型機體規格,可視需求安裝於機架內 適用標準型電源插座的1600W電源供應器 現已推出機架級GB200 NVL4 GPU加速型HPC與AI解決方案 Supermicro也推出了ARS-121GL-NB2B-LCC NVL4機架級平台,適用於GPU加速型HPC與AI科學應用工作負載,包括分子模擬、氣象建模、流體力學及基因組學。此平台搭載了以NVIDIA NVLink™互連的4個Blackwell GPU,以及2個NVIDIA Grace™ CPU,並透過NVLink-C2C技術將GPU和CPU進行一體性整合,可提供強大的運算效能。該平台也可在每個機架內支最高32個節點,並以NVIDIA ConnectX-8相連,為每個GPU提供最高800G的傳輸速度。ARS-121GL-NB2B-LCC NVL4可根據工作負載需求進行系統或機架級的擴充,並可選擇透過機架內(In-rack)或機架列間式(In-Row)冷卻分配單元(CDU)進行液冷散熱。 機架內每個節點搭載4個B200 GPU與2個Grace Superchip,並透過直達晶片液冷技術進行散熱 每節點具有4個800G NVIDIA Quantum InfiniBand連接埠,為每個B200 GPU提供800G的傳輸速度(亦可搭配其他NIC選擇) 可在一組48U NVIDIA MGX機架內支援最高128個GPU,實現極高的資料中心密度 透過匯流排(Busbar)供電,確保系統可進行無縫式擴充 這些Supermicro系統可支援NVIDIA AI Enterprise軟體與NVIDIA Nemotron開源AI 模型,是AI應用開發與部署的理想平台。 關於Super Micro Computer, Inc. Supermicro(納斯達克股票代碼:SMCI)為應用最佳化全方位IT解決方案的全球領導者。Supermicro的成立據點及營運中心位於美國加州聖荷西,致力為企業、雲端、AI和5G電信/邊緣IT基礎架構提供領先市場的創新技術。我們是全方位IT解決方案製造商,提供伺服器、AI、儲存、物聯網、交換器系統、軟體及支援服務。Supermicro的主機板、電源和機箱設計專業進一步推動了我們的發展與產品生產,為全球客戶實現了從雲端到邊緣的下一代創新。我們的產品皆由企業內部團隊設計及製造(在美國、亞洲及荷蘭),透過全球化營運實現極佳的規模與效率,並藉營運最佳化降低總體擁有成本(TCO),以及經由綠色運算技術減少環境衝擊。屢獲殊榮的Server Building Block Solutions®產品組合,讓客戶可以自由選擇這些具高度彈性、可重複使用且極為多元的建構式組合系統,我們支援各種外形尺寸、處理器、記憶體、GPU、儲存、網路、電源和散熱解決方案(空調、自然氣冷或液冷),因此能為客戶的工作負載與應用提供最佳的效能。 Supermicro、Server Building Block Solutions和We Keep IT Green皆為Super Micro Computer, Inc. 的商標和/或註冊商標。 所有其他品牌、名稱和商標皆為其各自所有者之財產。
A12 藝術空間
資料中心
請先登入後才能發佈新聞。
還不是會員嗎?立即 加入台灣產經新聞網會員 ,使用免費新聞發佈服務。 (服務項目) (投稿規範)