關於 cookie 的說明

本網站使用瀏覽器紀錄 (Cookies) 來提供您最好的使用體驗,我們使用的 Cookie 也包括了第三方 Cookie。相關資訊請訪問我們的隱私權與 Cookie 政策。如果您選擇繼續瀏覽或關閉這個提示,便表示您已接受我們的網站使用條款。

搜尋結果Search Result

符合「#BlueField-3 DPU」新聞搜尋結果, 共 9 篇 ,以下為 1 - 9 篇 訂閱此列表,掌握最新動態
Supermicro推出全新集成NVIDIA BlueField-3 DPU的全快閃記憶Petascale JBOF超大規模儲存解決方案,加速AI數據管道

全新JBOF架構助力儲存獨立軟件供應商和雲端服務供應商,為人工智能時代構建高性能、高效且智能的數據平台 加州聖荷西2024年10月16日 /美通社/ -- Supermicro, Inc. (納斯達克股票代碼:SMCI),作為AI、雲端、儲存及5G/Edge計算的綜合IT解決方案供應商,正式推出一款全新優化儲存系統,旨在支持高性能的人工智能訓練、推理及高性能計算(HPC)工作負載。該JBOF(Just a Bunch of Flash)系統在2U機箱中集成多達四個NVIDIA BlueField-3數據處理單元(DPU),以運行軟件定義的儲存工作負載。每個BlueField-3 DPU均支持400Gb以太網或InfiniBand網絡,並具備硬件加速能力,適用於處理如加密、壓縮和糾刪編碼等計算密集型儲存和網絡工作負載,以及擴展AI儲存需求。該雙連接埠JBOF架構採用了最先進的主動主動式叢集設計,確保關鍵任務儲存應用的縱向擴展以及對象儲存和並行檔案系統等橫向擴展儲存的高可用性。 Supermicro推出全新集成NVIDIA BlueField-3 DPU的全快閃記憶Petascale JBOF超大規模儲存解決方案,加速AI數據管道 「Supermicro全新的高性能JBOF儲存系統採用我們的模組化設計方法,支持E3.S或U.2規格的SSD,並採用最新的PCIe Gen 5技術,連接SSD、DPU網絡和儲存平台,」Supermicro主席兼行政總裁Charles Liang表示「Supermicro的系統設計支持24或36個SSD,使用30.71TB的SSD可提供高達1.105PB的原始容量。我們均衡的網絡和儲存I/O設計能夠充分利用400 Gb/s的BlueField-3全線速,實現超過250GB/s的PCIe Gen 5 SSD帶寬。」 如需更多關於Supermicro人工智能儲存解決方案的資訊,請瀏覽:https://www.supermicro.com/en/products/storage。 Supermicro的JBOF解決方案結合了NVIDIA BlueField-3,將傳統的儲存CPU和記憶體子系統替換為BlueField-3 DPU,並在DPU的16個Arm核心上運行儲存應用程式。除了儲存加速功能,如糾刪碼和解壓算法,BlueField-3還透過硬件支持RoCE(基於以太網的遠程直接內存訪問)、GPU直接儲存和GPU發起儲存來加速網絡性能。 NVIDIA高級副總裁Kevin Deierling表示:「加速計算和人工智能正在改變每一個行業,為社會帶來諸多益處。」「NVIDIA BlueField-3 DPU使得像Supermicro Petascale JBOF這樣的創新解決方案成為可能,為新一代AI數據平台提供了極致性能和高效能的基礎。」 Supermicro正與NVIDIA合作,打造全新的JBOF生態系統,包括數據平台公司Hammerspace和對象儲存提供商Cloudian,旨在使這些儲存基礎設施軟件平台能夠在Supermicro JBOF中原生運行於NVIDIA BlueField-3 DPU上。此外,Supermicro已驗證了來自美光(Micron)和錦瑛(KIOXIA)的SSD與JBOF系統的兼容性,提供多種容量選擇以及單端口和雙端口功能。 「Supermicro採用NVIDIA BlueField-3 DPU的JBOF提供了一種高度集成的儲存解決方案,專為大規模AI訓練和分析儲存工作負載而設計,」IDC全球基礎設施研究部集團副總裁兼總經理Ashish Nadkarni表示。「這一實施方案提供了比基於CPU的儲存伺服器更高的能效,並且由於JBOF和DPU架構提供的直接數據路徑,讀取延遲更低。Supermicro和NVIDIA已組建了一個合作夥伴生態系統,使所有大型AI、雲端服務供應商(CSP)和高性能計算(HPC)客戶都應該考慮這一方案。」 有關全新JBOF產品的更多資訊,請瀏覽:https://www.supermicro.com/en/products/jbof Supermicro將與NVIDIA合作,於10月16日(星期三)在美國加州聖荷西舉行的OCP全球會議上詳細介紹搭載NVIDIA BlueField-3的新JBOF解決方案。請參觀Supermicro的攤位B21,並參加主題為「使用DPU的高性能數據中心儲存」(High Performance Data Center Storage using DPUs)的會議,以獲取更多信息。 Super Micro Computer, Inc.簡介 Supermicro(納斯達克股票代碼:SMCI))是應用優化整體IT解決方案的全球領軍企業。Supermicro在加利福尼亞州聖荷西成立並營運,致力於為企業、雲端、AI和5G電信/Edge IT基礎設施提供率先進入市場的創新。我們是一家提供伺服器、人工智能、儲存、物聯網、交換機系統、軟件和支援服務的綜合IT解決方案供應商。Supermicro的主板、電源和機箱設計專業知識進一步推動了我們的開發和生產,為我們的全球客戶實現了從雲端到Edge的下一代創新。我們的產品均在公司內部(包括美國、亞洲和荷蘭)完成設計和製造,透過全球營運實現規模和效益,從而優化總體擁有成本(TCO),並能夠(透過綠色計算)減少對環境的影響。獲獎無數的Server Building Block Solutions®透過我們靈活可重用的構建模組,為客戶提供了豐富的可選系統產品系列,用於優化其確切的工作負載和應用。這些構建模組支援全系列外形規格、處理器、記憶體、GPU、儲存、網絡、電源和冷卻解決方案(空調、自然空氣冷卻或液體冷卻)。 Supermicro、Server Building Block Solutions和We Keep IT Green是Super Micro Computer, Inc.的商標和/或註冊商標。 所有其他品牌、名稱和商標均為其各自所有者的財產。 Supermicro推出全新集成NVIDIA BlueField-3 DPU的全快閃記憶Petascale JBOF超大規模儲存解決方案,加速AI數據管道   Supermicro推出全新集成NVIDIA BlueField-3 DPU的全快閃記憶Petascale JBOF超大規模儲存解決方案,加速AI數據管道   Supermicro推出全新集成NVIDIA BlueField-3 DPU的全快閃記憶Petascale JBOF超大規模儲存解決方案,加速AI數據管道  

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 1151 加入收藏 :
Supermicro Adds New Petascale JBOF All-Flash Storage Solution Integrating NVIDIA BlueField-3 DPU for AI Data Pipeline Acceleration

New JBOF Architecture Enables Storage ISVs and Cloud Service Providers to Build High-Performance, Efficient, and Intelligent Data Platforms for the Era of AI SAN JOSE, Calif., Oct. 15, 2024 /PRNewswire/ -- Supermicro, Inc. (NASDAQ: SMCI), a Total IT Solution Provider for AI, Cloud, Storage, and 5G/Edge, is launching a new optimized storage system for high performance AI training, inference and HPC workloads. This JBOF (Just a Bunch of Flash) system utilizes up to four NVIDIA BlueField-3 data processing units (DPUs) in a 2U form factor to run software-defined storage workloads. Each BlueField-3 DPU features 400Gb Ethernet or InfiniBand networking and hardware acceleration for high computation storage and networking workloads such as encryption, compression and erasure coding, as well as AI storage expansion. The state-of-the-art, dual port JBOF architecture enables active-active clustering ensuring high availability for scale up mission critical storage applications as well as scale-out storage such as object storage and parallel file systems. Supermicro Adds New Petascale JBOF All-Flash Storage Solution Integrating NVIDIA BlueField-3 DPU for AI Data Pipeline Acceleration "Supermicro's new high performance JBOF Storage System is designed using our Building Block approach which enables support for either E3.S or U.2 form-factor SSDs and the latest PCIe Gen 5 connectivity for the SSDs and the DPU networking and storage platform," said Charles Liang, president and CEO of Supermicro. "Supermicro's system design supports 24 or 36 SSD's enabling up to 1.105PB of raw capacity using 30.71TB SSDs. Our balanced network and storage I/O design can saturate the full 400 Gb/s BlueField-3 line-rate realizing more than 250GB/s bandwidth of the Gen 5 SSDs." For more information on the Supermicro's storage solutions for AI, please visit: https://www.supermicro.com/en/products/storage. The Supermicro JBOF with NVIDIA BlueField-3 solution replaces the traditional storage CPU and memory subsystem with the BlueField-3 DPU and runs the storage application on the DPU's 16 Arm cores. In addition to storage acceleration such as erasure coding and decompression algorithms, the BlueField-3 also accelerates networking through hardware support for RoCE (RDMA over Converged Ethernet), GPU Direct Storage and GPU Initiated Storage. "Accelerated computing and AI are transforming every industry and delivering benefits for society," said Kevin Deierling, senior vice president of networking at NVIDIA. "NVIDIA BlueField-3 DPUs enable innovative solutions like the Supermicro Petascale JBOF, which is the foundation for a new class of AI data platforms delivering extreme performance and efficiency." In collaboration with NVIDIA, Supermicro is creating a new JBOF ecosystem including data platform company Hammerspace and object storage provider Cloudian to enable these storage infrastructure software platforms to run natively on the NVIDIA BlueField-3 DPU in the Supermicro JBOF. In addition, Supermicro has qualified SSDs from Micron and KIOXIA with the JBOF system to provide a range of capacities and single and dual-port capability. "The Supermicro JBOF using NVIDIA's BlueField-3 DPU offers a highly integrated storage approach for large-scale AI training and analytics storage workloads," said Ashish Nadkarni, Group Vice President and General Manager, Worldwide Infrastructure Research at IDC. "This implementation provides a more power efficient solution than CPU-based storage servers and lower read latency due to the direct data path provided by the JBOF and DPU architecture. Supermicro and NVIDIA have assembled an ecosystem of partners which makes this something that all large-scale AI, CSP and HPC customers should consider." For more information about the new JBOF product, please visit: https://www.supermicro.com/en/products/jbof Supermicro, in collaboration with NVIDIA, will present the new JBOF solution with the NVIDIA BlueField-3 in more detail at the OCP Global conference in San Jose, California, on Wednesday, October 16. Visit Supermicro at Booth B21 and attend the session "High Performance Data Center Storage using DPUs" to learn more. About Super Micro Computer, Inc. Supermicro (NASDAQ: SMCI) is a global leader in Application-Optimized Total IT Solutions. Founded and operating in San Jose, California, Supermicro is committed to delivering first-to-market innovation for Enterprise, Cloud, AI, and 5G Telco/Edge IT Infrastructure. We are a Total IT Solutions provider with server, AI, storage, IoT, switch systems, software, and support services. Supermicro's motherboard, power, and chassis design expertise further enables our development and production, enabling next-generation innovation from cloud to edge for our global customers. Our products are designed and manufactured in-house (in the US, Asia, and the Netherlands), leveraging global operations for scale and efficiency and optimized to improve TCO and reduce environmental impact (Green Computing). The award-winning portfolio of Server Building Block Solutions® allows customers to optimize for their exact workload and application by selecting from a broad family of systems built from our flexible and reusable building blocks that support a comprehensive set of form factors, processors, memory, GPUs, storage, networking, power, and cooling solutions (air-conditioned, free air cooling or liquid cooling). Supermicro, Server Building Block Solutions, and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc. All other brands, names, and trademarks are the property of their respective owners.   Supermicro Adds New Petascale JBOF All-Flash Storage Solution Integrating NVIDIA BlueField-3 DPU for AI Data Pipeline Acceleration   Supermicro Adds New Petascale JBOF All-Flash Storage Solution Integrating NVIDIA BlueField-3 DPU for AI Data Pipeline Acceleration   Supermicro Adds New Petascale JBOF All-Flash Storage Solution Integrating NVIDIA BlueField-3 DPU for AI Data Pipeline Acceleration      

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 971 加入收藏 :
F5 結合 NVIDIA BlueField-3 DPUs 加速服務供應商的邊緣AI部署

(台北訊 2025 年 3 月 19 日) F5 (NASDAQ: FFIV) 宣佈BIG-IP Next 雲端原生網路功能 (CNF) 現已部署於NVIDIA BlueField-3 DPU ,深化兩家公司的技術合作。該解決方案提供經認證的 F5網路基礎設施功能,包括邊緣防火牆、DNS 和 DDoS 保護,轉化為輕量級雲端原生功能,並透過 NVIDIA BlueField-3 DPU 運作,將在 Kubernetes 環境中提供最佳效能並支援新興的邊緣 AI 應用場景。 F5 Application Delivery and Security Platform為全球主要5G、行動和固網電信網路提供支援。服務供應商面對在分散式環境中擴展 AI 應用的挑戰,特別是因為網路核心中的傳統基礎設施,通常缺乏 AI 推理使用時所需的處理能力。 在 NVIDIA DPU 上運作的 F5 雲端原生網路功能,現在可以嵌入到邊緣和遠端基礎設施中,以優化運算資源、大幅降低每 Gbps 的功耗,並減少整體營運費用。供應商進一步運用邊緣環境將為用戶服務增加功能和 AI 能力,相對也帶來額外的安全要求,F5 和 NVIDIA BlueField 技術不僅能提供強化的安全防護,實現進階的流量管理,並將延遲降到最低。  在邊緣部署 CNF 可以使應用更接近用戶及其資料,促進資料主權、改善用戶體驗,並減少電力、空間和冷卻等相關的成本。實現低延遲對於AI應用和下列功能至關重要:          即時決策,支援自動駕駛汽車和詐欺偵測。          即時使用者互動,包括自動語言處理工具( NLP) 和擴增 AR/VR 體驗。 ·     持續監控和回應,適用於醫療設備和製造機器人。 當在 BlueField-3 DPU 上部署 CNF 時,F5 進一步擴展 F5 先前推出在 NVIDIA DPU 上部署的 BIG-IP Next for Kubernetes。 F5 繼續採用 NVIDIA DOCA Software Framework,將其解決方案與 NVIDIA BlueField DPU 無縫整合。這個全面的開發框架為 F5 提供一套強大的 API、函式庫和工具,使其充分發揮 NVIDIA BlueField DPU 的硬體加速功能。透過利用 DOCA,F5 快速實現跨各種網路和安全卸載的整合並提供高效能,同時確保跨幾代 BlueField DPU 的相容性。此外,藉由使用 NVIDIA BlueField-3 加速 F5 CNF釋放 CPU 資源,可用於執行其他應用程式。  邊緣部署為服務供應商開啟主要機會,包括用於 UPF 的分散式 N6-LAN 功能,以及支援分散式接取架構 (DAA) 和私有 5G 的邊緣安全服務。此外,AI-RAN 正在蓬勃發展,軟銀最近與 NVIDIA 展示其生產環境。  釋放F5與NVIDIA共同打造的AI-RAN潛力 AI-RAN 致力於將行動網路轉變為多用途基礎設施,最大化資源利用率,透過託管 AI 服務創造新的收入來源,並提高成本效率。 AI-RAN 使電信服務供應商能夠透過可靠、安全且最佳化的連線,支援分散式 AI 運算,並激發原先閒置未使用的處理能力,增強邊緣基礎設施功能。BIG-IP Next CNF 與NVIDIA BlueField-3 DPU 的結合,將加速 AI-RAN 部署,實現簡化 AI 和 RAN 工作負載的流量管理,提供強化的防火牆和 DDoS 保護。尤其針對關鍵功能的應用,解決方案會原生支援多租戶架構和租戶隔離功能。透過 F5 和 NVIDIA,電信服務供應商可以智慧地利用相同的 RAN 運算基礎架構,為現有 RAN 服務提供 AI 產品,透過強化的使用者產品來大幅節省成本並發揮收入潛力。  支持證言: F5 服務供應商副總裁兼總經理 Ahmed Guetari 表示:「客戶正在尋求具被成本效益的方式,將統一應用交付和安全性的優勢帶入新興的 AI 基礎設施,這推動了 F5 和 NVIDIA 之間的持續合作。尤其是服務供應商將邊緣視為一個日益受關注的領域,因為資料存取和推理無需在集中位置或雲端環境中進行,這為網路增加智慧和自動化功能提供無數選項,同時提升用戶性能。」  NVIDIA 生態系統和行銷部門AI網路和安全解決方案資深總監 Ash Bhalgat 表示:「隨著邊緣AI推理的需求成為焦點,建立支援AI就緒的的分散式基礎設施,是電信供應商為客戶創造價值的關鍵機會。F5 的雲端原生功能透過 NVIDIA 的 BlueField-3 DPU 加速,打造一個強大的解決方案,讓 AI 更貼近用戶,同時為服務供應商提供無與倫比的效能、安全性和效率。我們不僅滿足邊緣 AI 需求;我們正在幫助企業利用人工智慧在互聯世界中保持競爭優勢。  可用資源 部署在 NVIDIA BlueField-3 DPU 上的 F5 BIG-IP Next Cloud-Native Network Functions 預計將於 2025 年 6 月全面上市。更多資訊請聯繫F5或F5 部落格資訊。

文章來源 : JlinkPR 發表時間 : 瀏覽次數 : 4251 加入收藏 :
思科攜手NVIDIA推出Nexus HyperFabric人工智慧叢集 為生成式AI打造全新簡化數據中心架構解決方案

【台灣 – 2024年6月5日】企業網路與安全領導品牌思科(NASDAQ: CSCO)今日攜手NVIDIA發布突破性的人工智慧叢集數據中心解決方案,顛覆客戶構建、管理及優化架構及軟體的方式。   為實現網路雲端化以簡化網路願景,思科推出全新企業級端對端架構解決方案,以擴展生成式AI工作負載。思科 Nexus HyperFabric人工智慧叢集解決方案結合思科AI原生網路,加上NVIDIA加速運算與人工智慧軟體,以及VAST強大的數據儲存平台,使客戶能夠專注以AI驅動創新並捕捉新商機,同時減輕IT 管理負擔。   根據思科最近發布的全球網路趨勢報告,有60%的 IT 主管及專業人士計劃在未來兩年內,在所有領域部署由AI驅動的自動化網路預測,更好地管理網路營運(NetOps)(註一)。此外,75% 受訪者計劃透過單一控制台,為不同網路的網域提供端對端可見性,包括主園區及其他分支機構、廣域網路(WAN)、數據中心、網路、公有雲,以及工業網路。   思科網路執行副總裁暨總經理Jonathan Davidson表示:「雖然人工智慧前景光明,但對於許多剛起步的企業而言,前方的道路並不明確。不少客戶在建立及運行AI堆疊時,經常面臨成本及營運方面的挑戰。而思科致力簡化人工智慧架構的部署及營運,此次與NVIDIA攜手構建適用於地端環境且易於部署的雲端運作AI堆疊解決方案,來實現自動化與網路簡化,正是思科網路雲端平台所期望達到的願景。」   NVIDIA網路資深副總裁Kevin Deierling表示:「生成式AI需要透過量身訂做的架構和軟體,才能讓企業安全地將數據轉化為業務轉型的動力。NVIDIA與思科攜手打造所企業級人工智慧平台及控制介面,就是能簡化生成式AI工作負載所需的加速運算、網路及軟體部署的解決分案。」   思科在 Cisco Live大會中,展示如何致力協助企業迅速部署AI架構,並為客戶提供合適的工具,助其輕鬆建立直觀的AI原生網路、預測故障以及快速診斷並修復問題。   思科Nexus HyperFabric人工智慧叢集運作原理   思科Nexus HyperFabric地端(on-premises)解決方案能從單一介面,讓使用者設計、部署、監測和保證人工智慧單位及數據中心的工作負載,並從設計、驗證部署、監測和保證全方位的指導用戶打造企業級架構。客戶能透過其雲端管理功能,於數據中心、共置設施及邊緣站點,輕鬆部署及管理大規模結構。   思科Nexus HyperFabric人工智慧叢集解決方案透過統一的運算及網路結構,提供可於雲端管理的自動化運作模式,結合以思科Silicon One為基礎的乙太網交換技術、NVIDIA的加速運算、人工智慧企業軟體,以及VAST數據儲存平台。思科Nexus HyperFabric人工智慧叢集解決方案涵蓋以下功能:          雲端管理功能:簡化工作流程各階段的IT營運        適用於主幹枝葉式(Spine and Leaf)架構的思科 Nexus 6000 系列交換器:提供400G及800G乙太網結構效能        思科Optics系列QSFP-DD模組:實現超高密度,為客戶提供不同選擇        NVIDIA AI Enterprise軟體平台:簡化構建和部署生產級的生成式AI工作負載        NVIDIA NIM微服務:加速基礎模型部署,同時確保數據安全,並可在 NVIDIA AI Enterprise 中使用        以NVIDIA H200 NVL為基礎的 NVIDIA Tensor Core GPU(圖形處理器):專為突破性提升生成式AI工作附載的性能與記憶體效能設計加速        NVIDIA BlueField-3 DPU(資料處理器)處理器及BlueField-3 SuperNIC:加速人工智慧運算網路、數據存取及安全效能負載        靈活的NVIDIA MGX模組化伺服器架構:滿足企業級AI應用程式的多元需求        VAST數據平台:提供統一的儲存、數據庫及專為人工智慧打造的數據驅動功能引擎   上市時間  部分客戶可於2024 年第四季度率先試用思科Nexus HyperFabric人工智慧叢集解決方案,預計不久後將全面上市。   為合作夥伴及 IT 專業人士提供 AI 技能  思科培訓與認證中心已推出全新的 CCDE AI架構認證。培訓課程已上載至「Cisco U」平台,課程為資深網路工程師及網路設計工程師提供專業技能,使他們能夠將AI工作負載的業務需求轉化為架構設計的技術及長期有效的最佳實踐。此外,思科已啟動AI合作夥伴專項認證的第一階段,該認證來自思科 Black Belt,透過提供全面的產品知識,協助合作夥伴構建AI實踐能力,加快客戶部署腳步。   客戶證言 IDC研究副總裁Vijay Bhagavath表示:「Nexus HyperFabric人工智慧叢集解決方案在市場上具有獨特競爭力,能充分運用思科的全面產品組合優勢、全新雲端管理訂閱模式,以及思科與NVIDIA的合作等,在企業的AI數據中心交換及軟體營運解決方案中取得更大的市占率。」   VAST Data執行長暨共同創辦人Renen Hallak表示:「生成式AI模型需要高速存取大量數據,只有藉助頂尖運算能力及高效能網路架構才能實現。我們透過思科全新Nexus HyperFabric人工智慧叢集解決方案,並結合NVIDIA加速運算及人工智慧軟體,以及VAST數據平台為企業提供運算、網路、儲存與數據管理的端對端可見性,助其順暢開發及擴展其AI營運,協助構建面向未來的人工智慧數據中心。」   PTC資訊科技副總裁Michael Blake表示:「思科的運算與網路解決方案對PTC的研發、數據中心效能、連接性至關重要。我們的Servigistics軟體依靠AI驅動的服務供應鏈功能,幫助不同客戶更好地估算、預測、優化及改善服務供應鏈的表現。思科與NVIDIA攜手推出的全新人工智慧架構解決方案,為PTC開闢更多可能性,讓我們能夠輕鬆高效地擴展數據中心架構,加強營運與效能,實現長遠目標。」   WWT雲端、基礎架構及人工智慧解決方案副總裁Neil Anderson表示:「在我們的客戶中,乙太網擁有最廣泛的應用規模,思科與NVIDIA合作推出的產品及服務,將提升我們向客戶提供AI解決方案的能力。思科及NVIDIA已成為WWT AI Proving Ground實驗室的重要一員,讓我們能協助客戶選擇及營運AI架構,使他們能夠更快地將數據轉化為洞見及行動。」   註一:根據思科2024全球網路趨勢報告   補充資料 ·       主管專欄:It’s Time to Take Control of Experiences and Transform Infrastructure Operations for AI(由Jonathan Davidson撰寫) ·       主管專欄:AI Takes Center Stage in the Data Center(由Kevin Wollenweber 與Jeremy Foster撰寫) ·       新聞稿:Cisco ThousandEyes Digital Experience Assurance Radically Shifts IT Operations from Monitoring to Action    ### 關於思科 思科(NASDAQ: CSCO)是領導全球的科技供應商,以安全連接一切,實現任何可能為目標。思科致力協助客戶重新構想其應用程式、支援混合工作、保護企業安全、基礎設施轉型,以及實現永續發展目標,藉此創造共融未來。如欲了解更多,請瀏覽思科新聞中心,或追蹤我們的X。   © 2024 Cisco和/或其附屬公司版權所有。保留一切權利。Cisco及Cisco標誌是Cisco及/或其附屬公司在美國及其他國家的商標或註冊商標。有關思科的商標名冊,可到 http://www.cisco.com/go/trademarks查閱。此文件提及的第三方商標是其各自所有者的財產,使用「合作夥伴」一詞並不暗示思科與任何其他公司之間存在夥伴關係。此文件為思科公開資訊。

文章來源 : GPR 發表時間 : 瀏覽次數 : 3597 加入收藏 :
永擎電子將於 COMPUTEX 2024盛大展出最新NVIDIA Blackwell 架構伺服器

台北2024年6月3日 /美通社/ -- 永擎電子(ASRock Rack Inc.),領先創新的伺服器公司,將於6/4 – 6/7在COMPUTEX 2024南港展覽館1館4樓展位L0818,盛大展出多款NVIDIA Blackwell 架構的縱向擴展伺服器。展示亮點包含整機櫃解決方案 ORV3 NVIDIA GB200 NVL72、直接液冷的GPU伺服器6U8X-GNR2/DLC NVIDIA HGX B200,以及一系列適用於加速運算、基於NVIDIA MGX™模組化參考架構的 GPU 伺服器。 永擎電子-台北電腦展(Booth L0818) 永擎電子首次展出搭載NVIDIA GB200 NVL72的ORV3-NVIDIA GB200 NVL72 整機櫃解決方案,透過NVIDIA NVLink™ 技術連接36 個 NVIDIA Grace™ CPUs 和 72 個 NVIDIA Blackwell Tensor Core GPU,來創建單一個大型GPU ,進而可以較低的總體擁有成本 (TCO)進行更快的即時大型語言模型 (LLM) 推論。 永擎電子NVIDIA Blackwell 架構伺服器還有6U8X-EGS2 NVIDIA HGX B100 及 6U8X-GNR2/DLC NVIDIA HGX B200,分別裝載了 NVIDIA HGX™  B100 8-GPU 及  NVIDIA HGX B200 8-GPU 。NVIDIA HGX B100的設計可兼容於現有的NVIDIA HGX H100  GPU伺服器架構,幫助永擎縮短研發週期,利用既有6U8X-EGS2 NVIDIA HGX H100 系統的設計,可更快地將6U8X-EGS2 NVIDIA HGX B100推廣到市場。 6U8X-GNR2/DLC NVIDIA HGX B200 採用直達晶片液冷技術,使其可以提高CPU及GPU的散熱設計功率 (TDP)。在維持6U高度的機構設計下,確保NVIDIA Blackwell GPU的效能可以完全發揮。針對沒有液冷基礎設施的客戶,永擎電子也將推出空冷的 8U8X-GNR2 NVIDIA HGX B200,同樣整合 NVIDIA HGX B200 8-GPU,以在萬億參數模型上實現更快的即時推論。 前述永擎電子的NVIDIA HGX 伺服器均支援多達八張 NVIDIA BlueField®-3 SuperNICs,以利用 NVIDIA Spectrum™-X(端對端、針對人工智慧優化的乙太網路平台)。此外,這些系統亦將取得全端 NVIDIA AI 和加速運算平台認證,其中包含加入NVIDIA AI Enterprise軟體平台的 NVIDIA NIM 推論微服務。 永擎電子總經理,沙韋旭表示: 「今年我們展示了 NVIDIA Blackwell 架構的數據中心解決方案,來滿足 LLM 訓練和生成式 AI 推論中最嚴苛的工作負載。 當然,永擎也不止步於此,正持續發展基於NVIDIA Blackwell 架構的產品組合,來進一步推動NVIDIA Blackwell 架構的優勢至主流大型語言模型推論和資料處理等應用場域。」 永擎電子正在規劃一款基於 NVIDIA GB200 NVL2 的新產品,將 NVIDIA Blackwell 架構的性能導入以往水平擴展配置的解決方案,從而促使與現有數據中心基礎架構的無縫整合。 NVIDIA GPU產品部門副總裁Kaustubh Sanghani表示:「透過與永擎電子合作,我們為企業用戶提供了強大的人工智慧生態系,無縫整合硬體和軟體,提供突破性的效能和可擴展性,來挑戰 AI 和高速運算的極限。」 永擎電子展示基於 NVIDIA MGX 模組化參考架構的伺服器 永擎電子也展示了 基於NVIDIA MGX 4U設計的4UMGX-GNR2。這款雙路GPU 伺服器支援多達 8 張全高全長的雙寬 GPU卡,像是用於主流企業伺服器的 NVIDIA H200 NVL Tensor Core GPU。此外,該系統額外提供五個 PCIe 5.0 x16全高半長卡和一個PCIe 5.0 x16半高半長卡的插槽,並可支援NVIDIA BlueField-3 DPU 和NVIDIA ConnectX®-7 NICs,實現多個 200Gb/s 或 400Gb/s 網絡連接。存儲部分則有16 個支援PCIe 5.0、可熱插拔的E1.S硬碟擴充槽。 除了這些新品,永擎電子今年於MWC發布的 MECAI-NVIDIA GH200 Grace Hopper Superchip及更多最新產品皆會在華擎COMPUTEX展位 L0818 上亮相。更多永擎電子產品詳情,請上永擎電子官方網站。 關於永擎電子 自2013年,由華擎科技成立的子公司-永擎電子 (ASRock Rack),除了承襲母公司的「設計創新、產品貼心、價格溫馨」理念外,更以「多元創新理念、先進研發技術、優良可靠品質及專業堅強團隊」四大核心價值出發,主打高效率、高性能伺服器設備主機板及整機系統,專注資料中心、HPC、AI、雲端運算及視覺計算市場,成立至今,業績不斷成長,成功打入歐美、亞太及大中華區數據中心用戶。除帶給顧客卓越產品、最先進技術,亦關注環境生態問題以永續經營的概念,迎向大數據雲端時代!

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 2292 加入收藏 :
HPE攜手NVIDIA提供企業級的全堆疊生成式AI解決方案

Hewlett Packard Enterprise(NYSE: HPE)宣佈與NVIDIA擴大策略合作,共同打造適用於生成式人工智慧(GenAI)的企業運算解決方案。透過此共同開發並預先配置的AI調校和推論解決方案,各規模企業皆能加速使用私有資料自訂基礎模型,並在邊緣至雲端的任何地方部署生產力應用程式。其採用HPE和NVIDIA的全堆疊AI調校和推論解決方案可以消除開發和部署生成式人工智慧 (GenAI) 基礎架構帶來的複雜性。企業為對話式搜尋、業務流程自動化和內容創作等使用案例開發和部署生成式AI模型時,需要能夠迅速在業務所需地方部署的軟體和基礎架構堆疊。這個專為生成式AI打造的全新企業運算解決方案象徵HPE和NVIDIA擴展其合作關係,共同為客戶提供全堆疊、開箱即用的AI解決方案。其整合HPE機器學習開發環境(HPE Machine Learning Development Environment Software)、HPE Ezmeral軟體、HPE ProLiant運算設備、HPE Cray超級電腦與NVIDIA AI Enterprise軟體套件,包含NVIDIA NeMo架構。「HPE和NVIDIA在市場上具有獨特的優勢,藉由此合作,能為企業組織提供完整的AI原生解決方案,透過一系列預先配置的解決方案,大幅簡化開發和部署AI模型的流程,」HPE總裁暨執行長Antonio Neri表示。「HPE和 NVIDIA的策略合作將有效降低客戶在利用AI進行業務轉型時所面臨的障礙。」「生成式AI的時代正全速發展,企業無不爭相重塑公司業務,」NVIDIA創辦人暨執行長Jensen Huang表示。「透過與HPE擴大合作,我們可以協助企業利用與業務資料連結的AI應用程式獲得前所未有的生產力,進而提供精準的支援、資訊化聊天機器人和語意檢索功能。」利用專門打造的AI調校和推論解決方案提升AI即時性此款專為生成式AI打造的企業運算解決方案是全新的AI調校和推論的資料中心解決方案,能為各規模企業提供理想的入門點,協助其透過開箱即用的解決方案迅速展開AI之旅。透過此解決方案,企業可以使用預先訓練的基礎模型以及私有資料來創建生產力應用程式,例如AI聊天機器人。此外,檢索增強生成(RAG)工作流程也進一步提高應用程式的資料品質和準確性。 ●        專為AI打造且最佳化:此解決方案採用機架等級的架構,並搭載市場領先的HPE ProLiant運算設備DL380a、預先配置的NVIDIA L40S GPU與NVIDIA BlueField-3 DPU,以及NVIDIA Spectrum-X乙太網路平台,為超大規模AI提供支援。此解決方案的規模可以微調一個700億參數的Llama 2模型,包括16台HPE ProLiant DL380a伺服器和64個 L40S GPU。 ●        HPE的AI軟體:HPE機器學習開發環境具有全新的生成式AI工作室功能,可以快速建置原型和測試模型。HPE Ezmeral軟體則具有新的 GPU 感知(GPU-aware)功能,可以簡化部署和加速混合雲AI工作負載的資料準備。 ●        NVIDIA的AI軟體:NVIDIA AI Enterprise可以加速開發及部署生產力AI應用程式,並兼顧安全性、穩定性、易管理性和支援。其提供NVIDIA NeMo框架、防護工具組、資料統籌工具和預先訓練的模型,可協助簡化企業GenAI的流程。 HPE Services助企業展開AI之旅如今HPE Services提供諮詢、人才培訓和解決方案部署等廣泛的服務。全新的AI服務會引導客戶完成從GenAI和LLM的探索到執行的完整流程,讓客戶可以開發最佳的操作模型和混合雲資料策略,以建置、部署和擴展解決方案,進而創造革命性的成果。HPE已在西班牙、美國、保加利亞、印度和突尼西亞開設新的全球人工智慧及資料卓越中心(Centers of Excellence)並支援這些全面性服務。HPE 攜手NVIDIA 提供加速AI 訓練之全新整合方案HPE於SC23國際研討會上宣佈專為大型企業、研究機構和政府機構設計,並採用NVIDIA技術的全新整合方案。其能協助企業組織在AI生命週期的第一階段開發和訓練基礎模型。此專為生成式AI打造的小型化企業運算解決方案,適用專注於AI調校和推論的企業客戶。加速AI模型開發和部署的全新AI原生架構和混合雲解決方案HPE已於HPE Discover Barcelona 2023發布全新的開放式全堆疊AI原生架構和新系列的AI原生與混合雲產品,以應用於機器學習開發、資料分析、AI最佳化檔案儲存、AI調校和推論以及專業服務。上市時間專為生成式AI打造的企業運算解決方案將於2024年第一季開放訂購。

文章來源 : 正平整合行銷股份有限公司 發表時間 : 瀏覽次數 : 6449 加入收藏 :
2025 年 4 月 2 日 (星期三) 農曆三月初五日
首 頁 我的收藏 搜 尋 新聞發佈