關於 cookie 的說明

本網站使用瀏覽器紀錄 (Cookies) 來提供您最好的使用體驗,我們使用的 Cookie 也包括了第三方 Cookie。相關資訊請訪問我們的隱私權與 Cookie 政策。如果您選擇繼續瀏覽或關閉這個提示,便表示您已接受我們的網站使用條款。

搜尋結果Search Result

符合「Supermicro」新聞搜尋結果, 共 196 篇 ,以下為 145 - 168 篇 訂閱此列表,掌握最新動態
Supermicro 推突破性通用 GPU 系統 支援所有主要 CPU、GPU 和Fabric架構

Super Micro Computer, Inc. (SMCI) 為企業級運算、儲存、網路解決方案和綠色運算技術等領域的全球領導者,今(22)宣布推出一項革命性技術–通用 GPU 伺服器,其可簡化大規模 GPU 部署,設計符合未來需求,甚至支援尚未公開的技術,將為資源節約型伺服器提供最大彈性。 通用 GPU 系統架構結合支援多種 GPU 外形尺寸、CPU 選擇、儲存和網路選項的最新技術,整體經過最佳化,可提供擁有獨特設定和高度可擴充的系統,並針對每位客戶的特定人工智慧(AI)、機器學習(ML)和高效能運算(HPC)應用程式進行最佳化。世界各地的組織都要求為其新一代運算環境提供新的選擇,要有足以容納新一代 CPU 和 GPU 的散熱頂部空間。 Supermicro 總裁暨執行長 Charles Liang 表示:「Supermicro 的通用 GPU 伺服器對包括本產業和資料中心基礎架構來說都是一大突破。透過這個效能強大、模組化且符合未來需求的單一平台,我們徹底改寫技術長和 IT 管理員規劃新部署的基本規則。這是一種彈性且革命性的系統設計,是目前最好的系統設計,可實現大規模且快速的部署。」 通用 GPU 平台首先支援搭載第3代 AMD EPYC™ 7003 處理器搭配 MI250 GPU 或 NVIDIA A100 Tensor Core 4-GPU,以及搭載內建AI加速器的第3代 Intel Xeon 可擴充處理器搭配 NVIDIA A100 Tensor Core 4-GPU 的系統。這些系統強化了熱容量設計,能採用高達 700W 的 GPU。 Supermicro 通用 GPU 平台用意是與採用開放式標準設計的各種 GPU 搭配使用。透過遵循一套公認的硬體設計標準,例如通用基板(UBB)和 OCP 加速器模組(OAM),以及 PCI-E 和平台專用介面,IT 管理員便能針對其 HPC 或 AI 工作負載選擇最合適的 GPU 架構。如此將滿足許多企業的嚴苛需求,還能簡化 GPU 解決方案的安裝、測試、生產和升級。此外,IT 管理員將能輕鬆選擇最合適的 CPU 和 GPU 組合,為他們的使用者打造出真正最佳的系統。 4U 或 5U 通用 GPU 伺服器將適用於使用 UBB 標準,以及 PCI-E 4.0,還有即將推出的 PCI-E 5.0 的加速器。此外,還提供 32 個 DIMM 插槽以及多種儲存和網路選項,也可使用 PCI-E 標準進行連接。Supermicro 通用 GPU 伺服器可容納使用 SXM 或 OAM 外形尺寸基板的 GPU,運用非常高速的 GPU 與 GPU 互連,例如 NVIDIA NVLink 或 AMD xGMI Infinity 結構,或透過 PCI-E 插槽直接連接 GPU。本系統將支援目前所有主要的 CPU 和 GPU 平台,為客戶提供適合其實際工作負載的選擇。 伺服器的設計可提供最大氣流,並可容納當前以及未來的 CPU 與 GPU,滿足其需要的最高散熱設計功率(TDP)CPU 和 GPU,以達到最高的應用程式效能。Supermicro 通用 GPU 伺服器提供水冷選項(直接到晶片),可滿足 CPU 和 GPU 需要的加強冷卻解決方案。此外,靠著模組化設計,此伺服器的某些特定子系統可替換或升級,從而延長整個系統的使用壽命,減少完全替換每一代新的 CPU 或 GPU 技術所產生的電子垃圾。 NVIDIA 資料中心運算產品管理資深總監 Paresh Kharya 表示:「NVIDIA A100 Tensor Core GPU可加速所有 AI應用及超過 2,700  種高效能運算(HPC)的應用。 Supermicro的新伺服器平台為企業提供一個功能強大的系統,搭配NVIDIA A100後能使HPC、AI推論與訓練,以及機器學習在内的各種工作負載擁有更卓越的性能和生產效率。」 AMD資料中心GPU與加速處理部門全球副總裁Brad McCredie表示:「AMD 相當重視與 Supermicro 密切的合作關係。我們也熱切期待 Supermicro 最新通用 GPU 伺服器系統的問世,它將成為展示 AMD EPYC CPU 和 AMD Instinct GPU 系列加速器的理想平台,滿足 HPC 產業及加速運算資料中心工作負載的需求。」 欲知更多關於通用GPU伺服器的資訊,歡迎造訪此網頁,或參與於 2022 年 4 月 22 日台北時間凌晨1:00 舉行的網路研討會。  

文章來源 : 香港商霍夫曼公關顧問股份有限公司 發表時間 : 瀏覽次數 : 3843 加入收藏 :
Supermicro 全方位 IT 系統產品組合 為持續成長的 5G 和智慧邊緣市場提供領先業界且無縫的邊緣到雲端解決方案

Super Micro Computer, Inc. (SMCI) 為高效能運算、儲存、網路解決方案和綠色運算技術等領域的全球領導者,在 2022 年世界行動通訊大會 (MWC) 上展出專為跨電信和物聯網部署的 5G 網路與邊緣運算設計的最新技術。Supermicro 專家介紹及展示可滿足全球電信業者嚴苛要求的各種產品。 運算複雜的邊緣資料處理逐漸成為現代邊緣到雲端系統必備的一項功能。將運算移到更靠近產生資料的位置,不只可提高回應速度、減少延遲,還能減少資料中心的網路流量。Supermicro 的邊緣、物聯網和 5G 產品組合 (包括提供 符合NEBS 3 級標準、AC/DC 電源、前置 I/O、短機身伺服器、單節點和多節點伺服器,以及 IP65 強化外殼等選項),讓客戶可由單一且值得信賴的供應商取得最佳解決方案。再加上 Supermicro 領先業界的上市時間優勢,客戶將能快速滿足其邊緣工作負載的要求。 Supermicro 總裁暨執行長 Charles Liang 表示:「透過我們對於全方位 IT 解決方案投注的心力,Supermicro 不斷建立創新的解決方案以滿足全球電信和 5G 業者的需求。我們擁有廣泛的產品,再加上我們合作夥伴的產品,能為需要快速回應時間和廣泛連接的應用帶來前所未有的價值。我們專注選用 Intel、AMD 和 NVIDIA 最新技術來打造系統,因此我們能夠提供全面滿足新型工作負載需求的解決方案。」 Supermicro 參與世界行動通訊大會 (MWC): Supermicro 在 5 館的 5D66 攤位上展示各伺服器系列解決方案,這些解決方案從邊緣到資料中心的各種應用均適宜。展出的Supermicro SYS-E100 和 SYS-E302 為適用於低功耗環境的輕巧型邊緣伺服器。使用全新 Intel Xeon-D 處理器的 SYS-E300 和 SYS-510D 伺服器也在 Supermicro 攤位上展示。此外,針對邊緣運算最佳化並採用第三代 Intel Xeon 可擴充處理器的系統將裝載在 SYS-E403、SYS-210SE、SYS-220HE 和 SYS-210P 伺服器上。 隨著越來越多運算資源移轉到邊緣,Supermicro 已證明其展示的解決方案可提供 5G 多重存取邊緣運算 (MEC) 和雲端應用程式所需的高密度和低延遲等優點。我們有一系列產品組態可因應這些工作負載,包括支援第三代 Intel Xeon SP、Intel Xeon-D 和 Intel Xeon-E 處理器的 4U/6U/8U SuperBlade® 和 3U/6U MicroBlade®。 Supermicro 攤位上展出的雲端最佳化系統,包含每節點均搭載第三代 Intel Xeon 可擴充處理器的全新 X12 BigTwin®,以及Supermicro SuperBlade、Supermicro MicroBlade 和機架式 Supermicro Ultra 伺服器等系統。此外,也展出可滿足邊緣應用眾多即時性需求的最新 Supermicro 主機板。 Supermicro 也與多家公司一同展出最新的創新技術: ·       Ouster 展示廣泛的解決方案,包括使用光達技術進行即時交通分析。 ·       攤位內裝設一部 SmartPoint.io 中樞,提供電腦視覺 AI、5G 通訊和多部互動式觸控螢幕的現場展示。 ·       VSBLTY 展示其用於個人化、安全性和分析的邊緣 AI 軟體。 ·       Taqtile 提供機器人、現場訓練和許多 AR/VR 技術範例的擴增實境互動示範。工業 4.0 技術將受益於 5G 無線技術,同時展出使用 Intel、NVIDIA、NetApp 和 Supermicro 伺服器的示範。  

文章來源 : 香港商霍夫曼公關顧問股份有限公司 發表時間 : 瀏覽次數 : 9427 加入收藏 :
全新高效能、低功耗 Supermicro 邊緣系統解決方案 開拓電信、工業和智慧邊緣的新商機

Super Micro Computer, Inc. (SMCI) 為高效能運算、儲存、網路解決方案和綠色運算技術等領域的全球領導者,宣佈推出搭載最新 Intel Xeon D-1700 和 Intel Xeon D-2700 處理器的全新伺服器。E300、110D 和 510D 系列伺服器是專為需要 Intel Xeon D 處理器的功率和效能以滿足高需求服務水準協議 (SLA) 的強固環境所設計。 Supermicro 物聯網/嵌入式和邊緣運算總經理 Mory Lin 表示:「這些搭載 Intel Xeon D 處理器的全新伺服器非常適合電信、工業或智慧邊緣解決方案。系統提供高達 512GB 的 DRAM、多個 I/O 和儲存選項,並支援 PCI-E 4.0。我們領先業界的伺服器 Building Block Solutions® 為客戶提供最佳解決方案,能使 Intel Xeon D 處理器發揮最高效能。」 SYS-E300 將 4、8 或 10 核心的 Intel Xeon D 處理器和高達 256GB 的 DDR4 記憶體整合到 1U 迷你伺服器機箱中。SYS-510D 型號提供更大的儲存容量及總共 4x1G 和 2x25G 的乙太網路連接埠,而 SYS-110D 伺服器則包含多達 20 個核心的 CPU 和 512GB 記憶體。 每個系統皆搭載 Intel Xeon D 處理器,是為邊緣建構的最具創新性的單晶片系統,內建 AI、安全性、進階 I/O 和密集運算功能。此外,這些系統可提供高資料處理量,滿足企業所需的基本邊緣要求。 向邊緣提供服務的組織將從這些新系統中受益,以處理在邊緣取得數量不斷增加的資料。Supermicro SYS-110D 伺服器內含一個 Intel Xeon D 處理器,具有高達 125W 的散熱設計功率 (TDP) 和一個 PCI-E 4.0x16 插槽。還有多種 I/O 選項,最多可安裝兩個 2.5 吋 SATA/U.2 磁碟機。無論需要 AC 或 DC 電源,都有備援的電源供應器可用。 Intel 網路和邊緣平台部門副總裁兼總經理 Jeni Panhorst 表示:「全新 Intel Xeon-D 處理器是專為網路邊緣處理所設計,具有密集運算和高效能網路連接,可從邊緣提供企業所需的高資料處理量。透過採用最新 Intel 技術的生態系統解決方案 (例如 Supermicro 宣布的解決方案),我們將繼續利用最新的 Intel 技術來支援生態系統,我們正在幫助眾多企業降低其總體擁有成本 (TCO),並滿足來自其使用者的高需求條件。」 SYS-E300 產品系列最多包含兩個 SATA 磁碟機。常見的應用領域為網路應用,例如防火牆和通用客戶端設備,可將處理需求與網路需求同時整合到一個小巧易用的外型尺寸中。 如需 Xeon-D 系統的詳細資訊,請瀏覽 Supermicro 的嵌入式解決方案網頁,並參加排定於太平洋時間 2022 年 3 月 10日上午 10:00 舉行的網路研討會。

文章來源 : 香港商霍夫曼公關顧問股份有限公司 發表時間 : 瀏覽次數 : 8122 加入收藏 :
Expanding Needs of AI Data Centers Have Profound Effects on Server Vendor's Roles

The rise in compute density and larger clusters, along with more powerful cooling systems, stretches current infrastructure limits and complicates new deployments NEW YORK, Jan. 28, 2025 /PRNewswire/ -- The enormous demand for generative Artificial Intelligence (AI) has led to unprecedented CAPEX by hyperscalers, foundation model builders, and those capitalizing on the exploding demand for compute. Global technology intelligence firm ABI Research's discussions across the value chain have exposed the dynamics in the rapidly evolving AI server market, powering the race to increase the efficiency and accuracy of generative AI models. "The rapid pace of silicon innovation has left space for differentiation," explains Paul Schell, Industry Analyst at ABI Research. "The expertise needed to plan, deploy, and run today's high-performance accelerator clusters has created the opportunity for those with the in-house engineering talent to leverage their organizational capital, capture more value, and ride the generative AI wave." The professional services offered by Tier One OEMs Supermicro, HPE, Dell, and Lenovo, and challengers like Penguin Solutions, are increasingly seen as a necessary part of their AI server go-to-market. Furthermore, the offering of 'burnt-in' solutions that cater to various end-customers and deployment sizes helps end customers deploy with fewer hurdles, accelerating the monetization of their AI product. "Time to market matters more than usual in the current stage of the AI race, and AI server vendors able to offer their customers the agility they seek will come out on top", explains Paul Schell. "In addition, cluster management software that can squeeze more out of the pricey hardware is of enormous value – both monetary and operational – for customers without an extensive legacy in AI or HPC compute." These findings are from ABI Research's AI Server OEM/ODM Market report. This report is part of the company's AI & Machine Learning research service, which includes research, data, and ABI Insights.  About ABI Research ABI Research is a global technology intelligence firm uniquely positioned at the intersection of technology solution providers and end-market companies. We serve as the bridge that seamlessly connects these two segments by providing exclusive research and expert guidance to drive successful technology implementations and deliver strategies proven to attract and retain customers. ABI Research是一家全球性的技术情报公司,拥有得天独厚的优势,充当终端市场公司和技术解决方案提供商之间的桥梁,通过提供独家研究和专业性指导,推动成功的技术实施和提供经证明可吸引和留住客户的战略,无缝连接这两大主体。 For more information about ABI Research's services, contact us at +1.516.624.2500 in the Americas, +44.203.326.0140 in Europe, +65.6592.0290 in Asia-Pacific, or visit www.abiresearch.com. Contact Info:  GlobalDeborah Petrara                                                           Tel: +1.516.624.2558                                                    pr@abiresearch.com     

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 135 加入收藏 :
O-RAN ALLIANCE Global PlugFest Fall 2024 Showcased Advancement of Open and Intelligent RAN Solutions

O-RAN PlugFests enable well-organized testing and integration of O-RAN-based products and solutions in a neutral, cooperative environment Participants at the O-RAN Global PlugFest Fall 2024 demonstrated progress in diverse areas of open and intelligent RAN solutions The PlugFest was co-hosted by 29 operators, OTICs, and academic and research institutions in 28 labs around the globe A total of 115 companies and institutions participated, with some involved in multiple venues BONN, Germany, Dec. 6, 2024 /PRNewswire/ -- The O-RAN ALLIANCE (O-RAN) today announced successful completion of its ninth PlugFest: the O-RAN ALLIANCE Global PlugFest Fall 2024. O-RAN ALLIANCE co-sponsors semi-annual Global PlugFests, hosted by operators, Open Testing and Integration Centres (OTICs), and academic and research institutions, to enable efficient progress of developing products and solutions based on O-RAN specifications. Any company with O-RAN membership is free to participate and benefit from well organized testing and integration in a neutral, cooperative environment. Efforts at O-RAN PlugFests are prioritized in themes to maintain focus on key areas. Each O-RAN PlugFest advances the development of innovative O-RAN based technologies and solutions. Participants at the O-RAN Global PlugFest Fall 2024 demonstrated progress in diverse areas, including: Performance improvements of open and interoperable RAN in combination with intelligent network management functions, based on Near-Real-Time and Non-Real-Time RAN Intelligent Controllers (RIC) RIC solutions newly developed by providers, operators and academic institutions Network energy savings measured according to ETSI energy efficiency test specifications Using open source software to deliver RAN functions Test automation and delivery of repeatable results consistent across different test labs Point-to-Multipoint Open Fronthaul transport for reducing network power consumption and the number of required devices Multi-operator Service Management and Orchestration (SMO) to enhance adaptability, security, and resilience of the RAN for public safety and peacekeeping missions O-RAN conformance and interoperability testing of products from an increasing number of providers O-RAN Global PlugFest Fall 2024 took place at 11 venues, co-hosted by 29 operators, OTICs, and academic and research institutions. It was conducted from August to November 2024 in 28 labs across Asia, Europe, and North America. The PlugFest had in total 115 participating companies and institutions, some of which participated in more than one venue. O-RAN ALLIANCE plans to include details from the O-RAN Global PlugFest Fall 2024 into its PlugFest Virtual Showcase early next year. "On top of its specification efforts, the O-RAN ALLIANCE facilitates the delivery of its mission through its PlugFests, Certification and Badging Program for O-RAN based products, and support of open source software development," said Chih-Lin I, Co-chair of O-RAN ALLIANCE's Technical Steering Committee and China Mobile Chief Scientist, Wireless Technologies, China Mobile Research Institute. "At each PlugFest we see a shift towards more advanced and more complex innovative solutions capable of delivering tangible value for mobile network deployments. Thank you to PlugFest hosts and labs for enabling a cooperative environment and to all participants for their progress in developing O-RAN based products and solutions." Participants in O-RAN ALLIANCE Global PlugFest Fall 2024 O-RAN ALLIANCE appreciates high interest from the community in testing and integration at the O-RAN Global PlugFest Fall 2024 and would like to recognize hosts, labs and participants, including: Acentury, Accuver, AMD, Analog Devices, AT&T, Auray Technology, Boost Mobile, Broadcom, CableLabs, Calnex Solutions, Capgemini Engineering, CommScope, CS, Dell Technologies, Delta Electronics, Deutsche Telekom, Digital Catapult, EANTC, Ericsson, Eridan Communications, ETRI, EURECOM, Feel@ware, Fujitsu, Future Connections, G REIGNS, HCL Technologies, Hewlett Packard Enterprise, HFR, highstreet technologies, Infinera, Intel, Iowa State University (ARA), IS-Wireless, ITRI, Juniper Networks, KDDI, Keysight Technologies, Kumoh National Institute of Technology, KyungHee University, LG Electronics, LG Uplus, LITEON, Mavenir, Metanoia Communications, MTI, NEC, Nokia, The North American OTIC in the Raleigh-Durham Research Triangle Park Area (AERPAW), Northeastern University, NTT DOCOMO, NVIDIA, ONF, Orange, Pegatron, Quanta Cloud Technology, Radisys, Rakuten Mobile, Rakuten Symphony, Red Hat, Rohde & Schwarz, Rutgers University (COSMOS/WINLAB), SAMJI ELECTRONICS, Samsung Electronics, Singapore University of Technology and Design, SK Telecom, SoftBank, SOLiD, Software Radio Systems, Spirent Communications, Sumitomo Electric Industries, Supermicro, SUSE, SynaXG, Teledyne LeCroy Xena, TELUS, TIM, TTA, University of New Hampshire InterOperability Laboratory (UNH-IOL), University of Utah (POWDER), Verizon, VIAVI Solutions, Viettel High Technology Industries, Vodafone, VVDN Technologies, Wave Electronics, Wind River, WNC, Xelera Technologies, YRP R&D Promotion Committee, Zinkworks. About O-RAN ALLIANCEThe O-RAN ALLIANCE is a world-wide community of more than 300 mobile operators, vendors, and research & academic institutions operating in the Radio Access Network (RAN) industry. As the RAN is an essential part of any mobile network, the O-RAN ALLIANCE's mission is to re-shape the industry towards more intelligent, open, virtualized and fully interoperable mobile networks. The new O-RAN specifications enable a more competitive and vibrant RAN supplier ecosystem with faster innovation to improve user experience. O-RAN based mobile networks at the same time improve the efficiency of RAN deployments as well as operations by mobile operators. To achieve this, the O-RAN ALLIANCE publishes new RAN specifications, releases open software for the RAN, and supports its members in integration and testing of their implementations. For more information, please visit www.o-ran.org. O-RAN ALLIANCE PlugFest

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 292 加入收藏 :
WEKA 發佈業界首個基於 NVIDIA Grace CPU 超級晶片的 AI 儲存叢集

公司在 Supercomputing 2024 上與 NVIDIA、Arm 和 Supermicro 攜手展示全新解決方案,為企業 AI 部署提供卓越的效能密度和節能效益 亞特蘭大和加州坎貝爾2024年11月19日 /美通社/ -- 來自 Supercomputing 2024:AI 原生數據平台公司WEKA預先發佈了業界首個適用於 NVIDIA Grace™ CPU 超級晶片的高效能儲存解決方案。此方案將在 Supermicro 的全新高效能儲存伺服器上運行,該伺服器配備 WEKA® 數據平台軟件和 Arm® Neoverse™ V2 核心,並採用 NVIDIA Grace CPU 超級晶片、NVIDIA ConnectX-7 及 NVIDIA BlueField-3 網絡技術,以無可比擬的性能密度和電源效率加速企業 AI 工作負載。 WEKA introduces First AI Storage Cluster Built on NVIDIA Grace CPU Superchip (PRNewsFoto/WekaIO) 推動新一代 AI 創新現今的 AI 和高效能運算 (HPC) 工作負載需要極速的數據存取,但大部分數據中心都面臨空間和電源限制日益增加的挑戰。 NVIDIA Grace 將旗艦級 x86-64 雙插槽工作站或伺服器平台的性能水平整合至單一模組中。Grace CPU 超級晶片由 144 個高性能 Arm Neoverse V2 核心提供支援,其能源效率比是傳統 x86 伺服器的兩倍。NVIDIA ConnectX-7 網絡接口卡和 BlueField-3 超級網絡接口卡採用專用 RDMA/RoCE 加速技術,提供高吞吐量、低延遲的網絡連接,速度高達 400Gb/s。WEKA 數據平台革命性的零拷貝軟件架構與 Supermicro Petascale 儲存伺服器相輔相成,最大程度地減少 I/O 瓶頸,降低 AI 管道的延遲,從而顯著提高 GPU 使用率,加速 AI 模型訓練和推理,大幅縮短產生首個 token 的時間、加快探索和洞察的速度,同時降低功耗和相關成本。 此方案的主要優勢包括: 極速和可擴展性,滿足企業 AI 需求:NVIDIA Grace CPU 超級晶片配備 144 個高效能 Arm® Neoverse™ V2 核心,這些核心透過高效能、客製化設計的 NVIDIA 可擴展一致性架構互相連接,能以一半的功耗提供媲美雙插槽 x86 CPU 伺服器的性能。NVIDIA ConnectX-7 網絡接口卡和 NVIDIA BlueField-3 超級網絡接口卡提供高性能網絡連接,對企業 AI 工作負載至關重要。配合 WEKA 數據平台的 AI 原生架構(可將產生首個 token 的時間縮短高達 10 倍),此方案能確保幾乎任何規模的 AI 數據管道都能實現最佳性能。 資源使用效率最佳化:高效能 WEKA 數據平台與 Grace CPU 的 LPDDR5X 內存架構相結合,可確保高達 1 TB/s 的內存頻寬和無縫數據流,消除效能瓶頸。透過整合 WEKA 的分佈式架構和核心旁路技術,機構可以加快 AI 模型訓練速度、縮短 epoch 時間和提升推理速度,使其成為高效擴展 AI 工作負載的理想方案。 卓越的能源和空間效益: WEKA 數據平台可將 GPU 堆棧效率提升 10 至 50 倍,無縫處理大規模 AI 和高效能運算 (HPC) 工作負載。此外,透過減少數據拷貝和提升雲端彈性,WEKA 平台可將數據基礎設施佔用空間縮小 4 至 7 倍,並減少碳排放——每年每 PB 儲存量最多可減少 260 噸二氧化碳當量排放,並將能源成本降低 10 倍。由於 Grace CPU 超級晶片的能源效率比領先的 x86 伺服器高兩倍,客戶可以運用更少資源完成更多任務,在提升 AI 性能的同時實現可持續發展目標。 「AI 正在改變全球企業的創新、創造和營運方式,但國際原子能機構的數據顯示,AI 應用急劇增長,導致數據中心的能源消耗大幅增加,預計到 2026 年將增加一倍,」WEKA 產品總監 Nilesh Patel 表示。「WEKA 很高興與 NVIDIA、Arm 和 Supermicro 合作,為下一代數據中心開發高性能、節能的解決方案,推動企業人工智能和高性能工作負載發展,同時加速處理大量數據,縮短獲取可操作見解的時間。」 「WEKA 與 Supermicro 攜手開發了一款功能強大的儲存解決方案,此方案與 NVIDIA Grace CPU 超級晶片無縫整合,有效提升大規模、數據密集型 AI 工作負載的效率。此方案可在降低能耗的同時提供快速數據存取,讓以數據驅動的機構為其人工智能基礎設施增能。」NVIDIA 數據中心 CPU 總監 Ivan Goldwasser 說道。 「Supermicro 即將推出的 ARS-121L-NE316R Petascale 儲存伺服器是首款採用 NVIDIA Grace 超級晶片 CPU 的儲存優化伺服器,」Supermicro 儲存產品管理高級總監 Patrick Chiu 表示,「此系統配備 16 個高效能 Gen5 E3.S NVMe 固態硬碟插槽和三個 PCIe Gen 5 網絡插槽,支援最多兩個 NVIDIA ConnectX-7 或 BlueField-3 超級網絡接口卡,以及一個 OCP 3.0 網絡適配器。此系統非常適合 AI、數據分析和超大規模雲端應用等高效能儲存工作負載。我們與 NVIDIA 和 WEKA 合作開發的數據平台,讓客戶能夠在提升數據中心能源效率的同時,增強 AI 處理能力。」 「人工智能創新需要採用全新的晶片和系統設計方法,在性能和能效之間取得平衡。Arm 很榮幸能與 NVIDIA、WEKA 和 Supermicro 合作,提供一個高性能企業級 AI 解決方案,此方案兼具卓越價值和出色的能源效率。」Arm 高效能運算總監 David Lecomber 說道。 WEKA 和 Supermicro 採用 NVIDIA Grace CPU 超級晶片的儲存解決方案將於 2025 年初上市。Supercomputing 2024 的與會者可前往 WEKA 的 #1931 號展位,了解更多詳情和觀看新解決方案的示範。 關於 WEKA WEKA 正在為 AI 時代的企業數據堆疊構建一種新方法。WEKA® 數據平台採用雲端原生及 AI 原生架構,樹立 AI 基礎設施的標竿。該平台可靈活部署於任何地方,支援本地、雲端和邊緣運算環境之間的無縫數據轉移。該平台將傳統數據孤島轉化為動態數據管道,可加速 GPU 運算、AI 模型訓練和推理以及其他高性能工作負載,使之能更高效地運作、減少能耗,並降低相關的碳排放。WEKA 幫助全球最具創新精神的企業和研究機構解決複雜的數據挑戰,更快速、更可持續地探索新發現、見解和成果,其客戶更是包括財富 50 強中的 12 間企業。請瀏覽 www.weka.io 了解更多資訊,或在 LinkedIn、X和 Facebook 上關注 WEKA。 WEKA 在「2024年Gartner®魔力象限™文件與對象儲存平台」(2024 Gartner® Magic Quadrant™ for File and Object Storage Platforms)中被認可為「願景領袖」(Visionary)——詳情請閱覽報告。 「WEKA」及WEKA標誌乃WekaIO, Inc.的註冊商標。此處使用的其他商業名稱可能為其他商標擁有者分別擁有。      

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 743 加入收藏 :
2025 年 2 月 19 日 (星期三) 農曆正月廿二日
首 頁 我的收藏 搜 尋 新聞發佈