關於 cookie 的說明

本網站使用瀏覽器紀錄 (Cookies) 來提供您最好的使用體驗,我們使用的 Cookie 也包括了第三方 Cookie。相關資訊請訪問我們的隱私權與 Cookie 政策。如果您選擇繼續瀏覽或關閉這個提示,便表示您已接受我們的網站使用條款。

搜尋結果Search Result

符合「#NVIDIA」新聞搜尋結果, 共 1060 篇 ,以下為 1 - 24 篇 訂閱此列表,掌握最新動態
Cognizant 攜手 NVIDIA 部署 Neuro AI 平台,加速企業採納人工智能

Cognizant 將運用 NVIDIA AI 於企業智能體、行業大型語言模型及基建等關鍵領域提供方案。 新澤西州蒂內克2025年3月26日 /美通社/ -- Cognizant(納斯達克股票代碼:CTSH)今日宣佈與 NVIDIA 深化合作,利用 NVIDIA AI 技術推出多項更新,旨在加速各行業在五大關鍵領域採納人工智能:企業 AI 智能體、特定行業大型語言模型 (LLM)、智能製造數碼分身、AI 基礎設施,以及提升 Cognizant Neuro® AI 平台整合 NVIDIA AI 技術並編排整個企業技術堆棧的能力。 Cognizant 正利用其深厚的行業經驗及全面的 AI 生態系統(涵蓋由專有平台和加速器驅動的基礎設施、數據、模型及智能體開發),與全球客戶緊密合作,助其有效提升 AI 價值。NVIDIA AI 在 Cognizant 的 AI 方案中擔當關鍵角色,雙方目前正與各行業客戶積極推展合作項目,助其實現業務增長與轉型。 Cognizant 核心技術與洞察總裁 Annadurai Elango 表示:「我們留意到企業正從 AI 概念驗證(PoC)邁向大規模部署階段。透過與 NVIDIA 合作,Cognizant 將建構並部署能加速此過程的解決方案,整合基礎 AI 元素、平台及方案,更快為客戶提升 AI 價值。」 「從模型到應用程式,企業 AI 轉型需要能存取特定領域數據的全端軟件與基礎設施,」NVIDIA 全球現場營運行政副總裁 Jay Puri 表示, 「Cognizant Neuro AI 平台建基於 NVIDIA AI,提供專門的 LLM 及應用程式,藉助推理智能體與數碼分身,助企業為迎接 AI 新紀元作好準備。」 於 NVIDIA GTC 2025 大會上,Cognizant 概述了其在以下五個領域的方案更新計劃: 由 Cognizant® Neuro AI 多智能體加速器驅動的企業 AI 智能體應用: 此框架建基於 NVIDIA NIM™ 微服務,助客戶快速建構及擴展多智能體 AI 系統,實現自適應營運、實時決策與個人化客戶體驗。客戶可利用低代碼框架創建和編排智能體,或運用預建的智能體網絡處理銷售、營銷、供應鏈管理等企業職能及特定行業流程。框架亦支援輕鬆整合第三方智能體網絡及大多數 LLM。 為規模化部署建構多智能體: Cognizant 致力透過多智能體系統,以及與 NVIDIA NIM、NVIDIA Blueprints 和 NVIDIA Riva 語音 AI 的整合,提升企業營運效率。公司將開發面向未來的智能體架構,支援模組化及具適應性的設計,滿足不斷演變的需求,並確保 AI 方案的長期可行性與適應能力。當中包括具備安全護欄和人工監督功能的預建整合。此方案旨在讓企業能利用預建的智能體目錄,開發並部署切合其特定需求、可快速上市的應用程式。例子包括特定行業智能體,如保險理賠核保、申訴與投訴處理、自動化供應鏈及合約管理等多智能體系統。 特定行業 LLM:Cognizant 正利用 NVIDIA NeMo 及 NVIDIA NIM 開發面向特定行業的 LLM。這些方案經悉心設計,滿足不同行業的獨特需求,並建基於 Cognizant 深厚的行業知識,旨在推動創新、提升業務表現。例如,Cognizant 已開發出一款微調語言模型,革新醫療保健行政流程。該系統結合 Cognizant 的領域專長與 NVIDIA 技術,強化醫療編碼提取,提升準確度、減少錯誤,並更佳地遵循 HIPAA 與 GDPR 標準。系統旨在助客戶減省成本、降低延遲、改善收入週期管理,並確保風險調整的準確性。Cognizant 內部基準測試顯示,該模型能有效減少 30-75% 的工作量、提升 30-40% 的編碼準確度,並縮短 40-45% 的上市時間。 工業數碼分身:由 NVIDIAOmniverse™ 加速的 Cognizant 智能製造與數碼分身方案,結合了 NVIDIA Omniverse 的合成數據生成、加速運算及物理 AI 模擬技術,旨在應對製造營運及供應鏈管理的挑戰,藉此推動數碼轉型。這些功能可助客戶利用實時洞察與預測分析,強化工廠佈局及流程模擬,同時提升營運效率、優化廠房資本開支。方案能整合來自應用程式、系統、感測器的多元數據及合成數據,讓客戶模擬不同情境,找出廠房問題的解決方法。此外,透過構建包括 IT 系統及專業人員在內的必要數碼基建,Cognizant 的方案能精確高效地為工廠、智能電網、倉庫乃至整個城市等大型系統,創建並管理數碼分身。 AI 基礎設施:要有效部署 AI,必須具備穩健的 AI 基礎設施及準備就緒的數據。由 NVIDIA 加速的 Cognizant AI 基礎設施方案,將透過「GPU 即服務」(GPUaaS) 及安全託管的基建,為客戶提供使用 NVIDIA AI 技術的渠道。此舉有助確保 AI 模型能在雲端、數據中心或邊緣等不同環境順暢運行。此外,Cognizant 計劃利用 NVIDIA RAPIDS™ Accelerator for Apache Spark 助客戶加速 AI 部署的數據管道,實現高效且具擴展性的營運。以美國一家大型醫療保健客戶為例,採用 Cognizant 的 AI 基礎設施後,其 Spark 工作負載成本效益提升 2.7 倍,性能亦提升 1.8 倍。 「隨著 AI 工業化時代來臨,企業正尋求加快 AI 投資的價值實現速度,重點在於創造巨大的經濟效益、實現由智能體主導的工作流程轉型,以及進行特定行業的部署,」Everest Group 合夥人 Nitish Mittal 指出,「Cognizant 與 NVIDIA 持續深化合作夥伴關係,為具前瞻視野、力求在 AI 時代釋放突破性價值的企業,勾劃出正確的發展藍圖。」 Cognizant 簡介Cognizant(納斯達克:CTSH)是現代企業的工程師。我們協助客戶實現技術現代化、流程重組和體驗轉型,使其能在瞬息萬變的世界中保持領先地位。讓我們共同努力,攜手改善日常生活。請前往 www.cognizant.com 網站或追蹤 @cognizant 以了解詳情。 欲了解更多資訊,請聯絡: 美國 姓名 Ben Gorelick 電子郵件 benjamin.gorelick@cognizant.com   歐洲/亞太地區 姓名:Christina Schneider 電郵地址 christina.schneider@cognizant.com  印度 姓名:Rashmi Vasisht 電郵地址 rashmi.vasisht@cognizant.com   

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 502 加入收藏 :
Supermicro擴大企業級AI產品組合,推出超過百款GPU最佳化系統,支援即將發布的NVIDIA RTX PRO 6000 Blackwell伺服器版和NVIDIA H200 NVL平台

Supermicro, Inc.(NASDAQ:SMCI)作為AI/ML、高效能運算、雲端、儲存和5G/邊緣領域的全方位IT解決方案供應商,宣布推出一系列工作負載最佳化GPU伺服器和工作站,可支援全新NVIDIA RTX PROTM 6000 Blackwell伺服器版GPU。Supermicro具廣泛機型的伺服器系列專為NVIDIA Blackwell PCIe GPU最佳化,助力更多企業透過加速型運算支援LLM推論與微調、代理式AI、視覺化、圖形和渲染,以及虛擬化等應用。Supermicro多款GPU最佳化系統經NVIDIA認證,確保對NVIDIA AI Enterprise的支援與相容,可簡化製造生產類AI的開發和部署流程。 Supermicro總裁暨執行長梁見後表示:「Supermicro憑藉多元應用最佳化GPU伺服器產品組合領先業界,並能以極短交貨時間實現各類企業環境的部署。而我們產品對NVIDIA RTX PRO 6000 Blackwell伺服器版GPU的支援,提供了全新境界的效能和靈活性,助力客戶部署最新加速運算技術,並涵蓋從資料中心到智慧邊緣應用等多種領域。Supermicro豐富的PCIe GPU最佳化產品系列也支援NVIDIA H200 NVL GPU的2路及4路 NVIDIA NVLink™配置,能使當今最先進AI模型的推論效能最大化,並可為高效能運算工作負載進行加速。」 欲瞭解更多資訊,請瀏覽:https://www.supermicro.com/en/accelerators/nvidia/pcie-gpu。 NVIDIA RTX PRO 6000 Blackwell伺服器版是一款通用型GPU,針對AI和圖形工作負載效能最佳化。相較於前一代的NVIDIA L40S,此GPU效能得到大幅強化,包括更快的GDDR7記憶體與2倍記憶體容量,並具有PCIe 5.0介面,可使GPU與CPU間的通訊更快速。同時,NVIDIA RTX PRO 6000 Blackwell伺服器版也具備全新多執行個體 GPU(MIG)性能,可將單一GPU資源分享給最多4個完全隔離的執行個體。此外,Supermicro的GPU最佳化系統可支援NVIDIA SuperNIC,例如NVIDIA BlueField®-3和NVIDIA ConnectX®-8,可透過NVIDIA Quantum InfiniBand和NVIDIA Spectrum Ethernet實現最佳基礎架構擴充及GPU叢集效能。 NVIDIA企業平台副總裁Bob Pette表示:「NVIDIA RTX PRO 6000 Blackwell伺服器版是專為AI和視覺運算打造的終極資料中心GPU,可為最嚴苛的工作負載提供空前加速效能。NVIDIA RTX PRO 6000 Blackwell伺服器版進一步擴大了Supermicro 的豐富NVIDIA加速型系統陣容,可為幾乎所有類型的AI開發和推論工作負載進行加速。」 除了企業級NVIDIA RTX PRO 6000 Blackwell伺服器版,精選的Supermicro工作站也將支援全新NVIDIA RTX PRO 6000 Blackwell工作站版和NVIDIA RTX PRO 6000 Blackwell Max-Q工作站版,而這些最強大的專業級GPU適用於AI處理與開發、3D渲染、媒體和內容創作等工作負載。 支援新型GPU的Supermicro系統產品系列如下: NVIDIA RTX PRO 6000 Blackwell伺服器版 5U PCIe GPU — 具高靈活度及散熱設計最佳化架構,可於單一氣冷式機箱內支援最高10顆GPU。此系列系統具有雙路CPU和PCIe 5.0擴充,可實現高速連接。適用的工作負載包括AI推論與微調、3D 渲染、數位分身、科學模擬和雲端遊戲。 NVIDIA MGX™ — 此GPU最佳化系統是基於NVIDIA模組化參考設計,可在2U機型內搭載最高4顆GPU或在4U機型內搭載8顆GPU,適用於工業自動化、科學建模、高效能運算和AI推論等應用。 3U邊緣最佳化PCIe GPU — 具有緊湊機體外型,適用於邊緣資料中心部署,每系統最高支援8個雙倍寬度GPU或19個單寬GPU。適用的工作負載包括電子設計自動化(EDA)、科學建模和邊緣AI推論。 SuperBlade® — 具備密度最佳化的高能效多節點架構,可實現最大機架密度,並能讓每機架容納最高120個GPU。 機架式工作站 — 以機架式機型提供工作站效能與靈活性,具有高密度和高安全性,可滿足組織對集中化資源運用的需求。 NVIDIA RTX PRO 6000 Blackwell工作站版和NVIDIA RTX PRO 6000 Blackwell Max-Q工作站版 直立式工作站 — 一系列桌上和桌下機型,專為AI、3D媒體和模擬應用所設計,是AI開發者、創意工作室、教育機構、外地辦事處和實驗室的理想選擇。  支援H200/H100 NVL、L40S、L4等其他市場上現有的GPU: 4U GPU最佳化 — 最高可搭載10個雙倍寬度GPU,並可搭配單根(Single Root)和雙根(Dual Root)組態配置。而直立式的GPU伺服器則可支援最高4個雙倍寬度GPU。 1U和2U MGX™ — 此緊湊型GPU最佳化系統是基於NVIDIA模組化參考設計,可支援最高4個雙倍寬度GPU。 1U和2U機架式平台 — 包括具備旗艦級效能的Hyper和Hyper-E,以及針對雲端資料中心最佳化的CloudDC,可支援最高4個雙倍寬度GPU或8個單寬GPU。 多處理器 — 具有4和8插槽架構,可最大化記憶體和I/O密度,並能在2U機箱內支援最高2個雙倍寬度GPU,以及在6U機箱內支援最高12個雙倍寬度GPU。 邊緣系統 — 緊湊式箱型電腦(Box PC),可支援1個雙倍寬度GPU或2個單寬GPU。

文章來源 : 香港商霍夫曼公關顧問股份有限公司 發表時間 : 瀏覽次數 : 2528 加入收藏 :
Supermicro為AI新浪潮擴大產品組合,推出NVIDIA Blackwell Ultra解決方案,可搭載NVIDIA HGX™ B300 NVL16與GB300 NVL72

Supermicro, Inc. (NASDAQ:SMCI)作為AI、雲端、儲存和5G/邊緣領域的全方位IT解決方案供應商,宣布推出搭載NVIDIA Blackwell Ultra平台的全新系統和機架解決方案,這些系統和解決方案可支援NVIDIA HGX B300 NVL16與NVIDIA GB300 NVL72平台。Supermicro與NVIDIA的新型AI解決方案強化了AI領域內的引領優勢,並提供突破性效能,以因應運算密集度最高的AI工作負載,包括AI推理、代理式AI,以及影片推論應用。 Supermicro總裁暨執行長梁見後表示:「Supermicro很高興與NVIDIA共同持續長期合作,並透過NVIDIA Blackwell Ultra平台為市場帶來最新AI技術。我們的資料中心建構組件解決方案(Data Center Building Block Solutions®)簡化了新一代氣冷及液冷系統開發模式,可為NVIDIA HGX B300 NVL16和GB300 NVL72實現散熱與內部拓撲的最佳化。我們的先進液冷解決方案提供卓越的散熱效率,可使8節點機架配置能搭配40℃溫水運行,而雙倍密度16節點機架配置則可使用35℃溫水,充分發揮我們最新冷卻液分配單元(CDU)的優勢。這項創新解決方案可降低最多40%的能耗,同時節約水資源,為企業級資料中心帶來環境和營運成本方面的優越效益。」 欲了解更多資訊,請瀏覽:https://www.supermicro.com/en/accelerators/nvidia  NVIDIA Blackwell Ultra平台可解決因GPU記憶體容量和網路頻寬限制產生的效能瓶頸,適用於最嚴苛的叢集規模AI應用。NVIDIA Blackwell Ultra每顆GPU具有空前的288GB HBM3e記憶體量,能為最大型AI模型的AI訓練和推論大幅強化AI FLOPS效能。與NVIDIA Quantum-X800 InfiniBand與Spectrum-X™乙太網路平台進行整合後可使運算結構頻寬加倍,最高可達800 Gb/s。 Supermicro將NVIDIA Blackwell Ultra整合至兩種解決方案:適用於各種資料中心的 Supermicro NVIDIA HGX B300 NVL16系統,以及具有新一代NVIDIA Grace Blackwell架構的NVIDIA GB300 NVL72。 Supermicro NVIDIA HGX B300 NVL16系統 Supermicro NVIDIA HGX系統是業界標準型AI訓練叢集建構組件,配備能讓8顆GPU互連的NVIDIA NVLink™域,並具有1:1的GPU對網卡比例配置,可適用於高效能運算叢集。全新Supermicro NVIDIA HGX B300 NVL16系統亦基於該項經驗證的架構所開發,具有液冷和氣冷優化式散熱設計的兩類機型。 Supermicro為B300 NVL16推出全新8U平台,可最大化NVIDIA HGX B300 NVL16基板的輸出效能。每組GPU皆透過1.8TB/s 16-GPU NVLink域互連,使每系統可提供2.3TB的高HBM3e容量。Supermicro NVIDIA HGX B300 NVL16將8組NVIDIA ConnectX®-8 NIC直接整合至基板,大幅提升網域效能,並可透過NVIDIA Quantum-X800 InfiniBand或Spectrum-X™ 乙太網路支援800 Gb/s的節點間傳輸速度。 Supermicro NVIDIA GB300 NVL72 NVIDIA GB300 NVL72可在單一機架內搭載72顆NVIDIA Blackwell Ultra GPU和36顆NVIDIA Grace™ CPU,提供百萬兆級運算能力,並具有經升級且超過20 TB的HBM3e記憶體,可透過1.8TB/s的72-GPU NVLink域進行互連。NVIDIA ConnectX®-8 SuperNIC則提供800Gb/s傳輸速度,可用於GPU對網卡,以及網卡對網路間的通訊,能大幅提高AI運算結構的叢集級效能。 液冷AI資料中心建構組件解決方案 Supermicro透過液冷散熱、資料中心部署和建構組件技術的專業優勢,以領先業界的部署速度提供NVIDIA Blackwell Ultra。Supermicro也具有完整的液冷產品組合,包括新開發的直達晶片液冷板、250kW機架內建式冷卻液分配單元,以及冷卻水塔。  Supermicro 的現場機架部署服務可協助企業從零開始打造資料中心,包括規劃、設計、啟動上線、驗證、測試、安裝、機架配置、伺服器、交換器及其他網路設備,以滿足不同的企業需求。 8U Supermicro NVIDIA HGX B300 NVL16系統 — 專為各種資料中心設計,採用改良式散熱最佳化型機箱,且每系統具有2.3TB HBM3e記憶體。 NVIDIA GB300 NVL72 — 單一機架式百萬兆級AI超級電腦,其HBM3e記憶體容量和網路速度比較早的機型高出幾乎一倍。

文章來源 : 香港商霍夫曼公關顧問股份有限公司 發表時間 : 瀏覽次數 : 2385 加入收藏 :
Supermicro為AI新浪潮擴大產品組合,推出NVIDIA Blackwell Ultra解決方案,可搭載NVIDIA HGX™ B300 NVL16與GB300 NVL72

此氣冷與液冷最佳化解決方案提供更高的AI FLOPS及HBM3e記憶體容量,並支援最高800 Gb/s Direct-to-GPU連接效能 加州聖荷西2025年3月25日 /美通社/ -- Supermicro, Inc. (NASDAQ:SMCI)作為AI、雲端、儲存和5G/邊緣領域的全方位IT解決方案供應商,宣布推出搭載NVIDIA Blackwell Ultra平台的全新系統和機架解決方案,這些系統和解決方案可支援NVIDIA HGX B300 NVL16與NVIDIA GB300 NVL72平台。Supermicro與NVIDIA的新型AI解決方案強化了AI領域內的引領優勢,並提供突破性效能,以因應運算密集度最高的AI工作負載,包括AI推理、代理式AI,以及影片推論應用。 Supermicro總裁暨執行長梁見後表示:「Supermicro很高興與NVIDIA共同持續長期合作,並透過NVIDIA Blackwell Ultra平台為市場帶來最新AI技術。我們的資料中心建構組件解決方案(Data Center Building Block Solutions®)簡化了新一代氣冷及液冷系統開發模式,可為NVIDIA HGX B300 NVL16和GB300 NVL72實現散熱與內部拓撲的最佳化。我們的先進液冷解決方案提供卓越的散熱效率,可使8節點機架配置能搭配40℃溫水運行,而雙倍密度16節點機架配置則可使用35℃溫水,充分發揮我們最新冷卻液分配單元(CDU)的優勢。這項創新解決方案可降低最多40%的能耗,同時節約水資源,為企業級資料中心帶來環境和營運成本方面的優越效益。」 欲了解更多資訊,請瀏覽:https://www.supermicro.com/en/accelerators/nvidia NVIDIA Blackwell Ultra平台可解決因GPU記憶體容量和網路頻寬限制產生的效能瓶頸,適用於最嚴苛的叢集規模AI應用。NVIDIA Blackwell Ultra每顆GPU具有空前的288GB HBM3e記憶體量,能為最大型AI模型的AI訓練和推論大幅強化AI FLOPS效能。與NVIDIA Quantum-X800 InfiniBand與Spectrum-X™乙太網路平台進行整合後可使運算結構頻寬加倍,最高可達800 Gb/s。 Supermicro將NVIDIA Blackwell Ultra整合至兩種解決方案:適用於各種資料中心的 Supermicro NVIDIA HGX B300 NVL16系統,以及具有新一代NVIDIA Grace Blackwell架構的NVIDIA GB300 NVL72。 Supermicro NVIDIA HGX B300 NVL16系統 Supermicro NVIDIA HGX系統是業界標準型AI訓練叢集建構組件,配備能讓8顆GPU互連的NVIDIA NVLink™域,並具有1:1的GPU對網卡比例配置,可適用於高效能運算叢集。全新Supermicro NVIDIA HGX B300 NVL16系統亦基於該項經驗證的架構所開發,具有液冷和氣冷優化式散熱設計的兩類機型。 Supermicro為B300 NVL16推出全新8U平台,可最大化NVIDIA HGX B300 NVL16基板的輸出效能。每組GPU皆透過1.8TB/s 16-GPU NVLink域互連,使每系統可提供2.3TB的高HBM3e容量。Supermicro NVIDIA HGX B300 NVL16將8組NVIDIA ConnectX®-8 NIC直接整合至基板,大幅提升網域效能,並可透過NVIDIA Quantum-X800 InfiniBand或Spectrum-X™ 乙太網路支援800 Gb/s的節點間傳輸速度。 NVIDIA Supermicro AI Solutions B300 Supermicro NVIDIA GB300 NVL72 NVIDIA GB300 NVL72可在單一機架內搭載72顆NVIDIA Blackwell Ultra GPU和36顆NVIDIA Grace™ CPU,提供百萬兆級運算能力,並具有經升級且超過20 TB的HBM3e記憶體,可透過1.8TB/s的72-GPU NVLink域進行互連。NVIDIA ConnectX®-8 SuperNIC則提供800Gb/s傳輸速度,可用於GPU對網卡,以及網卡對網路間的通訊,能大幅提高AI運算結構的叢集級效能。 液冷AI資料中心建構組件解決方案 Supermicro透過液冷散熱、資料中心部署和建構組件技術的專業優勢,以領先業界的部署速度提供NVIDIA Blackwell Ultra。Supermicro也具有完整的液冷產品組合,包括新開發的直達晶片液冷板、250kW機架內建式冷卻液分配單元,以及冷卻水塔。 Supermicro 的現場機架部署服務可協助企業從零開始打造資料中心,包括規劃、設計、啟動上線、驗證、測試、安裝、機架配置、伺服器、交換器及其他網路設備,以滿足不同的企業需求。 8U Supermicro NVIDIA HGX B300 NVL16系統 — 專為各種資料中心設計,採用改良式散熱最佳化型機箱,且每系統具有2.3TB HBM3e記憶體。 NVIDIA GB300 NVL72 — 單一機架式百萬兆級AI超級電腦,其HBM3e記憶體容量和網路速度比較早的機型高出幾乎一倍。 關於Super Micro Computer, Inc. Supermicro(納斯達克股票代碼:SMCI)為應用最佳化全方位IT解決方案的全球領導者。Supermicro的成立據點及營運中心位於美國加州聖荷西,致力為企業、雲端、AI和5G電信/邊緣IT基礎架構提供領先市場的創新技術。我們是全方位IT解決方案製造商,提供伺服器、AI、儲存、物聯網、交換器系統、軟體及支援服務。Supermicro的主機板、電源和機箱設計專業進一步推動了我們的發展與產品生產,為全球客戶實現了從雲端到邊緣的下一代創新。我們的產品皆由企業內部團隊設計及製造(在美國、亞洲及荷蘭),透過全球化營運實現極佳的規模與效率,並藉營運最佳化降低總體擁有成本(TCO),以及經由綠色運算技術減少環境衝擊。屢獲殊榮的Server Building Block Solutions®產品組合,讓客戶可以自由選擇這些具高度彈性、可重複使用且極為多元的建構式組合系統,我們支援各種外形尺寸、處理器、記憶體、GPU、儲存、網路、電源和散熱解決方案(空調、自然氣冷或液冷),因此能為客戶的工作負載與應用提供最佳的效能。 Supermicro、Server Building Block Solutions和We Keep IT Green皆為Super Micro Computer, Inc. 的商標和/或註冊商標。 所有其他品牌、名稱和商標皆為其各自所有者之財產。

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 355 加入收藏 :
Cognizant to Deploy Neuro AI Platform to Accelerate Enterprise AI Adoption in Collaboration with NVIDIA

Cognizant will offer solutions across key growth areas, including enterprise AI agents, tailored industry large language models and infrastructure with NVIDIA AI. TEANECK, N.J., March 25, 2025 /PRNewswire/ -- Cognizant (NASDAQ: CTSH) announced advancements built on NVIDIA AI aimed at accelerating the cross-industry adoption of AI technology in five key areas: enterprise AI agents, industry-specific large language models (LLMs), digital twins for smart manufacturing, foundational infrastructure for AI, and the capabilities of Cognizant's Neuro® AI platform to integrate NVIDIA AI technology and orchestrate across the enterprise technology stack. Cognizant is working with global clients to help them scale AI value efficiently, leveraging extensive industry experience and a comprehensive AI ecosystem comprising infrastructure, data, models, and agent development powered by proprietary platforms and accelerators. NVIDIA AI plays a key role in Cognizant's AI offerings, with active client engagements underway across industries to enable growth and business transformation. "We continue to see businesses navigating the transition from proofs of concept to larger-scale implementations of enterprise AI," said Annadurai Elango, president, Core Technologies and Insights, Cognizant. "Through our collaboration with NVIDIA, Cognizant will be building and deploying solutions that accelerate this process and scale AI value faster for clients through integration of foundational AI elements, platforms and solutions." "From models to applications, enterprise AI transformation requires full-stack software and infrastructure with access to domain-specific data," said Jay Puri, executive vice president of Worldwide Field Operations, NVIDIA. "The Cognizant Neuro AI platform is built with NVIDIA AI to deliver specialized LLMs and applications to ready businesses for the era of AI with reasoning agents and digital twins." At NVIDIA GTC 2025, Cognizant presented its intent to deliver offering updates across the following five areas: Enterprise AI agentification powered by Cognizant® Neuro AI Multi-Agent Accelerator: Running on NVIDIA NIM™ microservices, this framework will enable clients to rapidly build and scale multi-agent AI systems for adaptive operations, real-time decision-making and personalized customer experiences. With these frameworks clients can create and orchestrate agents using a low-code framework or use pre-built agent networks for various enterprise functions and industry-specific processes such as sales, marketing, and supply chain management. The frameworks also allow clients to easily integrate third-party agent networks and most LLMs. Building multi agents for scale: Cognizant works to enhance business operations through the use of multi-agent systems and integration with NVIDIA NIM, NVIDIA Blueprints, and NVIDIA Riva speech AI. The company will be developing a future-proof agent architecture that supports modular and adaptable agent design to meet evolving needs and the long-term viability and adaptability of AI solutions. This includes pre-built integrations with security guardrails and human oversight. This approach aims to enable enterprises to develop and deploy market-ready applications tailored to their specific needs using the pre-built agent catalog. Examples include industry agents such as insurance claims underwriting multi-agent systems, appeals and grievances multi-agent systems, automated supply chain multi-agent systems and contract management multi-agent systems. Industry LLMs: Cognizant is developing industry-oriented LLMs powered by NVIDIA NeMo and NVIDIA NIM. These solutions are tailored to meet the unique needs of different industries and build on Cognizant's deep industry expertise to drive innovation and improve business outcomes. For example, Cognizant has developed a fine-tuned language model to transform healthcare administrative processes. This system will leverage Cognizant's domain expertise and NVIDIA technology to enhance medical code extraction and support higher accuracy, reduced errors, and better compliance with HIPAA and GDPR standards. It is designed to help clients cut costs, decrease latency, improve revenue cycle management and help ensure accurate risk adjustment. In internal Cognizant benchmarking, the model has demonstrated effectiveness in reducing effort by 30-75 percent, boosting coding accuracy by 30-40 percent, and accelerating time to market by 40-45 percent. Industrial digital twins: Cognizant's smart manufacturing and digital twin offerings, accelerated by NVIDIA Omniverse™, will aim to drive digital transformation by combining NVIDIA Omniverse's synthetic data generation, accelerated computing, and physical AI simulation technologies to address challenges in manufacturing operations and supply chain management. These capabilities will be designed to assist clients in enhancing plant layout and process simulations with real-time insights and predictive analytics, while also supporting improved operational efficiency and optimized plant capital expenditure. This offering enables integration of diverse data from applications, systems and sensors with synthetic data, allowing clients to simulate various scenarios and find solutions to issues in the plant. Additionally, by building the necessary digital infrastructure, including IT systems and skilled personnel, Cognizant's offerings can be used to create and manage digital twins for large-scale systems, such as factories, smart grids, warehouses, or entire cities, with precision and efficiency. Infrastructure for AI: Implementing AI effectively requires robust AI infrastructure and data prepared for AI. Cognizant's infrastructure for AI, accelerated by NVIDIA, will provide clients access to NVIDIA AI technology via "GPU as a Service", along with secure and managed infrastructure. This helps ensure that AI models can be run in various environments, including the cloud, data centers or at the edge. Additionally, Cognizant intends to use NVIDIA RAPIDS™ Accelerator for Apache Spark to help clients accelerate data pipelines for AI implementations, facilitating efficient and scalable operations. In one example implementation for a large healthcare client in the U.S., use of Cognizant's infrastructure for AI resulted in a 2.7x cost efficiency improvement and a 1.8x enhancement in the performance of their Spark workloads. "As we enter the era of AI industrialization, enterprises are seeking to accelerate the value velocity of their AI investments—focusing on outsized economic impact, agentic-led workflow transformation, and industry-specific deployments," said Nitish Mittal, Partner, Everest Group. "Cognizant's deepening partnership with NVIDIA signals the right trajectory for forward-thinking enterprises aiming to unlock breakthrough value in the AI era." About CognizantCognizant (Nasdaq: CTSH) engineers modern businesses. We help our clients modernize technology, reimagine processes and transform experiences so they can stay ahead in our fast-changing world. Together, we're improving everyday life. See how at www.cognizant.com or @cognizant. For more information, contact: U.S. Name Ben Gorelick Email benjamin.gorelick@cognizant.com  Europe / APAC Name Christina Schneider Email christina.schneider@cognizant.com  India Name Rashmi Vasisht Email rashmi.vasisht@cognizant.com   

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 119 加入收藏 :
「Lenovo Hybrid AI Advantage with NVIDIA」以全新可延展代理式AI解決方案 提升商業生產力及效率

全新Lenovo代理式AI和混合AI工廠平台支援NVIDIA Blackwell Ultra,並可更快部署可度身訂造的AI代理,開啟AI推理的新時代 Lenovo已在測試、驗證及延展各種綜合應用範例—自動化創建內容創速度提升至高達8倍、客戶服務效率提升了50%,並藉知識助手提升工作流程生產力 混合式AI應用提升了病人護理質素,提升醫療診斷速度,並推動全球各的的科學研究 香港 - Media OutReach Newswire - 2025年3月24日 – 在NVIDIA GTC大會上,Lenovo推出全新的「Lenovo Hybrid AI Advantage with NVIDIA」解決方案,旨在加速AI應用並提升商業生產力,快速推進具備推理、計劃及採取行動能力,以更快達成目標的代理式AI。這些經過驗證的全堆棧AI解決方案使企業能夠快速建構及部署AI代理,可應用於廣泛的高需求使用範例,從而提升生產力、加強靈活及可靠水平,同時加速新時代代理式AI的下一波AI推理應用。 根據Lenovo委託市場研究機構IDC進行的全新環球研究,儘管支出增加了三倍1,投資回報率(ROI)仍然是採用AI的最大障礙。AI代理正在革新企業工作流程,透過支持員工進行複雜的解難、編碼及多步驟計劃,以降低ROI的障礙,同時提升速度及生產力,並推動創新。隨著首席資訊總監(CIO)及商業領袖追求具體的AI投資回報,Lenovo提供的混合式AI解決方案可釋放並度身訂造各種規模的代理式AI。 該AI解決方案結合了Lenovo全堆棧AI產品組合,以及可應用戶需要而隨時度身訂造的使用範例,並提供全新的平台選項,以支援最新的NVIDIA Blackwell Ultra平台、NVIDIA RTX PRO 6000 Blackwell伺服器版GPU及網絡創新,幫助全球各地組織加速應用,例如AI推理、代理式AI和實時影片生成。 聯想集團董事局主席兼首席執行官楊元慶表示:「Lenovo致力為全球推動更智能化的AI,把AI模型、數據及運算能力結合在一起—運行在設備、邊緣及雲端,並連接至網絡—提供能夠促進人類創新及提升生產力的AI解決方案。『Lenovo Hybrid AI Advantage with NVIDIA』整合了尖端服務及新一代Blackwell加速基建,協助企業輕鬆在私有及公共AI模型上延展代理式AI,顯著提升成本效益、效率、安全、可用性及可度身訂造能力的各種優勢。」 NVIDIA創辦人兼首席執行官黃仁勳表示:「具備推理及適應能力的AI代理正在重塑我們的工作方式。NVIDIA及Lenovo提供了為大規模AI推論及推理提供所需的關鍵基建—把生成及代理式AI從研究實驗室帶入現實世界的企業應用。」 混合式AI定義了新一代發展並推動代理式AI應用 數據無處不在—在製造、零售、銀行、醫療業務據點、企業數據中心,以至公共領域。混合基建讓收集、儲存、處理數據,然後匯入企業級AI模型並在混合雲中訓練,亦在邊緣或設備上提供推理與訓練模型。 這些新方案充分利用了Lenovo在混合基建中的領導地位,以及最近公布的Lenovo Hybrid AI Advantage with NVIDIA透過使用工廠方法(factory-type approach)有效延展代理式AI,把來自各地的數據智能轉化為變革性成果。 經全面驗證及測試的代理式AI應用範例 「Lenovo Hybrid AI Advantage with NVIDIA」框架包含了 涵蓋一系列可度身訂造、經多重測試和驗證使用範例的Lenovo AI庫,以協助團隊提升生產力並交付AI應用。代理式AI可在個人設備、工作站和企業地點的數據中心中獨立存取,並在各個關鍵領域實現出色的投資回報,例如: 內容生成—自動化內容創建速度提升至高達8倍,提升質素及個人化客戶互動1。 客戶服務—透過縮短回應時間、實現聊天機械人互動自動化及降低處理時間20%2,使客戶服務效率提升50%。 知識助手—打破數據孤島、增強企業知識分享,並把工作流程自動化,例如更快的合約審查。對法律團隊而言,這使生產力提高了80%,準確性提升了45%3。 在NVIDIA GTC大會上,Lenovo首次展示了Lenovo AI知識助手。這是一個數碼人類助手可和與會者實時對話,顯著改變他們的活動體驗和參與方式。該解決方案由Lenovo代理式AI平台驅動,使不同組織可快速定制Lenovo AI庫的使用範例,並在數星期內部署全新的AI代理及助手。這項示範運用數碼人類NVIDIA AI藍圖和NVIDIA NIM™微服務定制,運行於Lenovo PX ThinkStation上。 與會者使用自然語音和語言與AI助手互動,查詢相關的活動細節、地圖、日程時間表及會議地點,使他們能更有效運用他們的時間並優化活動參與體驗。這次示範亦生動展示了Lenovo經測試及驗證的解決方案如何協助企業更快啟動可度身訂造的代理式AI,並與客戶和員工在全新層次上連接和協作,以改善業務成果和客戶體驗。 Lenovo代理式AI平台是業界最完整的本地代理式AI解決方案,簡化了部署流程,使客戶能夠在個人、企業及公共環境中延展代理式AI,以把工作流程自動化、提升生產力並加速決策。該平台與NVIDIA AI企業軟件平台完全整合,包含必要的軟件套裝、先進數據工具、已預先訓練的模型及自動化部署功能。 Lenovo AI服務及專家提供指導,可簡化應用步驟,同時確保AI能創造實際價值。該平台還以負責任的AI框架和GenAIOps儀表板優先考慮安全和信任,實現集中AI管理、性能監控及偏差檢測。 已為企業應用作好準備的混合AI工廠以推動可延展增長 隨著世界轉向加速運算以應對AI工作量,Lenovo正協助企業快速建構、延展和營運自己的AI工廠—以提供高性能、可延展和受保護的環境,以提供可靠的AI解決方案。這些新平台可協助組織提升建構、延展及整合代理式AI的效率,使用經驗證的設計以實現多種工作量,並提供標準化、模組化、混合部署選項。這些工廠簡化了無論在本地、雲端還是邊緣的AI訓練、推理和部署。 基於NVIDIA企業參考架構和NVIDIA認證的Lenovo ThinkSystem伺服器而建造,這些混合AI工廠平台可提供包含工作站、伺服器、網絡、儲存、合作夥伴解決方案及服務的全堆棧數據中心基建。工廠選項包括Lenovo ThinkSystem SR675、680、685伺服器及使用NVIDIA Hopper GPU、NVIDIA Blackwell GPU、NVIDIA Grace™ 處理器、NVIDIA Spectrum-X網絡及NVIDIA BlueField DPU的儲存解決方案。 對於數據中心,Lenovo ThinkSystem SR675 V3伺服器配備NVIDIA H200 NVL、NVIDIA網絡及NVIDIA AI企業軟件平台,為AI和高性能運算工作量提供卓越表現。該平台從一台配備4個GPU的單一伺服器初始環境,到機架式可延展單元(SU),提供即插即用的基建解決方案,使各類型企業能夠快速部署混合AI工廠或延展現有的資訊科技基建。 Lenovo AI工廠生態系統還包括: 已為AI作好準備的Lenovo ThinkStation PX工作站,配備NVIDIA RTX PRO 6000 Blackwell工作站版本及NVIDIA AI工作台供開發者使用。 Lenovo Neptune液冷AI基建可提升大規模推動AI的效率,並建基於新一代NVIDIA加速運算針對雲服務供應商處理大型語言模型(LLM)工作量。 Lenovo AI快速啟動服務協助企業在90天內快速部署、整合及延展應用範例並證明商業價值。 推動下一波AI突破 在各行各業,Lenovo混合式AI解決方案已經改變了醫療、金融、製造和零售等領域—從撰寫醫學研究總結和自動化合規報告,到透過智能推薦增強客戶體驗。Lenovo與NVIDIA正與領先機構和企業合作,釋放AI的潛力。在德國,Lenovo與達姆施塔特工業大學(Technical University of Darmstadt)成功獲得首個NVIDIA GB200項目,以推進科學研究。該項目將採用全新高能源效益的Lenovo ThinkSystem SC777 V4 Neptune系統,建基於Lenovo第六代Neptune直接水冷平台和服務的高性能伺服器。這合作進一步鞏固了Lenovo與達姆施塔特工業大學之間的強大夥伴關係,藉著引入了領先的新一代Grace-Blackwell分區,增強了「Lichtenberg NHR-Stage 1」超級電腦的可持續發展及高性能。 為了優化病人體驗和預防性健康檢查中的醫療評估,醫療軟件開發公司Artificial Intelligence System for Human Analysis(AISHA)使用了Lenovo和NVIDIA的混合式AI解決方案訓練了一個AI模型,以分析磁力共振掃描(MRI)。該AI模型能在短短30分鐘內分析全身掃描,比人手分析快超過99%,讓醫生能提快速了解病人情況,並提升病人檢查體驗。 AISHA負責人Dr. Juan Pablo Reyes Gonzalez表示:「如果沒有Lenovo和NVIDIA解決方案的支援,這個模型根本無法存在。Lenovo和NVIDIA在AI領域無人可匹敵。」 混合式AI正是未來的發展方向 透過簡化AI應用及可延展能力,「Lenovo Hybrid AI Advantage with NVIDIA」正在協助各行各業的組織釋放數據,並以AI創造真正的商業價值。如欲了解更多資訊,可瀏覽:https://www.lenovo.com/us/en/servers-storage/solutions/ai/。 1 基於Lenovo方案及服務集團市務部的內部數據 2 基於Lenovo服務交付團隊的內部數據 3 基於Lenovo法律部門的內部數據 Hashtag: #Lenovo 發佈者對本公告的內容承擔全部責任關於 Lenovo聯想是一家年度營業額達 570 億美元的全球化科技公司,位列《財富》世界 500 強第 248 名,服務遍佈全球 180 個市場數以百萬計的客戶。為實現「智慧,為每一個可能」 的公司願景,Lenovo 在不斷鞏固全球個人電腦市場冠軍地位的基礎上,積極構建全端式的運算能力,現已擁有包括人工智慧賦能、人工智慧導向和人工智慧優化的終端、基礎設施、軟體、解決方案和服務在內的完整產品路線圖,包括個人電腦、工作站、智慧手機、平板電腦等終端產品,伺服器、儲存、邊緣運算、高效能運算以及軟體定義等基礎設施產品。這項變革與聯想改變世界的創新一起,共同為世界各地的人們成就一個更包容、值得信賴的智慧未來。聯想集團有限公司於香港交易所上市 (港交所:992)(美國預託證券代號:LNVGY)。歡迎瀏覽Lenovo官方網站https://www.lenovo.com,並透過我們的StoryHub閱覽Lenovo的最新消息。 LENOVO、THINKSYSTEM、THINKSTATION及NEPTUNE是聯想的商標。NVIDIA及RTX是NVIDIA Corporation, Inc.的商標。所有其他商標均為其各自所有者的財產。©2025,聯想集團有限公司。

文章來源 : Media OutReach Limited 發表時間 : 瀏覽次數 : 655 加入收藏 :
2025 年 4 月 2 日 (星期三) 農曆三月初五日
首 頁 我的收藏 搜 尋 新聞發佈