本網站使用瀏覽器紀錄 (Cookies) 來提供您最好的使用體驗,我們使用的 Cookie 也包括了第三方 Cookie。相關資訊請訪問我們的隱私權與 Cookie 政策。如果您選擇繼續瀏覽或關閉這個提示,便表示您已接受我們的網站使用條款。 關閉
Super Micro Computer, Inc. (NASDAQ:SMCI) 為 AI/ML、雲端、儲存和 5G/智慧邊緣應用的全方位 IT 解決方案供應商,今天宣佈開始出貨配備最新 NVIDIA HGX H100 8-GPU 系統最頂級的全新 GPU 伺服器。Supermicro 伺服器將最新的 NVIDIA L4 Tensor Core GPU 整合到從邊緣到資料中心的各種應用程式最佳化伺服器中。 Supermicro 總裁暨執行長 Charles Liang 表示:「Supermicro 提供業界最全面的 GPU 系統產品組合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的伺服器,以及支援全系列最新 NVIDIA H100 GPU 的工作站和 SuperBlade 系統。選擇這款最新的 NVIDIA HGX H100 Delta-Next 伺服器,客戶將獲得比上一代 AI 訓練應用程式提升 9 倍的效能。我們的 GPU 伺服器採用創新的氣流設計,能全面降低風扇轉速、噪音和功耗,進而降低總擁有成本 (TCO)。此外,對於正在尋找能符合未來需求的資料中心的客戶,我們也為這類客戶提供完整的機櫃級(rack-scale)液冷選項。」 Supermicro 效能最高的新型 8U GPU 伺服器現已大量出貨。這款全新 Supermicro 8U 伺服器特別針對 AI、DL、ML 和 HPC 工作負載最佳化,搭載能達到最高 GPU 到 GPU 通訊的 NVIDIA HGX H100 8-GPU,使用速度最快的 NVIDIA NVLink® 4.0 技術、NVSwitch 互連,以及 NVIDIA Quantum-2 InfiniBand 和 Spectrum-4 乙太網路,大幅突破 AI 的障礙。 此外,Supermicro 亦提供多種效能最佳化的 GPU 伺服器配置,包括直連/單根(single-root)/ 雙根(dual-root) CPU 到 GPU,另外還有前置或後置 I/O 機型,在標準和 OCP DC 機櫃配置中使用 AC 與 DC 電源。Supermicro X13 SuperBlade® 機殼可在一個 8U 機殼內放入 20 個 NVIDIA H100 Tensor Core PCIe GPU 或 40 個 NVIDIA L40 GPU。 6U 機殼則最多可使用 10 個 NVIDIA H100 PCIe GPU 或 20 個 NVIDIA L4 Tensor Core GPU。這些新系統提供最佳的加速功能,適合用於執行 NVIDIA AI 平台軟體層 NVIDIA AI Enterprise。 這些伺服器內建的液冷系統也用於其他許多 GPU 伺服器。此外,Supermicro 發表了一款液冷式 AI 開發系統 (塔式或機架式配置皆可),內含兩個 CPU 和四個 NVIDIA A100 Tensor Core GPU,非常適合辦公室和家庭辦公環境,能部署在部門和企業叢集內。 Supermicro 系統支援新的 NVIDIA L4 GPU,與前幾代產品相比,加速和能效均提升數倍。此系統同樣適用於企業、雲端和邊緣的 AI 推理、視訊串流、虛擬工作站和圖形應用程式。L4 採用 NVIDIA 的 AI 平台和全堆疊方法,經過最佳化調整,適合進行各種 AI 應用程式的大規模推理,包括推薦、語音型的 AI 虛擬人物助理、聊天機器人、視覺搜尋和客服中心自動化等,能提供最好的個人化體驗。L4 是適用於主流伺服器最高效的 NVIDIA 加速器,擁有高達 4 倍的 AI 效能、更高的能源使用效率,還有超過 3 倍的視訊串流容量與效率,因此能支援 AV1 編碼/解碼。L4 GPU 擁有多樣化的推理和視覺化功能,加上輕巧、節能、單插槽、薄型、72W的低功耗規格,是包括邊緣位置在內全域部署的最佳選擇。 NVIDIA 加速運算產品主管 Dave Salvator 表示:「Supermicro 伺服器配備最新的 NVIDIA L4 Tensor Core GPU,擁有無與倫比的強大效能,讓客戶能高效率且永續地加快工作負載的速度。NVIDIA L4 經過最佳化,適合用於主流部署,加上外型輕薄,可在 72W 的低功耗範圍內作業,將邊緣的 AI 效能和效率提升至新的境界。」 Supermicro 最新的 PCIe 加速解決方案支援打造 3D 世界、數位雙生、3D 模擬模型和工業元宇宙。除了支援前幾代 NVIDIA OVX™ 系統,Supermicro 也推出 OVX 3.0 配置,配備四個 NVIDIA L40 GPU、兩個 NVIDIA ConnectX®-7 SmartNIC、一個 NVIDIA BlueField®-3 DPU 及最新的 NVIDIA Omniverse Enterprise™ 軟體。 若要深入瞭解所有 Supermicro 先進的全新 GPU 系統,請造訪:https://www.supermicro.com/en/accelerators/nvidia 歡迎由 2023 年 NVIDIA GTC 深入瞭解 Supermicro https://register.nvidia.com/events/widget/nvidia/gtcspring2023/sponsorcatalog/exhibitor/1564778120132001ghs2/?ncid=ref-spo-128510
部署在Amazon EC2 UltraCluster中的新型Amazon EC2 P5執行個體經過充分優化,可以利用NVIDIA Hopper GPU加速生成式AI的大規模訓練和推論 【台北訊,2023年3月23日】Amazon Web Services(AWS)和NVIDIA(輝達)宣佈了一項多方合作,致力於建構全球最具可擴展性且隨需付費的人工智慧(AI)基礎設施,以便訓練日益複雜的大型語言模型(LLM)和開發生成式AI應用程式。 借助於NVIDIA H100 Tensor Core GPU支持的下世代Amazon Elastic Compute Cloud(Amazon EC2)P5執行個體,以及AWS最先進的網路和可擴展性,此次合作將提供高達20 exaFLOPS的運算效能來協助建構和訓練更大規模的深度學習模型。P5執行個體將是第一個利用AWS第二代Amazon Elastic Fabric Adapter(EFA)網路技術的GPU執行個體,可提供3200 Gbps的低延遲和高頻寬網路輸送量。因此客戶能夠在Amazon EC2 UltraCluster中拓展多達2萬個NVIDIA H100 GPU,滿足隨需訪問超級電腦的AI效能需求。 「AWS和NVIDIA合作已超過12年,為人工智慧、機器學習、圖形、遊戲和高效能運算(HPC)等各種應用提供了大規模、低成本的GPU解決方案。」AWS執行長Adam Selipsky表示,「AWS在交付基於GPU的執行個體方面擁有無比豐富的經驗,每一代執行個體都大幅強化可擴展性,如今眾多客戶將機器學習訓練工作負載拓展到1萬多個GPU。借助第二代EFA,客戶能夠將其P5執行個體拓展到超過2萬個H100 GPU,為包括新創公司、大企業在內的所有規模客戶提供所需的超級運算能力。」 「加速運算和人工智慧已經到來,而且適逢其時。加速運算提升效能的同時,降低了成本和功耗,讓企業事半功倍。生成式AI已促使企業重新思考產品和商業模式,力求成為顛覆者,而不是被顛覆。」NVIDIA創辦人暨執行長黃仁勳表示,「AWS是NVIDIA的長期合作夥伴,也是首家提供NVIDIA GPU的雲端服務提供者。我們很高興能夠結合各自的專長、規模和業務範圍,協助客戶利用加速運算和生成式AI抓住未來的大好機遇。」 新的超級運算叢集 新的P5執行個體建構於AWS和NVIDIA十多年來在AI和HPC基礎設施交付方面的合作基礎之上,也立足於雙方在P2、P3、P3dn和P4d(e)前四代執行個體方面的合作。P5執行個體是基於NVIDIA GPU的第五代AWS產品,與最初部署的NVIDIA GPU(始於CG1執行個體)已相隔近13年。 P5執行個體非常適合對日益複雜的LLM和電腦視覺模型進行訓練和運行推理,並應用於要求嚴苛的運算密集型生成式AI應用程式,包括問題回答、代碼生成、影片圖像生成和語音辨識等領域。 對於致力於以可擴展和安全的方式將AI賦能的創新推向市場的企業和新創公司而言,P5執行個體是不二之選。P5執行個體採用8個H100 GPU,能夠在一個Amazon EC2執行個體中實現16 petaFLOPs的運算效能、640 GB的高頻寬記憶體和3200 Gbps的網路效能(比上一代執行個體高出8倍)。P5執行個體效能的提升使機器學習模型訓練時間加快了6倍(將訓練時間從數天縮短到數小時),額外的GPU記憶體可幫助客戶訓練更龐大更複雜的模型。預計P5執行個體的機器學習模型訓練成本將比上一代降低40%。相比靈活性較差的雲端產品或昂貴的本地端系統,它為客戶提供了更高的效率。 P5執行個體部署在EC2 UltraCluster的超大規模叢集中,該叢集由雲端最高效能的運算、網路和儲存系統組成。每個EC2 UltraCluster都是世界上功能最強大的超級電腦之一,助力客戶運行最複雜的多節點機器學習訓練和分散式HPC工作負載。它們採用PB級無阻塞網路,基於EFA,這種針對Amazon EC2執行個體的網路介面使客戶能夠在AWS上運行需要在大規模高級節點間通訊的應用程式。EFA的客製化作業系統繞過硬體介面,並與NVIDIA GPUDirect RDMA整合,可降低延遲、提高頻寬使用率,進而提升執行個體間通訊效能,這對於在數百個P5節點上拓展深度學習模型的訓練至關重要。藉由P5執行個體和EFA,機器學習應用程式可以使用NVIDIA Collective Communications Library(NCCL)拓展到多達2萬個H100 GPU。因此,客戶可以透過AWS的隨需彈性和靈活拓展能力,獲得本地HPC叢集的應用效能。除了這些出色的運算能力外,客戶可以使用業界最廣泛最深入的服務組合,比如物件導向儲存的Amazon S3、針對高效能檔案系統的Amazon FSx,以及用於建構、訓練和部署深度學習應用的Amazon SageMaker。P5執行個體將在今後幾周提供有限預覽版。欲瞭解詳情,請參考https://pages.awscloud.com/EC2-P5-Interest.html。 借助新的P5執行個體, Hugging Face和Pinterest等客戶將能夠大規模建構和訓練最龐大的機器學習模型。基於其它幾代Amazon EC2執行個體的合作將助力新創公司、大企業和研究人員無縫拓展來滿足各自的機器學習需求。 Hugging Face的使命是將優秀的機器學習普及化。「作為發展最快速的機器學習開源社群,我們如今在針對NLP、電腦視覺、生物學和強化學習等領域的平臺上提供逾15萬個預訓練模型和2.5萬個資料集。」Hugging Face技術長暨聯合創辦人Julien Chaumond表示,「鑒於大型語言模型和生成式AI技術的顯著進步,我們正與AWS合作,以建構和貢獻未來的開源模型。我們希望在結合EFA的EC2 UltraCluster叢集中透過大規模Amazon SageMaker使用P5執行個體,加快為所有客戶提供新的基礎AI模型。」 如今,全球超過4.5億人透過Pinterest尋找視覺靈感,以購買符合自己品味的個性化產品、尋求可實體化的創意,並發現最有才華的創作者。「我們廣泛使用深度學習技術,比如對上傳到我們平臺上的數十億張照片進行標記和分類,以及讓用戶獲得從靈感到付諸行動的視覺搜尋能力。」Pinterest架構師David Chaiken表示,「我們使用P3和最新的P4d等AWS GPU執行個體建構和部署這些應用場景。我們希望使用由H100 GPU、EFA和Ultracluster加持的Amazon EC2 P5執行個體,加快產品開發,為我們的客戶提供同理心AI(Empathetic AI)體驗。」 為可擴展、高效能AI採用新的伺服器設計 在H100 GPU發佈之前,NVIDIA和在熱力、電機和機械領域擁有專業知識的AWS工程團隊合作設計了伺服器,以利用GPU提供大規模AI,重點關注AWS基礎設施的能源效率。在某些AI工作負載下,GPU的能效通常是CPU的20倍,對於LLM而言,H100 GPU的能效比CPU高300倍。 雙方的合作包括開發系統散熱設計、整合安全和系統管理、與AWS Nitro硬體加速虛擬機器管理程式一起實現安全性,以及針對AWS客製化EFA網路結構的NVIDIA GPUDirect™優化技術。 在AWS和NVIDIA專注於伺服器優化的基礎上,兩家公司已開始合作開發未來的伺服器設計,以借助新一代系統設計、冷卻技術和網路可擴展性提高擴展效率。 ### 關於Amazon Web Services 自2006年來,Amazon Web Services一直在提供世界上服務最豐富、應用廣泛的雲端服務。AWS不斷擴展可支援幾乎任何雲端工作負載的服務,為客戶提供超過200種功能全面的雲端服務,包括運算、儲存、資料庫、聯網、分析、機器學習與人工智慧、物聯網、行動、安全、混合雲、虛擬和擴增實境(VR和AR)、媒體,以及應用開發、部署和管理等方面,遍及31個地理區域內的99個可用區域(Availability Zones),並已公佈計畫在加拿大、以色列、馬來西亞、紐西蘭和泰國建立5個AWS地理區域、15個可用區域。全球超過百萬客戶信任AWS,包含發展迅速的新創公司、大型企業和政府機構。AWS協助客戶強化自身基礎設施,提高營運上的彈性與應變能力,同時降低成本。欲瞭解更多AWS的相關資訊,請至:aws.amazon.com。 關於NVIDIA 自1993年成立以來,NVIDIA(納斯達克股票代碼:NVDA)一直是加速運算領域的先驅。該公司在1999年發明的GPU推動了PC遊戲市場的發展,重新定義了電腦圖形,引領了現代AI時代,並推動了元宇宙的創建。NVIDIA如今是一家全棧運算公司,其資料中心級產品正在重塑行業。欲知詳情,請訪問https://nvidianews.nvidia.com/。
以簡易且經濟實惠的AI/ML工作負載,協助企業高效創新、大幅節省成本及重塑業務可能性香港 - Media OutReach - 2023年3月17日 - Amazon Web Services(AWS)長期深耕生成式人工智能(Generative Artificial Intelligence)領域,擁有成熟的生成式AI創新技術與專屬的行業解決方案,不僅為客戶提供經廣泛驗證且易於部署的先進AI預先訓練模型,並透過豐富且高成本效益的雲端資源以降低所需成本,協助遊戲、電商、影視、廣告、傳媒等行業快速開發生成式AI的應用程式,大幅提高生產力。AWS香港日前舉辦「AI/ML人工智能與機器學習Web Day」,吸引超過近2000名科技愛好者參與。會上,AWS技術專家分享和展示最熱門的AI和機器學習關鍵技術,如生成式AI、大型語言模型(LLM)、低程式碼/無程式碼開發(Low Code/No Code)等科技趨勢,協助香港企業把握人工智能所帶來的商機。 AWS台灣暨香港產品部總監翁宇強表示,「從AI技術發展來看,生成式AI開啟了一次模式轉變(Paradigm Shift)。大模型、多模態、高產能和海量數據將主導新一輪科技商業模式的發展,為內容創作、市場營銷、遊戲等行業帶來顛覆性創新。AWS廣泛而深入的生成式AI專屬解決方案,以最先進的效能、更高的成本效益和更全面的服務支援各行各業,協助各種規模的企業擁抱生成式AI的浪潮。」 降低成本,讓生成式AI觸手可及 目前生成式AI模型除了能生成大眾熟知的文本和圖片外,亦能生成音訊和影片內容,未來亦將出現越來越多不同種類的生成內容。對企業而言,針對特定場景所建立的模型在成本效益和準確度方面都更具優勢,因此亦是目前企業主要採用的模型。晶片效能和高品質訓練是生成式AI發展的基礎,也是實現大規模發展的瓶頸。以往模型的參數量級可能僅是千級或百萬級,但現今擁有十億百億級參數的模型比比皆是,下一代模型甚至很有可能會朝著萬億級參數級別發展。因此,降低大規模模型的成本至關重要。 然而,即使機器學習的晶片效能約每兩年就會有一倍或數倍的提升,仍然不足以跟上日趨複雜的訓練模型。替代的解決辦法就是利用分散式多處理器,透過一個網絡進行協同運算、協同訓練。AWS專為雲端上高效能模型訓練而開發的Amazon EC2 Trn1執行個體,最多可以搭載16顆專門用於機器學習訓練的Trainium晶片、512GB加速器記憶體和800GBps的網絡頻寬。 Trn1為擁有高成本效益的深度學習執行個體,相比基於GPU的類似執行個體,訓練成本大幅降低50%。以一個具備萬億級參數的大模型進行兩周訓練為例,GPU伺服器P3dn需要600個執行個體,最新一代GPU執行個體P4d需要128個執行個體,而Trn1僅需使用96個執行個體便能執行相同訓練。 AWS在2022 AWS re:Invent全球大會上推出一款建基於Trn1的網絡優化型執行個體Trn1n,進一步增加網絡頻寬一倍,從800GBps躍升到1600GBps,其強大的網絡傳輸能力能夠將超過1萬個Trainium晶片建構在一個超大規模叢集裡,並在叢集中進行模型的並行訓練。 除了訓練外,大模型也需要超高的推論能力。因此,AWS建構了Inf1執行個體,由自行研發的推論晶片Inferentia所支援,有效實現低延遲、低成本的推論。與GPU的執行個體相比,Inf1執行個體每次執行推論的成本大幅降低70%。 在去年AWS re:Invent全球大會上,AWS同時推出新一代自研推論晶片Inferentia2,以及建基於該晶片的Inf2執行個體,成為唯一一個專為大型Transformer模型分散式推論建立的執行個體。與Inf1執行個體相比,Inf2提供高達4倍的輸送量,降低多達10倍的延遲;與建基於GPU的執行個體相比,每瓦效能提升高達45%,同時也支援諸如GPT類型的大型複雜模型,並且可以用單執行個體實現1750億參數模型的推論。 此外,AWS日前宣布與AI科技公司Hugging Face加強合作,以加速對大型語言模型和視覺模型的訓練、微調和部署,協助使用者輕鬆優化效能並降低成本,從而讓他們能更快地將生成式AI應用程式應用至生產環境中。如欲了解更多AWS生成式AI的相關資訊,請瀏覽此連結。 協助行業先行者加快實踐不同業務可能性 設計和開發體驗管理軟件公司Qualtrics核心機器學習負責人Aaron Colak表示:「Qualtrics致力借助科技創新提升用戶體驗。為了實現這一目標,我們正在開發複雜的多工、多模態的深度學習模型,包括文本分類、序列標記、論述分析、關鍵短語擷取、主題擷取、聚類以及端到端對話理解等。隨著我們在更多應用程式中使用這些複雜的模型,以及非結構化數據量不斷增長,為了提供客戶最佳的體驗,我們需要效能更高的推理優化解決方案,如Inf2執行個體來滿足我們的需要。我們很高興看到新一代Inf2執行個體的推出,它不僅讓我們實現更高的傳輸量,同時亦顯著降低延遲,而且支援分散式推理和更強大的動態形狀輸入等功能。隨著我們部署更大、更複雜的模型,這些新特點和功能將進一步滿足我們對任何部署的更高要求。」 Hashtag: #AWS發佈者對本公告的內容承擔全部責任關於Amazon Web Services自2006年來,Amazon Web Services一直在提供世界上服務最豐富、應用廣泛的雲端服務。AWS為客戶提供超過200種功能全面的雲端服務,包括運算、儲存、數據庫、網絡、分析、機器學習與人工智能、物聯網、流動、安全、混合雲、虛擬和擴增實境(VR 和AR)、媒體,以及應用開發、部署和管理等方面,遍及31個地理區域內的99個可用區域(Availability Zones),並已公佈計畫在加拿大、以色列、馬來西亞、紐西蘭和泰國建立5個AWS地理區域、15個可用區域。AWS的服務獲得全球超過百萬客戶的信任,包括發展迅速的初創公司、大型企業和政府機構。通過AWS的服務,客戶能夠有效強化自身基礎設施,提高營運上的彈性與應變能力,同時降低成本。欲了解更多有關AWS的資訊,請瀏覽: aws.amazon.com。
台北2023年3月14日 /美通社/ -- 儘管大眾對 ChatGPT、Stable Diffusion和其他生成式 AI所帶來的鼓舞,以及其中蘊含的潛在機會都是真實的,但生成式 AI 無法解決任何其他類型的 AI 面臨的市場挑戰。Omdia在最新報告中指出,生成式 AI 並非萬能。 Omdia 首席分析師 Mark Beccue指出:「生成式 AI 無法從根本上解決 AI 面臨的挑戰——偏見、隱私、責任、一致性和可解釋性(Interpretability),事實上,生成式 AI 在很大程度上加劇了這些問題。」舉例來說,作為大多數生成式 AI 輸出來源的大型語言模型(LLM)是根據公共資料所訓練,這些資料可能包括有害語言或種族、性別、性取向、能力、語言、文化等方面的偏見內容,這意味著輸出本身可能就有偏見或不當內容。另一個例子是,生成式 AI 輸出不易解釋。與大多數深度學習 AI 一樣,其產出之結果難以溯源。雖然可解釋性是所有 AI 的挑戰,但對於生成式 AI 輸出,這項挑戰更為艱鉅。因為根據定義,生成式 AI 所產出的內容是被「創造」出來的。 2023 年將是生成式 AI 的早期市場階段。Omdia 預測,針對生成式 AI 的使用將在今年將湧現大量的創造性革新,然而,對於生成式 AI 的定義及其作用也會產生相對的疑惑。 Omdia 同時指出其他塑造生成式 AI 發展軌跡的市場趨勢,包括建構 LLM 並從中獲利以及雲端運算供應商發揮的關鍵作用等。Omdia 在《2023 年生成式 AI 市場格局》探討以上及其他更多方面的議題。該報告將分析關鍵驅動因素和障礙、市場趨勢、重要案例以及主要參與者是谁,為什麼他們如此關鍵,以及結合專業的 AI 分析師團隊,來預測 2023 年在整體生成式 AI 生態系統中會發生什麼,幫助讀者瞭解快速變化的生成式 AI 市場格局。 關於Omdia Omdia,作為Informa Tech的一部分,是一家專注於科技產業的領先研究和諮詢集團。憑藉對科技市場的深入瞭解,結合具體可行的洞察力,Omdia將賦能企業做出聰明的增長決策。欲瞭解更多資訊,請參考www.omdia.com。 媒體連絡人: Fasiha Khan/電話:+44 7503 666806/電子郵箱:fasiha.khan@omdia.comKelsey Lo/電話:+886 910 002 081/電子郵箱:kelsey@oneforall.com.twScott Lin/電話:+886 960 507 680/電子郵箱:scott@oneforall.com.tw
以簡易且經濟實惠的AI/ML工作負載,助力企業高效能創新、大幅節省成本、重塑業務可能性 【台北訊,2023年3月14日】Amazon Web Services(AWS)長期深耕生成式人工智慧(Generative Artificial Intelligence)領域,擁有成熟的生成式AI創新技術與專屬的產業解決方案,不僅提供經廣泛驗證且易於部署的先進AI預先訓練模型,並藉由豐富且高性價比的雲端資源以優化成本,大力協助遊戲、電商、媒體、影視、廣告、傳媒等產業快速建構生成式AI應用,進一步打造AI時代的領先生產力。AWS將於3月16日舉辦AI/ML人工智慧及機器學習解決方案日,由AWS技術專家群共同分享與展示最熱門的AI/ML關鍵技術,如生成式AI、大語言模型(LLM)、Low Code/No Code等創新趨勢,助力台灣企業抓住機遇,再創業務高峰。 AWS台灣暨香港產品部總監翁宇強表示,「從AI技術發展來看,生成式AI開啟了一次典範轉移( Paradigm Shift )。大模型、多模態、高產能和海量資料將主導新一輪科技典範的發展,為內容、行銷、遊戲等行業帶來顛覆性創新。AWS廣泛而深入的生成式AI專屬解決方案,以最先進的效能、更優異的性價比和全面的服務應用賦能各行各業,助力各種規模的企業擁抱生成式AI的浪潮。」 降低成本,讓生成式AI觸手可及 目前生成式AI模型除了大眾熟知的文本和圖片生成,亦包含音訊和影片內容生成,未來將出現越來越多不同種類的生成內容。對企業而言,針對特定場景所建置的模型在成本和準確度都更具優勢,也是目前企業主要採用的模型。晶片效能和高品質訓練是生成式AI爆發的基礎,也是實現大規模發展的瓶頸。以往模型的參數量級可能僅是千級或百萬級,但現今擁有十億百億級參數的模型比比皆是,下一代模型甚至很有可能會朝著萬億級參數級別去發展。因此,降低大規模模型的成本便顯得至關重要。 然而,即使機器學習的晶片約每兩年就會有一倍或數倍的提升,仍然不足以跟上日趨複雜的訓練模型。替代的解決辦法就是利用分散式多處理器,透過一個網路進行協同運算、協同訓練。AWS專門為雲端中高效能模型訓練而搭建的Amazon EC2 Trn1執行個體,最多可以搭載16顆專門用於機器學習訓練的Trainium晶片,512GB加速器記憶體和800GBps的網路頻寬。 Trn1是擁有高性價比的深度學習執行個體,與基於GPU的類似執行個體相比,訓練成本大幅降低了50%。以一個具備萬億級參數的大模型進行兩周訓練為例,GPU伺服器P3dn需要600個執行個體,最新一代GPU執行個體P4d需要128個執行個體,但Trn1僅僅只需使用96個執行個體便能達成。 2022 AWS re:Invent全球大會推出了一款基於Trn1的網路優化型執行個體Trn1n,進一步把網路頻寬增加一倍,從800GBps躍升到1600GBps,其強大的網路傳輸能力能夠將超過1萬個Trainium晶片建構在一個超大規模叢集裡,並在叢集中進行模型的並行訓練。 除了訓練外,大模型也需要超高的推論能力。因此,AWS建構了Inf1執行個體,用自研的推論晶片Inferentia提供支援,實現低延遲、低成本的推論。Inf1執行個體和GPU的執行個體相比,每次推論成本可以大幅降低70%。 去年底AWS re:Invent全球大會還推出了下一代自研推論晶片Inferentia2,以及基於此的Inf2執行個體,這是唯一一個專門為大型Transformer模型分散式推論建立的執行個體。與Inf1執行個體相比,它提供高達4倍的輸送量,降低多達10倍的延遲。與基於GPU的執行個體相比,每瓦效能提升高達45%,同時也支援諸如GPT類型的大型複雜模型,並且可以用單執行個體實現1750億參數模型的推論。 AWS日前也宣佈與AI技術公司Hugging Face進一步合作,以加速對大語言模型和視覺模型的訓練、微調和部署,使用者能更輕鬆優化效能並降低成本,從而更快地將生成式AI應用投入到生產環境。欲瞭解更多AWS生成式AI相關資訊,請至此連結。 助力產業先行者快速實踐業務可能性 設計和開發體驗管理軟體公司Qualtrics核心機器學習負責人Aaron Colak表示,「Qualtrics的重點是借助技術創新縮小體驗差距。為了實現這一目標,我們正在開發複雜的多工、多模態的深度學習模型,包括文本分類、序列標記、論述分析、關鍵短語擷取、主題擷取、聚類以及端到端對話理解等。隨著我們在更多應用程式中使用這些複雜的模型,以及非結構化資料量不斷增長,為了提供客戶最佳體驗,我們需要效能更高的推理優化解決方案,如Inf2執行個體來滿足我們的需求。我們很高興看到新一代Inf2執行個體的推出,它不僅讓我們實現更高的輸送量,同時也顯著降低延遲,而且還引入了分散式推理和支援增強的動態形狀輸入等功能。隨著我們部署更大、更複雜的模型,這都將能進一步滿足我們對任何部署的更高要求。」 ### 關於Amazon Web Services 自2006年來,Amazon Web Services一直在提供世界上服務最豐富、應用廣泛的雲端服務。AWS不斷擴展可支援幾乎任何雲端工作負載的服務,為客戶提供超過200種功能全面的雲端服務,包括運算、儲存、資料庫、聯網、分析、機器學習與人工智慧、物聯網、行動、安全、混合雲、虛擬和擴增實境(VR和AR)、媒體,以及應用開發、部署和管理等方面,遍及31個地理區域內的99個可用區域(Availability Zones),並已公佈計畫在加拿大、以色列、馬來西亞、紐西蘭和泰國建立5個AWS地理區域、15個可用區域。全球超過百萬客戶信任AWS,包含發展迅速的新創公司、大型企業和政府機構。AWS協助客戶強化自身基礎設施,提高營運上的彈性與應變能力,同時降低成本。欲瞭解更多AWS的相關資訊,請至:aws.amazon.com。
我們的 AI 圖像生成器允許任何人透過簡單描述他們尋找的內容來創建高質量的視覺效果。簡單易用、獨一無二,並在幾秒鐘內便可完成 紐約2023年1月26日 /美通社/ -- Shutterstock, Inc. (NYSE: SSTK) 為變革品牌及媒體公司提供全球領先的創意平台。該公司今天宣佈推出人工智能圖像生成平台。全球所有 Shutterstock 客戶可透過其網站提供的各種語言使用此平台。該文字轉圖像技術將提示轉換為神奇的、合乎道德的視覺效果,以便獲得許可。這是 Shutterstock 無所不能的工具包 Creative Flow 的新增功能,旨在實現最無縫的創意體驗。 Shutterstock 行政總裁 Paul Hennessy 表示:「 在過去的兩年裏,Shutterstock 已經與 OpenAI、Meta 和 LG AI Research 等主要行業參與者建立了戰略合作伙伴關係,以推動他們的生成式 AI 研究工作。我們現在能夠為自己的客戶提供可靠的生成式 AI 功能。我們易於使用的生成式平台將改變人們講述故事的方式。你不再需要成為設計專家,亦不再需要有創意團隊來創作出色的作品。我們的工具建立在道德方法和資產庫的基礎上。這些資產代表了我們生活的多樣化世界。我們確保為這些模型的開發做出貢獻的藝術家得到認可和獎勵。」 我們的人工智能圖像產生平台的獨到之處在於: 易用性和品質:透過讓所有人都能使用生成式人工智能,我們正在徹底改變為活動、項目和品牌創建視覺效果的方式。我們相信,我們的用戶不需要學習如何編寫冗長、複雜的提示就能從這項技術中受益。正因如此,我們的圖像生成器甚至可從一個單詞輸入或簡單的短語生成獨特、多樣、令人驚歎的圖像。憑藉直觀的風格及 20 多種語言的支援,我們使世界各地的人能夠將他們的創意願景帶到無拘無束的生活中。 便利:Shutterstock 是您的一站式商店,滿足您所有創意需求。您可在同一個地方搜尋素材、建立和發佈成功的設計及生成內容。如想更進一步,你可在 Create 中打磨你新生成的資產。這是我們易於使用的編輯工具,可以讓你自定義視覺效果。無需成為專業的設計師,便可將其插入到構成 Shutterstock Creative Flow 的其他應用程序中。這樣每次都會產生完美的內容,讓你在創意、設計和執行之間架起橋樑。每位 Shutterstock 客戶都已經可以透過其目前訂閱来存取這整套工具。 信心: 我們是第一個贊同負責任人工智能生成模式的公司。該模式為藝術家的貢獻付費,使我們成為您值得信賴的合作伙伴。您可以生成和授權需要的視覺效果,以提升您的品牌。此外,我們已經深思熟慮地構建了緩解措施,以解決某些數據集中可能固有的偏見。並且我們正在繼續探索公平描述代表性不足羣體的方法。 AI 圖像生成器以及我們準備將您的想法轉化為成就的其他功能可在 shutterstock.com 上找到。 前瞻性陳述 本新聞稿包含構成 1995 年《私人證券訴訟改革法案》所定義的前瞻性陳述。除歷史事實陳述外,所有陳述均為前瞻性陳述。前瞻性陳述的例子包括但不限於關於指導、行業前景、未來業務、未來經營業績或財務狀況、未來股息、我們完成收購並將我們已收購或可能收購的業務整合至我們現有業務的能力、新的或計劃的功能、產品或服務、管理策略、我們的競爭地位和 2019 冠狀病毒病疫情。您可以透過「可能」、「將會」、「就會」、「應該」、「可會」、「期望」、「目標」、「預測」、「相信」、「估計」、「打算」、「計劃」、「預言」、「預料」、「尋求」、「潛在」、「機會」等詞語和其他類似的表達方式,以及這些表達方式的否定形式來識別前瞻性陳述。然而,並非所有前瞻性陳述都包含這些詞語。前瞻性陳述受已知和未知風險、不確定性和其他因素影響,這些因素可能導致我們的實際結果與此處包含的前瞻性陳述明示或暗示的結果存在重大差異。此類風險和不確定性包括我們最近年度報告的 10-K 表格、截至 2022 年 6 月 30 日的季度報告 10-Q 表格,以及公司可能不時向證券交易委員會提交的其他文件中「風險因素」標題下討論的風險和不確定性。由於此類風險、不確定性和因素,Shutterstock 的實際結果可能與本文所含前瞻性陳述中討論或暗示的任何未來結果、業績或成就存在重大差異。本新聞稿中包含的前瞻性陳述僅在此日期作出,Shutterstock 不承擔更新本新聞稿中包含的資訊或修改任何前瞻性陳述的義務,無論是由於新資訊、未來發展或其他原因,除非法律要求。 關於 SHUTTERSTOCKShutterstock, Inc. (NYSE: SSTK) 是全球領先的創意平台,服務變革品牌和媒體公司。Shutterstock 直接或透過其集團子公司提供的綜合收藏,包括優質的授權相片、矢量圖、插圖、3D 模型、影片和音樂。Shutterstock 與其不斷壯大的社群合作,擁有超過 200 萬名貢獻者,每週添加數十萬張相片,目前可提供超過 4.24 億張相片和超過 2,700 萬部影片剪輯。 Shutterstock 總部位於紐約市,在全球設有辦事處,客戶遍及 150 多個國家/地區。公司還擁有世界領先娛樂新聞機構、全球新聞編輯室和媒體公司 Splash News、全球最大的視影片優先內容市場 Pond5、世界上最大的 3D 內容市場 TurboSquid、領先的網上圖形設計和圖像編輯平台 PicMonkey、高端圖片集 Offset、端到端的定制創意商店 Shutterstock Studios、精選的免版稅音樂庫 PremiumBeat、為全球媒體提供社論圖片和影片的重要來源 Shutterstock Editorial 和一種以價值為導向的儲備媒體產品 Bigstock。 如欲了解更多資訊,請瀏覽 www.shutterstock.com 及在 Twitter、Facebook 上關注 Shutterstock。
A12 藝術空間
生成式 AI
請先登入後才能發佈新聞。
還不是會員嗎?立即 加入台灣產經新聞網會員 ,使用免費新聞發佈服務。 (服務項目) (投稿規範)