關於 cookie 的說明

本網站使用瀏覽器紀錄 (Cookies) 來提供您最好的使用體驗,我們使用的 Cookie 也包括了第三方 Cookie。相關資訊請訪問我們的隱私權與 Cookie 政策。如果您選擇繼續瀏覽或關閉這個提示,便表示您已接受我們的網站使用條款。

搜尋結果Search Result

符合「機器學習」新聞搜尋結果, 共 992 篇 ,以下為 961 - 984 篇 訂閱此列表,掌握最新動態
WEKA 獲評 2023 年 Gartner® Peer Insights™ 分佈式文件系統和對象儲存領域的客戶之選

加利福尼亞州坎貝爾市2023年4月17日 /美通社/ -- 高性能密集型工作負載數據平台提供商 WekaIO (WEKA) 今日宣佈其在 Gartner《2023 年® Peer Insights™客戶之聲:分佈式文件系統和對象儲存》報告中獲評客戶之選。 WekaIO 「基於客戶的誠實評價,WEKA 很榮幸獲評 2023 年 Gartner Peer Insights 分佈式文件系統和對象儲存領域的客戶之選。我們非常感謝客戶抽出寶貴間分享反饋和體驗,」WEKA 的聯合創始人兼執行總裁 Liran Zvibel 表示。「我們對客戶非常積極的反饋感到自豪,我們相信,這證實了 WEKA 在履行自己的使命時做得不錯,但我們同時也要保持謙虛,繼續提供出色的產品和支援體驗,讓客戶滿意。」 Gartner 將分佈式文件系統和對象儲存市場定義為提供對象和/或橫向擴展分佈式文件系統技術的軟件和硬件裝置產品,用以滿足對非結構化數據增長的要求。WEKA 獲評 Gartner Peer Insights 客戶之選,該獎項基於 WEKA 成熟客戶的反饋和評級,這些客戶具有使用 WekaFS(構建 WEKA® 數據平台的核心分佈式文件系統技術)的經驗。 WEKA 數據平台專為處理大規模非結構化數據集和增強性能密集型工作負載而構建。平台將停滯的數據孤島轉變為動態數據管道,助力解決複雜的數據挑戰,無論是在本地、雲端、邊緣還是在混合和多雲環境中運行,都能提供 10-100 倍的性能提升。 在截止於 2023 年 1 月 31 日的 18 個月評估期內,WEKA 平台經歷了 50 次評估,99% 的評估者表示願意推薦。WEKA 獲得五星級整體客戶體驗評級和五星級支援體驗類別評級。 「WEKA 具有變革性,可將資產中的大量文件和對象整合到一個高性能平台上。元數據效能非常出色,尤其是在文件創建方面,可以在需要時快速攝取大量較小的文件。」 - 政府基礎設施服務團隊負責人 《2023 年 Gartner Peer Insights 客戶之聲:分佈式文件系統和對象儲存》報告的免費副本可從 WEKA 網站獲取(需註冊):https://www.weka.io/lp/weka-named-a-2023-customers-choice-by-gartner-peer-insights/ 如要閱讀有關 WEKA 平台的其他客戶反饋,請造訪 WEKA 在 Gartner Peer Insights 上的資料:https://www.gartner.com/reviews/market/distributed-file-systems-and-object-storage/vendor/weka/product/wekafs   GARTNER 是 Gartner, Inc. 及/或其附屬公司在美國和國際的註冊商標和服務標誌,PEER INSIGHTS 是 Gartner, Inc. 及/或其附屬公司的註冊商標,經許可在此處使用。保留一切權利。  Gartner Peer Insights 內容包含個人終端使用者基於自己使用平台所列供應商的體驗所發表的意見,不應理解為事實陳述,亦不代表 Gartner 或其附屬公司的觀點。Gartner 不對本內容中描述的任何供應商、產品或服務進行背書,亦不就本內容的準確性或完整性做出任何明示或暗示保證,包括適銷性或特定用途適用性的任何保證。  關於WEKA  WEKA 引領數據儲存、管理和處理方式的模式轉變。我們幫助企業將其傳統的、停滯的數據孤島轉變為動態數據管道,以持續無縫的方式輸送給人工智能、機器學習和高性能運算等下一代應用負載。WEKA® Data Platform 是一種軟件定義的解決方案,專為混合雲端運用和人工智能時代而構建。其先進的雲端原生架構經過優化,可解決複雜的數據應用難題,無論是運行於本地、雲端、邊緣,還是混合及多雲端環境,都能提供 10-100 倍的性能提升。WEKA 正在推動研究和探索突破,並協助全球頂尖企業加速業務成長,其中有八家都在《財富》50 強企業之列。公司業務版圖遍及世界各地 20 多個國家,有數十家世界級投資者入資。如欲了解更多資訊,請瀏覽 www.weka.io,或在 Twitter、 LinkedIn、以及 Facebook上關注我們。 WEKA 及 WEKA 標誌乃 WekaIO, Inc. 的註冊商標。此處使用的其他商業名稱可能為其他商標擁有著所擁有。   

文章來源 : PR Newswire 美通社 發表時間 : 瀏覽次數 : 1977 加入收藏 :
創鑫智慧雲端用人工智慧推論晶片在 AI 世界評測贏得最佳能效比領導地位

今年四月初由眾多人工智慧業界一流廠商參與的 MLPerfTM v3.0 AI 推論 (Inference) 效能基準測試中,AI ASIC 平台領導廠商創鑫智慧 (NEUCHIPS) 公布其世界第一個專為資料中心推薦模型 (Recommendation Model) 設計的 AI 加速器 RecAccelTM N3000的測試數據,在伺服器領域的能源效率 (Energy efficiency) 上領先AI大廠輝達 (NVIDIA),成為世界第一能效的AI加速平台,讓需要高運算力的資料中心 (Data Center) 與雲端服務供應商 (CSP) 以最低的總擁有成本 (TCO) 實現企業永續 (ESG) 發展目標。 MLPerfTM v3.0 AI 推論測試是由致力提升機器學習技術和應用的開放工程聯盟 MLCommons® 所進行。創鑫智慧此次採用技鋼 G482-Z54 伺服器搭載 AMD EPYC 7452 32 核 CPU及 8 張 RecAccelTM N3000 32G PCIe 加速卡執行 DLRM測試。 根據MLCommons公布的測試數據,在資料中心推薦系統領域,RecAccelTM N3000 系統除了展現其100%的效能擴充性 (Performance Scalability) 之外,在每瓦可處理1,060次查詢 (Queries) 的評策上,能效為對手NVIDIA H100的1.7倍,高居榜首。未來計畫推出的RecAccelTM Quad N3000 PCIe 卡更能提供高達 2.2倍的卓越效能。RecAccelTM N3000優異的效能和TCO特性,滿足了資料中心與雲端服務業者對於AI應用的需求並符合ESG發展趨勢。 近年來,COVID-19 疫情的影響大幅改變了多數人的生活習慣和消費模式,進而引爆行銷科技 (MarTech) 的興起。如何提升行銷效率及藉由AI模型運算提供即時、個人化的精準數據,設計更佳的消費者使用體驗,已成為各大線上、線下業者所面臨的最大挑戰。此外,電商平台、社群媒體、影音傳媒、交友軟體和搜尋引擎的蓬勃發展,也加速了全球對推薦系統的需求,其市場每年以大約 30% 左右的複合年增長率 (CAGR) 快速成長,吸引全球各大廠商與新創公司參與競逐。 「為實現量大、精準、即時且節能的人工智慧運算,我們必須找到更可持續和環境友好的解決方案,這不僅僅是一個商業挑戰,更是對社會責任和綠色發展的追求,」創鑫智慧創辦人暨董事長林永隆博士表示。「我們以具體行動證明我們對永續發展的承諾,除了在 MLPerfTM 測試中取得最佳表現,我們還將推出專為開放運算計畫 (OCP) 設計的 DM.2 模組,繼續引領產業發展,提供更多協助雲端服務供應商與資料中心節省成本的平台方案,並助力 AI 技術的繁榮與成長。」 AMD策略業務發展全球副總裁Kumaran Siva則表示:「AMD提供高效能運算產品,幫助智慧系統有效管理複雜的資料集。我們非常高興能與創鑫智慧合作,藉由AMD EPYC處理器為MLPerfTM v3.0中的DLRM推理實現領先的效能及能耗。我們期待持續與創鑫智慧協同發展與創新,為市場提供不斷引領先進技術的人工智慧解決方案。」 關於MLPerfTM v3.0 AI 推論測試 MLPerfTM v3.0 AI 推論測試是由致力提升機器學習技術和應用的開放工程聯盟 MLCommons® 所進行,參與此測試的成員包括輝達   (NVIDIA)、英特爾 (INTEL)、高通 (Qualcomm) 、微軟雲端運算服務 (AZURE)、戴爾 (DELL)、技鋼 (GIGA Computing)、慧與科技 (HPE) 等領導廠商。 關於創鑫智慧 (NEUCHIPS Corporation) 創鑫智慧是由資深IC及軟體設計專家團隊創立於2019年,為AI ASIC解決方案的領導廠商。其管理和研發團隊在領先的半導體公司擁有數十年經驗,在訊號處理、神經網路和電路設計方面擁有多項專利。NEUCHIPS是MLCommons的創始會員,也是OCP Community 的一員。創鑫智慧的使命是從特定領域 (Domain Specific) 及應用 (Application) 開發專用的 AI 解決方案,提供最具成本效益的深度學習推論 (Deep Learning Inference) 加速器,為資料中心提供最低的總體擁有成本 (TCO) 的解決方案。創鑫智慧台灣總部坐落於新竹科學園區,鄰近頂尖學術研究機構及先進技術的產業鏈緊密相連,為員工提供了一個充滿挑戰和發展機會的完善環境。如需更多資訊,請至https://www.neuchips.ai/zh-Hant。

文章來源 : 正平整合行銷股份有限公司 發表時間 : 瀏覽次數 : 13369 加入收藏 :
AWS宣布推出生成式AI新工具

香港 - Media OutReach - 2023年4月14日 - 採用機器學習新範式協助業務發展已經存在了幾十年。隨著足夠的可擴充運算力的到位、海量數據的爆炸,以及機器學習技術的快速進步,各行各業的客戶開始對業務進行重塑。最近,像ChatGPT這樣的生成式AI應用引起了廣泛的關注,引發了諸多想像。我們正處在一個機器學習被大規模採用的令人興奮的轉捩點上,Amazon Web Services(AWS)相信生成式AI將會重塑大量客戶體驗和應用程式。 二十多年來,人工智能和機器學習一直是亞馬遜關注的焦點。亞馬遜提供客戶的許多功能都是由機器學習驅動的,例如我們的電商推薦引擎、營運中心撿貨機器人的路徑選擇,以及我們的供應鏈、預測和產能規劃。Prime Air(亞馬遜無人機)和Amazon Go(亞馬遜實體無人零售實體店,消費者可以自選商品後直接離開,無需現場排隊結帳付款)中的電腦視覺技術都使用了深度學習。Alexa每週回應客戶數十億次關於管理智能家居、購物、資料取得和娛樂的請求,這也得益於來自 30 多種不同的機器學習系統的支援。亞馬遜有數千名工程師專注於機器學習研究,這既是亞馬遜 的寶貴資產,也是亞馬遜現在最關注的理念,和面向未來的實力之所在。 AWS致力於不斷降低機器學習的使用門檻,已經幫助超過十萬家來自各行各業的不同規模的客戶使用機器學習進行創新。AWS 在人工智能和機器學習堆疊的三個層級都擁有至深至廣的產品組合。長期以來,AWS 不斷投入、持續創新,為機器學習提供高效能、可擴充的基礎設施,和極具性價比的器學習訓練和推論;AWS 研發了Amazon SageMaker,所有開發人員能更便利地建構、訓練和部署模型;AWS 還推出了大量服務,使客戶透過簡單的API調用就可添加AI功能到應用程式中,如圖像識別、預測和智能搜尋。得益於此,Intuit、湯森路透、AZ(AstraZeneca)、法拉利、德甲聯賽、3M和BMW等客戶,以及全球數千家新創企業和政府機構正在透過機器學習進行數碼轉型,帶動產業升級,重新定義機器學習的使命。AWS 同樣致力於推動生成式AI技術的普及:AWS 將這些技術從研究和實驗領域釋放出來,不只是少數新創和資金雄厚的大型科技公司,而是讓更多企業都能從中受益。因此,AWS 宣布數項創新,幫助客戶更簡單、更容易地在業務中使用生成式AI。 生成式AI和基礎模型 生成式AI是人工智能的一種,能夠創造新內容和想法,包括對話、故事、圖像、影片和音樂。與所有人工智能技術一樣,生成式AI的能力由機器學習模型提供。這些模型是基於大量數據進行預先訓練的大模型,通常被稱為基礎模型(Foundation Models)。機器學習的最新進展(特別是基於Transformer的神經網絡架構的發明)直接帶來一種模型的爆發式增長,這種模型通常包含數十億個參數或變數。這是怎樣一個數量變化呢?2019年最大的預訓練模型是3.3億個參數。現在,最大的模型包含的參數超過5千億個,相當於幾年間增加了1,600倍。如今的基礎模型,例如大型語言模型GPT3.5或BLOOM,以及由Stability AI開發的文生圖模型Stable Diffusion,可以執行跨多個領域的多種任務,例如撰寫博客文章、生成圖像、解決數學問題、對話聊天、基於文檔回答問題等。基礎模型的規模和通用場景的性質使其不同於傳統的機器學習模型,後者通常僅執行特定的任務,例如分析文本觀點、分類圖像和預測趨勢等。 基礎模型包含大量參數,能夠學習複雜的概念,因此可以執行更多任務。透過基於互聯網規模的、各種形式和模式的海量資料進行預先訓練,基礎模型學會在各種語境中應用所習得的知識。儘管預訓練基礎模型所帶來的功能和可能性已足夠令人驚歎,而真正讓客戶為此興奮不已的是,這些通用模型也可以被客製化加工,執行專屬於其業務領域的特定功能,幫助業務建立差異化競爭優勢,與從零開始訓練模型相比,僅需使用一小部分資料和運算資源。客製化的基礎模型可以帶來獨特的顧客體驗,體現公司的觀點、風格和服務,適用於眾多消費者產業,如金融銀行、旅遊和醫療等。例如,一家金融公司如果需要將所有相關交易自動生成每日報告以供內部流通,它可以使用包括既往報告在內的專有資料來客製化模型,以便基礎模型了解如何閱讀報告和使用哪些資料來生成日報。 基礎模型擁有巨大的潛力,但我們仍處在初級階段。ChatGPT率先吸引了客戶對生成式AI的關注。對生成式AI展開研究的人很快意識到,多家公司已經在基礎模型上耕耘多年,可用的基礎模型也有很多,且各有各的優勢和特點。在過去的數年間,我們都經歷了技術的快速發展,機器學習的演進也是日新月異。AWS期待未來會湧現全新的體系和架構,而基礎模型的多樣化會推動新一波的創新浪潮。此前所未聞的新應用體驗在今天已經成為現實。很多客戶都在詢問我們,如何快速利用現今以及未來可能出現的技術,如何快速使用基礎模型和生成式AI立刻為公司業務大幅提升生產效率和變革產品與服務。 推出Amazon Bedrock和Amazon Titan模型:借助基礎模型建構和擴充生成式AI應用程式的最簡單途徑 客戶提出了他們主要的需求。首先,他們需要能直接找到並接駁高性能基礎模型,這些模型需要能夠給出既匹配業務場景又優秀得回饋結果。其次,客戶希望無縫與應用程式整合,且無需管理大量基礎設施,也不會增加過高的成本。最後,客戶希望能夠輕鬆上手,基於基礎模型,利用自己的數據(可多可少)建構差異化的應用程式。由於客戶進行客製化的數據是非常有價值的 IP,因此需要在處理過程中確保數據安全和私隱保護。同時,客戶還希望能控制數據的分享和使用。 聽取了客戶的意見,AWS 很高興宣布推出Amazon Bedrock。這項新服務允許使用者透過API存取來自AI21 Labs、Anthropic、Stability AI和亞馬遜的基礎模型。Bedrock是客戶使用基礎模型建構和擴充生成式AI應用程式的最簡單方法,為所有開發者降低使用門檻。在Bedrock上,用戶可以透過可擴充、可靠且安全的AWS託管服務,存取從文本到圖像的一系列強大的基礎模型,以及AWS 此次發布的Amazon Titan基礎模型。Amazon Titan基礎模型目前包括了兩個全新的大語言模型。憑藉Bedrock所帶來的無伺服器體驗,客戶可以輕鬆找到適合自身業務的模型,快速上手,在確保資料安全和私隱保護的前提下,使用自有資料基於基礎模型進行客製化,並使用他們已經熟悉的AWS工具和能力,將客製化模型整合並部署到他們的應用程式中,同時無需管理任何基礎設施。比如,客戶可以將基礎模型與Amazon SageMaker機器學習功能整合,使用Amazon SageMaker Experiments測試不同模型和使用Pipelines大規模管理基礎模型等。 客戶也可使用Bedrock存取一些目前最領先的可用基礎模型。這將包括AI21 Labs開發的Jurassic-2多語種大語言模型系列,能夠根據自然語言指令生成文本內容,目前支援西班牙語、法語、德語、葡萄牙語、義大利語和荷蘭語。還有Anthropic開發的大語言模型Claude,它是基於Anthropic對於訓練誠實和負責任的AI(responsible AI)系統的大量研究,能夠執行多種對話和文本處理任務。客戶還可以透過Bedrock輕鬆存取Stability AI開發的文生圖基礎模型Stable Diffusion,這是文生圖領域目前最流行的模型,能夠生成獨特、寫實、高品質的圖像、藝術作品、商標和其它設計圖。 Bedrock最重要的能力之一是極其容易客製化模型。客戶只需向Bedrock展示Amazon S3中的幾個標註好的資料範例,Bedrock就可以針對特定任務微調模型,最少僅需20個範例即可,且無需標註大量資料。假設一位時裝零售產業的內容營銷經理,想為即將推出的手提包新品系列開發新穎且使用者導向的廣告創意。他向Bedrock提供了一些表現最佳的過往營銷廣告示例,以及新品的相關描述,Bedrock將能自動為這些新品生成有效的社交媒體內容、展示廣告和產品網頁。沒有任何客戶資料被用於訓練底層模型,所有資料都進行了加密,且不會離開客戶的虛擬私有雲(Virtual Private Cloud,VPC),確保客戶的資料安全和私隱保護。 Bedrock目前提供有限預覽,Coda.IO等客戶的開發團隊對使用Bedrock充滿期待。Coda.IO的聯合創始人兼CEO Shishir Mehrotra表示:「作為AWS的長期客戶,我們對Amazon Bedrock帶來的高品質、可擴充性和效能充滿期待。我們所有的數據已經儲存在AWS上,我們能夠利用Bedrock快速採用生成式AI,並能充分保證我們數據的安全和私隱。目前,包括Uber、紐約時報、Square在內的成千上萬個團隊都在採用Coda,因此,可靠性與可擴充性十分重要。」 一些客戶已經預覽了亞馬遜全新的Titan基礎模型,在未來幾個月內,AWS 會進一步擴充其可用範圍。AWS將首先發布兩個Titan模型。第一個是針對總結、文本生成(如原創博客文章)、分類、開放式問答和資訊擷取等任務的生成式大語言模型。第二個是文本嵌入(embeddings)大語言模型,能夠將文本輸入(字詞、短語甚至是大篇幅文章)翻譯成包含語義的數值表示(即embeddings 嵌入編碼)。雖然這種大語言模型不生成文本,但對個性化推薦和搜尋等應用程式卻大有裨益,因為相對於匹配文字,對比編碼可以幫助模型產生更相關、更符合情境的結果。實際上,Amazon.com的產品搜尋能力就是採用了類似的文本嵌入模型,能夠幫助客戶更好地查找所需的商品。為了持續推動負責任使用AI的最佳實踐,Titan基礎模型可以識別和刪除客戶提交給客製模型之資料中的有害內容,拒絕使用者輸入不當內容,也過濾模型輸出結果中的不當內容,如仇恨言論、髒話和語言暴力。 任何規模的企業都可以透過Bedrock存取基礎模型,加速機器學習在組織內部的應用,並憑藉其輕鬆上手的特性,建構自己的生成式AI應用程式。AWS 相信,Bedrock將是基礎模型普及化過程中的一大步。埃森哲、德勤、Infosys和Slalom等合作夥伴都在建構最佳實踐,幫助企業借助生成式AI實現快速發展。C3AI和Pega等獨立軟體發展商(ISV)對於利用Bedrock輕鬆存取大量基礎模型,兼具安全性、私隱性和可靠性充滿期待。 宣布Amazon EC2 Trn1n和Amazon EC2 Inf2執行個體正式可用:最具成本效益的生成式AI雲端基礎設施 無論執行、建構還是客製化基礎模型,客戶都需要高效能、低成本且為機器學習專門建構的基礎設施。過去五年,AWS持續加大投入自研晶片,不斷突破效能和價格的極限,以支持對此有極高要求的機器學習訓練與推論等工作負載。AWS Trainium和Inferentia晶片可以提供在雲上訓練模型和執行推論的最低成本。正是因為AWS 在成本和效能方面的優勢,像 AI21 Labs、Anthropic、Cohere、Grammarly、Hugging Face、Runway、Stability AI 等領先的AI新創公司都選擇執行在AWS上。 由Trainium支援的Trn1執行個體與其他任何EC2執行個體相比,都可以節省高達50%的訓練成本,並經過優化,可以在與高達800Gbps的第二代EFA(彈性結構適配器)網絡相連的多個伺服器上分發訓練任務。客戶可以在超大規模叢集(UltraClusters)中部署Trn1執行個體,數量可以擴充到在同一可用區中3萬個Trainium晶片,相當於超過6 exaflops的運算能力,並具有PB級網絡。許多AWS客戶,包括Helixon、Money Forward和亞馬遜的搜尋團隊,都使用Trn1執行個體將訓練最大規模的深度學習模型所需的時間從幾個月縮短到幾周甚至幾天,並且降低了成本。800 Gbps的頻寬已經很大,但AWS 仍不斷創新、擴充頻寬。AWS 宣布全新的、網絡優化型Trn1n執行個體正式可用,它可以提供1600 Gbps的網絡頻寬,專為大型網絡密集型模型設計,其效能比Trn1高出20%。 現今基礎模型花費的時間和金錢主要用於訓練,這是因為許多客戶才剛剛開始將基礎模型部署到生產中。但是,未來,當基礎模型進入大規模部署時,大部分成本將用於執行模型和進行推論。客戶通常會定期訓練模型,於是生產應用程式會不斷生成預測(稱為推論)——每小時可能生成數百萬預測。而且這些預測需要即時發生,這就需要極低延遲和高輸送量的網絡。Alexa就是一個典型的例子,它每分鐘都會接受數百萬次請求,處理這些請求佔所有運算成本的40%。 AWS 相信,未來大部分機器學習成本將來自推論的執行。因而,幾年之前,當AWS 開始研發新型晶片時,就已經將推論優化型晶片置於首位。2018年,AWS 發布了首款推論專用晶片Inferentia。每年,亞馬遜都運用Inferentia執行數萬億次推論,並節省數億美元成本。這是十分顯著的成果,然而AWS認為繼續創新的空間依然很大,因為隨著越來越多的客戶將生成AI整合到他們的應用程式中,工作負載的規模和複雜性只會越來越大。 因此,AWS 宣布由AWS Inferentia2提供支援的Inf2執行個體正式可用,這些執行個體專門針對執行數千億個參數模型的大規模生成式AI應用程式進行了優化。與上一代相比,Inf2執行個體不僅輸送量提高了4倍,延遲降低了10倍,還可實現加速器之間的超高速連接以支持大規模分散式推論。與同類Amazon EC2執行個體相比,這些能力將推論性價比提高了40%,並把雲中的推論成本降到最低。與同類Amazon EC2執行個體相比,Runway等客戶有望利用Inf2將部分模型的輸送量提升至原來的兩倍。受益於高效能和低成本的推論,Runway能夠引入更多功能,部署更複雜的模型,並最終為自己的數百萬用戶提供更優質的體驗。 宣布CodeWhisperer正式可用,並針對個人開發者免費開放 對客戶而言,利用正確的基礎模型進行建構,並在最佳效能的雲端基礎設施上大規模執行生成式AI應用程式,將帶來顛覆性變革。同時,這也將帶來革命性的全新用戶體驗。當應用程式或系統具備內建的生成式AI能力時,用戶可以獲得更自然、更流暢的交互體驗。這就如同現今手機的人臉識別解鎖功能,我們無需了解這一功能背後強大的機器學習模型,卻可以做到看一眼手機就解鎖了。 程式設計將是生成式AI技術可快速應用的領域之一。現今,軟件開發者需要花費大量時間編寫相當淺顯和無差別的程式碼。他們還需要花費不少時間學習複雜的新工具和技術,而這些工具和技術總在不斷演進。因此,開發者真正用於開發創新的功能與服務的時間少之又少。為應對這一難題,開發者會嘗試從網上複製程式碼片段再進行修改,但可能無意中就複製了無效程式碼、有安全隱患的程式碼、或對開源軟件的使用沒有進行有效的追溯。而且這種搜尋和複製的方式也浪費了開發者用於創新的時間。 生成式 AI 可以透過「編寫」大部分無差別的程式碼來大大減少這種繁重的工作,讓開發人員能夠更快地編寫程式碼,同時讓他們有時間專注在更具創造性的程式設計工作上。 因此,AWS 去年宣布推出了 Amazon CodeWhisperer 預覽版,這是一款 AI 程式設計助手,透過內嵌的基礎模型,可以根據開發者用自然語言描述的注釋和整合式開發環境(IDE)中的既有程式碼即時生成程式碼建議,從而提升開發者的生產效率。開發人員只需要向 CodeWhisperer 提出任務命令,例如「解析一個含有歌曲資訊的 CSV 字串」,並要求它回傳一個基於藝術家、標題和排行榜最高排名等資料的結構化清單,CodeWhisperer 就可以解析字串並回傳指定的清單,從而大幅提升工作效率。CodeWhisperer 預覽版發布後得到了開發者們的熱烈回應。AWS 始終相信,幫助開發人員編寫程式碼可能成為未來幾年生成式 AI 得以發揮巨大效力的應用場景之一。 在預覽期間,AWS 還進行了一項生產力測試,與未使用 CodeWhisperer 的參與者相比,使用 CodeWhisperer 的參與者完成任務的速度平均快57%,成功率高 27%。這是開發人員生產力的巨大飛躍,而我們相信這才僅僅是個開始。 Amazon CodeWhisperer正式可用,在適用 Python、Java、JavaScript、TypeScript 和 C#之外,新增支持Go、Kotlin、Rust、PHP 和 SQL等10 種開發語言。開發者可以透過在VS Code、IntelliJ IDEA、AWS Cloud9等整合式開發環境中的AWS Toolkit IDE外掛程式使用 CodeWhisperer。 CodeWhisperer 也可在AWS Lambda控制台中使用。除了從數十億行公開程式碼中學習之外,CodeWhisperer 也基於亞馬遜的程式碼進行了訓練。 AWS 相信 CodeWhisperer 是目前為AWS(包括 Amazon EC2、AWS Lambda和Amazon S3)生成程式碼的最準確、最快和最安全的方式。 如果生成式 AI 工具建議的程式碼包含隱藏的安全性漏洞或未能負責任地處理開原始程式碼,開發人員則無法真正提高工作效率。CodeWhisperer是唯一具有內建安全掃描功能(透過自動推論實現)的 AI 程式設計助手,用於查找難以檢測的漏洞並提出補救建議,例如十大開放式Web應用程式安全專案(OWASP)中的漏洞,以及不符合加密庫最佳實踐的漏洞等。為了幫助開發人員以負責任的方式開發程式碼,CodeWhisperer會過濾掉可能被認為有偏見或不公平的程式碼建議,同時,由於客戶可能需要參考開源程式碼或獲得其使用許可,CodeWhisperer 是唯一可以過濾和標記類似開源始程式碼之生成結果的程式設計助手。 AWS 相信生成式AI將改變開發者的遊戲規則,因此希望它能盡可能被更多人所用。 所以,CodeWhisperer將開放所有個人用戶免費使用,並不設任何次數或使用時間的限制!任何人都可以透過email帳戶在幾分鐘內註冊 CodeWhisperer進行使用,而無需具備AWS帳號。對於企業客戶,AWS 則提供了CodeWhisperer 專業版,其中包括更多高級管理功能,如整合了AWS Identity and Access Management(IAM)身份與存取管理服務的單點登入(single sign-on,SSO),以及使用更高程度的安全掃描。 建構像 CodeWhisperer 這樣強大的應用程式,對開發人員和AWS 所有的客戶來說,都帶來巨大的變革性。AWS 還有更多創新的產品在規劃中,也期待更多的客戶和開發者在AWS上建構更加創新和顛覆性的生成式AI應用。AWS 的使命是,讓各種技能水準的開發人員和各種規模的組織都有機會使用生成式AI進行創新。AWS 相信,新一波機器學習技術創新才剛剛開始、方興未艾,未來還有無限可能。 Hashtag: #AWS發佈者對本公告的內容承擔全部責任關於Amazon Web Services自2006年來,Amazon Web Services一直在提供世界上服務最豐富、應用廣泛的雲端服務。AWS為客戶提供超過200種功能全面的雲端服務,包括運算、儲存、數據庫、網絡、分析、機器學習與人工智能、物聯網、流動、安全、混合雲、虛擬和擴增實境(VR 和AR)、媒體,以及應用開發、部署和管理等方面,遍及31個地理區域內的99個可用區域(Availability Zones),並已公佈計畫在加拿大、以色列、馬來西亞、紐西蘭和泰國建立5個AWS地理區域、15個可用區域。AWS的服務獲得全球超過百萬客戶的信任,包括發展迅速的初創公司、大型企業和政府機構。通過AWS的服務,客戶能夠有效強化自身基礎設施,提高營運上的彈性與應變能力,同時降低成本。欲了解更多有關AWS的資訊,請瀏覽:https://aws.amazon.com。

文章來源 : Media OutReach Limited 發表時間 : 瀏覽次數 : 9025 加入收藏 :
AWS宣布推出生成式AI新工具

【台北訊,2023年4月13日】採用機器學習典範轉移協助業務發展已經存在了幾十年。隨著足夠的可擴充運算力的到位、海量資料的爆炸,以及機器學習技術的快速進步,各行各業的客戶開始對業務進行重塑。最近,像ChatGPT這樣的生成式AI應用引起了廣泛的關注,引發了諸多想像。我們正處在一個機器學習被大規模採用的令人興奮的轉捩點上,我們也相信生成式AI將會重塑大量客戶體驗和應用程式。   二十多年來,人工智慧和機器學習一直是亞馬遜關注的焦點。亞馬遜提供客戶的許多功能都是由機器學習驅動的,例如我們的電商推薦引擎、營運中心撿貨機器人的路徑選擇,以及我們的供應鏈、預測和產能規劃。Prime Air(亞馬遜無人機)和Amazon Go(亞馬遜實體無人零售實體店,消費者可以自選商品後直接離開,無需現場排隊結帳付款)中的電腦視覺技術都使用了深度學習。Alexa每週回應客戶數十億次關於管理智慧家居、購物、資訊取得和娛樂的請求,這也得益於來自 30 多種不同的機器學習系統的支援。亞馬遜有數千名工程師專注於機器學習研究,這既是我們的寶貴資產,也是我們現在最關注的理念,和面向未來的實力之所在。   在AWS,我們致力於不斷降低機器學習的使用門檻。我們已經幫助超過十萬家來自各行各業的不同規模的客戶使用機器學習進行創新。我們在人工智慧和機器學習堆疊的三個層級都擁有至深至廣的產品組合。長期以來,我們不斷投入、持續創新,為機器學習提供高效能、可擴充的基礎設施,和極具性價比的機器學習訓練和推論;我們研發了Amazon SageMaker,所有開發人員能更便利地建構、訓練和部署模型;我們還推出了大量服務,使客戶透過簡單的API調用就可添加AI功能到應用程式中,如圖像識別、預測和智慧搜尋。得益於此,Intuit、湯森路透、AZ(AstraZeneca)、法拉利、德甲聯賽、3M和BMW等客戶,以及全球數千家新創企業和政府機構正在透過機器學習進行數位轉型,帶動產業升級,重新定義機器學習的使命。我們同樣致力於推動生成式AI技術的普及:我們將這些技術從研究和實驗領域釋放出來,不只是少數新創和資金雄厚的大型科技公司,而是讓更多企業都能從中受益。因此,我今天非常興奮宣布數項創新,幫助我們的客戶更簡單、更容易地在業務中使用生成式AI。   生成式AI和基礎模型 生成式AI是人工智慧的一種,能夠創造新內容和想法,包括對話、故事、圖像、影片和音樂。與所有人工智慧技術一樣,生成式AI的能力由機器學習模型提供。這些模型是基於大量資料進行預先訓練的大模型,通常被稱為基礎模型(Foundation Models)。機器學習的最新進展(特別是基於transformer的神經網路架構的發明)直接帶來這一種模型的爆發式增長,這種模型通常包含數十億個參數或變數。2019年最大的預訓練模型是3.3億個參數。現在,最大的模型包含的參數超過5千億個,相當於幾年間增加了1600倍。如今的基礎模型,例如大型語言模型GPT3.5或BLOOM,以及由Stability AI開發的文生圖模型Stable Diffusion,可以執行跨多個領域的多種任務,例如撰寫部落格文章、生成圖像、解決數學問題、對話聊天、基於文檔回答問題等。基礎模型的規模和通用場景的性質使其不同於傳統的機器學習模型,後者通常僅執行特定的任務,例如分析文本觀點、分類圖像和預測趨勢等。   基礎模型包含大量參數,能夠學習複雜的概念,因此可以執行更多任務。透過基於互聯網規模的、各種形式和模式的海量資料進行預先訓練,基礎模型學會在各種語境中應用所習得的知識。儘管預訓練基礎模型所帶來的功能和可能性已足夠令人驚歎,而真正讓客戶為此興奮不已的是,這些通用模型也可以被客製化加工,執行專屬於其業務領域的特定功能,幫助業務建立差異化競爭優勢,與從零開始訓練模型相比,僅需使用一小部分資料和運算資源。客製化的基礎模型可以帶來獨特的顧客體驗,體現公司的觀點、風格和服務,適用於眾多消費者產業,如金融銀行、旅行和醫療等。例如,一家金融公司如果需要將所有相關交易自動生成每日報告以供內部流通,它可以使用包括既往報告在內的專有資料來客製化模型,以便基礎模型瞭解如何閱讀報告和使用哪些資料來生成日報。   基礎模型擁有巨大的潛力,但我們仍處在初級階段。ChatGPT率先吸引了客戶對生成式AI的關注。對生成式AI展開研究的人很快意識到,多家公司已經在基礎模型上耕耘多年,可用的基礎模型也有很多,且各有各的優勢和特點。在過去的數年間,我們都經歷了技術的快速發展,機器學習的演進也是日新月異。我們期待未來會湧現全新的體系和架構,而基礎模型的多樣化會推動新一波的創新浪潮。此前所未聞的新應用體驗在今天已經成為現實。很多客戶都在詢問我們,如何快速利用現今以及未來可能出現的技術,如何快速使用基礎模型和生成式AI立刻為公司業務大幅提升生產效率和變革產品與服務。   推出Amazon Bedrock和Amazon Titan模型:借助基礎模型建構和擴充生成式AI應用程式的最簡單途徑 客戶對我們提出了他們主要的需求。首先,他們需要能直接找到並存取高效能基礎模型,這些模型需要能夠給出最匹配業務場景的優秀回饋結果。其次,客戶希望無縫與應用程式整合,且無需管理大量基礎設施叢集,也不會增加過高的成本。最後,客戶希望能夠輕鬆上手,基於基礎模型,利用自己的資料(可多可少)建構差異化的應用程式。由於客戶進行客製化的資料是非常有價值的 IP,因此需要在處理過程中確保資料安全和隱私保護。同時,客戶還希望能控制資料的分享和使用。   聽取了客戶的意見,今天我們很高興宣布推出Amazon Bedrock。這項新服務允許使用者透過API存取來自AI21 Labs、Anthropic、Stability AI和亞馬遜的基礎模型。Bedrock是客戶使用基礎模型建構和擴充生成式AI應用程式的最簡單方法,為所有開發者降低使用門檻。在Bedrock上,用戶可以透過可擴充、可靠且安全的AWS託管服務,存取從文本到圖像的一系列強大的基礎模型,以及我們今天發布的Amazon Titan基礎模型。Amazon Titan基礎模型目前包括了兩個全新的大語言模型。憑藉Bedrock所帶來的無伺服器體驗,客戶可以輕鬆找到適合自身業務的模型,快速上手,在確保資料安全和隱私保護的前提下,使用自有資料基於基礎模型進行客製化,並使用他們已經熟悉的AWS工具和能力,將客製化模型整合並部署到他們的應用程式中,同時無需管理任何基礎設施。比如,客戶可以將基礎模型與Amazon SageMaker機器學習功能整合,使用Amazon SageMaker Experiments測試不同模型和使用Pipelines大規模管理基礎模型等。   客戶也可使用Bedrock存取一些目前最領先的可用基礎模型。這將包括AI21 Labs開發的Jurassic-2多語種大語言模型系列,能夠根據自然語言指令生成文本內容,目前支援西班牙語、法語、德語、葡萄牙語、義大利語和荷蘭語。還有Anthropic開發的大語言模型Claude,它是基於Anthropic對於訓練誠實和負責任的AI(responsible AI)系統的大量研究,能夠執行多種對話和文本處理任務。客戶還可以透過Bedrock輕鬆存取Stability AI開發的文生圖基礎模型Stable Diffusion,這是文生圖領域目前最流行的模型,能夠生成獨特、寫實、高品質的圖像、藝術作品、商標和其它設計圖。   Bedrock最重要的能力之一是極其容易客製化模型。客戶只需向Bedrock展示Amazon S3中的幾個標註好的資料範例,Bedrock就可以針對特定任務微調模型,最少僅需20個範例即可,且無需標註大量資料。假設一位時裝零售產業的內容行銷經理,想為即將推出的手提包新品系列開發新穎且使用者導向的廣告創意。他向Bedrock提供了一些表現最佳的過往行銷廣告示例,以及新品的相關描述,Bedrock將能自動為這些新品生成有效的社交媒體推文內容、展示廣告和產品網頁。沒有任何客戶資料被用於訓練底層模型,所有資料都進行了加密,且不會離開客戶的虛擬私有雲(Virtual Private Cloud,VPC),確保客戶的資料安全和隱私保護。   Bedrock目前提供有限預覽,Coda等客戶的開發團隊對使用Bedrock充滿期待。Coda的聯合創始人兼CEO Shishir Mehrotra表示:「作為AWS的長期客戶,我們對Amazon Bedrock帶來的高品質、可擴充性和效能充滿期待。我們所有的資料已經儲存在AWS上,我們能夠利用Bedrock快速採用生成式AI,並能充分保證我們資料的安全和隱私。目前,包括Uber、紐約時報、Square在內的成千上萬個團隊都在採用Coda,因此,可靠性與可擴充性十分重要。」   一些客戶已經預覽了亞馬遜全新的Titan基礎模型,在未來幾個月內,我們會進一步擴充其可用範圍。我們將首先發布兩個Titan模型。第一個是針對總結、文本生成(如原創部落格文章)、分類、開放式問答和資訊擷取等任務的生成式大語言模型。第二個是文本嵌入(embeddings)大語言模型,能夠將文本輸入(字詞、短語甚至是大篇幅文章)翻譯成包含語義的數值表示(即embeddings 嵌入編碼)。雖然這種大語言模型不生成文本,但對個性化推薦和搜尋等應用程式卻大有裨益,因為相對於匹配文字,對比編碼可以幫助模型產生更相關、更符合情境的結果。實際上,Amazon.com的產品搜尋能力就是採用了類似的文本嵌入模型,能夠幫助客戶更好地查找所需的商品。為了持續推動負責任使用AI的最佳實踐,Titan基礎模型可以識別和刪除客戶提交給客製模型之資料中的有害內容,拒絕使用者輸入不當內容,也過濾模型輸出結果中的不當內容,如仇恨言論、髒話和語言暴力。   任何規模的企業都可以透過Bedrock存取基礎模型,加速機器學習在組織內部的應用,並憑藉其輕鬆上手的特性,建構自己的生成式AI應用程式。我們相信,Bedrock將是基礎模型普及化過程中的一大步。埃森哲、德勤、Infosys和Slalom等合作夥伴都在建構最佳實踐,幫助企業借助生成式AI實現快速發展。C3AI和Pega等獨立軟體發展商(ISV)對於利用Bedrock輕鬆存取大量基礎模型,兼具安全性、隱私性和可靠性充滿期待。   宣布Amazon EC2 Trn1n和Amazon EC2 Inf2執行個體正式可用:最具成本效益的生成式AI雲端基礎設施 無論執行、建構還是客製化基礎模型,客戶都需要高效能、低成本且為機器學習專門建構的基礎設施。過去五年,AWS持續加大投入自研晶片,不斷突破效能和價格的極限,以支持對此有極高要求的機器學習訓練與推論等工作負載。AWS Trainium和Inferentia晶片可以提供在雲上訓練模型和執行推論的最低成本。正是因為我們在成本和效能方面的優勢,像 AI21 Labs、Anthropic、Cohere、Grammarly、Hugging Face、Runway、Stability AI 等領先的AI新創公司都選擇執行在AWS上。   由Trainium支援的Trn1執行個體與其他任何EC2執行個體相比,都可以節省高達50%的訓練成本,並經過優化,可以在與高達800Gbps的第二代EFA(彈性結構適配器)網路相連的多個伺服器上分發訓練任務。客戶可以在超大規模叢集(UltraClusters)中部署Trn1執行個體,數量可以擴充到在同一可用區中3萬個Trainium晶片,相當於超過6 exaflops的運算能力,並具有PB級網路。許多AWS客戶,包括Helixon、Money Forward和亞馬遜的搜尋團隊,都使用Trn1執行個體將訓練最大規模的深度學習模型所需的時間從幾個月縮短到幾周甚至幾天,並且降低了成本。800 Gbps的頻寬已經很大,但我們仍不斷創新、擴充頻寬。今天我們宣布全新的、網路優化型Trn1n執行個體正式可用,它可以提供1600 Gbps的網路頻寬,專為大型網路密集型模型設計,其效能比Trn1高出20%。   現今基礎模型花費的時間和金錢主要用於訓練,這是因為許多客戶才剛剛開始將基礎模型部署到生產中。但是,未來,當基礎模型進入大規模部署時,大部分成本將用於執行模型和進行推論。客戶通常會定期訓練模型,於是生產應用程式會不斷生成預測(稱為推論)——每小時可能生成數百萬預測。而且這些預測需要即時發生,這就需要極低延遲和高輸送量的網路。Alexa就是一個典型的例子,它每分鐘都會接受數百萬次請求,處理這些請求占所有運算成本的40%。   我們相信,未來大部分機器學習成本將來自推論的執行。因而,幾年之前,當我們開始研發新型晶片時,就已經將推論優化型晶片置於首位。2018年,我們發布了首款推論專用晶片Inferentia。每年,亞馬遜都運用Inferentia執行數萬億次推論,並節省數億美元成本。這是十分顯著的成果,然而我們認為繼續創新的空間依然很大,因為隨著越來越多的客戶將生成式AI整合到他們的應用程式中,工作負載的規模和複雜性只會越來越大。   因此,我們今天宣布由AWS Inferentia2提供支援的Inf2執行個體正式可用,這些執行個體專門針對執行數千億個參數模型的大規模生成式AI應用程式進行了優化。與上一代相比,Inf2執行個體不僅輸送量提高了4倍,延遲降低了10倍,還可實現加速器之間的超高速連接以支持大規模分散式推論。與同類Amazon EC2執行個體相比,這些能力將推論性價比提高了40%,並把雲中的推論成本降到最低。與同類Amazon EC2執行個體相比,Runway等客戶有望利用Inf2將部分模型的輸送量提升至原來的兩倍。受益於高效能和低成本的推論,Runway能夠引入更多功能,部署更複雜的模型,並最終為自己的數百萬用戶提供更優質的體驗。   宣布Amazon CodeWhisperer正式可用,並針對個人開發者免費開放 我們深知,對客戶而言,利用正確的基礎模型進行建構,並在最佳效能的雲端基礎設施上大規模執行生成式AI應用程式,將帶來顛覆性變革。同時,這也將帶來革命性的全新用戶體驗。當應用程式或系統具備內建的生成式AI能力時,用戶可以獲得更自然、更流暢的交互體驗。這就如同現今手機的人臉識別解鎖功能,我們無需瞭解這一功能背後強大的機器學習模型,卻可以做到看一眼手機就解鎖了。   我們預見,程式設計將是生成式AI技術可快速應用的領域之一。現今,軟體發展者需要花費大量時間編寫相當淺顯和無差別的程式碼。他們還需要花費不少時間學習複雜的新工具和技術,而這些工具和技術總在不斷演進。因此,開發者真正用於開發創新的功能與服務的時間少之又少。為應對這一難題,開發者會嘗試從網上複製程式碼片段再進行修改,但可能無意中就複製了無效程式碼、有安全隱患的程式碼、或對開源軟體的使用沒有進行有效的追溯。而且這種搜尋和複製的方式也浪費了開發者用於創新的時間。   生成式 AI 可以透過「編寫」大部分無差別的程式碼來大大減少這種繁重的工作,讓開發人員能夠更快地編寫程式碼,同時讓他們有時間專注在更具創造性的程式設計工作上。 因此,我們去年宣布推出了 Amazon CodeWhisperer 預覽版,這是一款 AI 程式設計助手,透過內嵌的基礎模型,可以根據開發者用自然語言描述的注釋和整合式開發環境(IDE)中的既有程式碼即時生成程式碼建議,從而提升開發者的生產效率。開發人員只需要向 CodeWhisperer 提出任務命令,例如「解析一個含有歌曲資訊的 CSV 字串」,並要求它回傳一個基於藝術家、標題和排行榜最高排名等資料的結構化清單,CodeWhisperer 就可以解析字串並回傳指定的清單,從而大幅提升工作效率。CodeWhisperer 預覽版發布後得到了開發者們的熱烈回應。我們始終相信,幫助開發人員編寫程式碼可能成為未來幾年生成式 AI 得以發揮巨大效力的應用場景之一。 在預覽期間,我們還進行了一項生產力測試,與未使用 CodeWhisperer 的參與者相比,使用 CodeWhisperer 的參與者完成任務的速度平均快57%,成功率高 27%。這是開發人員生產力的巨大飛躍,而我們相信這才僅僅是個開始。   今天,我們很高興宣布 Amazon CodeWhisperer正式可用,在適用 Python、Java、JavaScript、TypeScript 和 C#之外,新增支持Go、Kotlin、Rust、PHP 和 SQL等10 種開發語言。開發者可以透過在VS Code、IntelliJ IDEA、AWS Cloud9等整合式開發環境中的AWS Toolkit IDE外掛程式使用 CodeWhisperer。 CodeWhisperer 也可在AWS Lambda控制台中使用。除了從數十億行公開程式碼中學習之外,CodeWhisperer 也基於亞馬遜的程式碼進行了訓練。 我們相信 CodeWhisperer 是目前為AWS(包括 Amazon EC2、AWS Lambda和Amazon S3)生成程式碼的最準確、最快和最安全的方式。   如果生成式 AI 工具建議的程式碼包含隱藏的安全性漏洞或未能負責任地處理開原始程式碼,開發人員則無法真正提高工作效率。CodeWhisperer是唯一具有內建安全掃描功能(透過自動推論實現)的 AI 程式設計助手,用於查找難以檢測的漏洞並提出補救建議,例如十大開放式Web應用程式安全專案(OWASP)中的漏洞,以及不符合加密庫最佳實踐的漏洞等。為了幫助開發人員以負責任的方式開發程式碼,CodeWhisperer會過濾掉可能被認為有偏見或不公平的程式碼建議,同時,由於客戶可能需要參考開源程式碼或獲得其使用許可,CodeWhisperer 是唯一可以過濾和標記類似開源始程式碼之生成結果的程式設計助手。   我們相信生成式AI將改變開發者的遊戲規則,因此希望它能盡可能被更多人所用。 所以,CodeWhisperer將開放所有個人用戶免費使用,並不設任何次數或使用時間的限制!任何人都可以透過email帳戶在幾分鐘內註冊 CodeWhisperer進行使用,而無需具備AWS帳號。對於企業客戶,我們則提供了CodeWhisperer 專業版,其中包括更多高級管理功能,如整合了AWS Identity and Access Management(IAM)身份與存取管理服務的單點登入(single sign-on,SSO),以及使用更高程度的安全掃描。   建構像 CodeWhisperer 這樣強大的應用程式,對開發人員和我們所有的客戶來說,都帶來巨大的變革性。我們還有更多創新的產品在規劃中,也期待更多的客戶和開發者在AWS上建構更加創新和顛覆性的生成式AI應用。我們的使命是,讓各種技能水準的開發人員和各種規模的組織都有機會使用生成式AI進行創新。我們相信,新一波機器學習技術創新才剛剛開始、方興未艾,未來還有無限可能。 ###   關於Amazon Web Services 自2006年來,Amazon Web Services一直在提供世界上服務最豐富、應用廣泛的雲端服務。AWS不斷擴展可支援幾乎任何雲端工作負載的服務,為客戶提供超過200種功能全面的雲端服務,包括運算、儲存、資料庫、聯網、分析、機器學習與人工智慧、物聯網、行動、安全、混合雲、虛擬和擴增實境(VR和AR)、媒體,以及應用開發、部署和管理等方面,遍及31個地理區域內的99個可用區域(Availability Zones),並已公佈計畫在加拿大、以色列、馬來西亞、紐西蘭和泰國建立5個AWS地理區域、15個可用區域。全球超過百萬客戶信任AWS,包含發展迅速的新創公司、大型企業和政府機構。AWS協助客戶強化自身基礎設施,提高營運上的彈性與應變能力,同時降低成本。欲瞭解更多AWS的相關資訊,請至:aws.amazon.com。  

文章來源 : 世紀奧美 發表時間 : 瀏覽次數 : 13767 加入收藏 :
F5 全新 AI 驅動應用和 API 安全功能保護數位服務

增強的 API 防禦、精細的機器學習功能和新的託管服務產品提供了跨分散式環境的全面保護   (台北訊 2023 年 4 月 13日 ) F5(納斯達克股票代碼:FFIV)發表全新的安全功能,客戶在管理本地、雲端和邊緣位置的應用程式和 API 時,提供全面的保護和控制。全新的機器學習強化功能為 F5 的雲端安全產品組合提供了先進 API 端點發現、異常檢測、遙測和行為分析。隨著越來越多的交易和客戶參與經由網路和行動應用程式等數位媒介進行,企業正在尋求更好的解決方案,為其最終用戶提供安全體驗並獲得他們的信任。由於 API 是現代網路和行動體驗的基礎,保護這些資產是保護數位服務的根本。   F5 客戶現在可以透過不斷精進的分析引擎、統一的策略強化安全狀態。透過經驗證和監控的API功能,實現應用程式到應用程式的安全連接,減少安全團隊花在糾正誤報的時間,並加快新服務的部署。這些新增功能以及為企業、服務供應商提供的新託管服務產品,加速了 F5 分散式雲服務的發展里程,該服務於 2022 年推出,同步獲得多雲網路解決方案的支援。   現代企業持續呈現對混合解決方案的明顯偏好。根據 F5 2023應用策略現狀 (SOAS) 報告, 85% 的企業已經在跨越多個公有雲、本地端和邊緣的分散式環境中,部署應用程式和 API。超過 20% 的受訪者在六個不同的環境中部署應用程式和 API。同時,安全團隊必須努力為快速擴大的攻擊面提供一致的安全保護和可視性。由於許多現代 Web 應用程式和 API 保護 (WAAP) 解決方案仍然依賴單一產品或基於 CDN 供應商所提供的技術產品,這些技術無法充分擴展到基於雲端的應用程式,更缺乏在本地端、公有雲或其他邊緣部署的能力。   F5 執行副總裁兼產品總監 Kara Sprague 表示: 「應用程式和 API 是數位體驗的基石,工作、銀行服務、購物、醫療保健、旅行、娛樂等都透過它執行。而這些體驗只有在應用程式或 API 被安全保護的情況下才能獲得。透過精密分析技術跨越 SaaS、套件軟體、硬體和託管服務的部署,F5 的應用程式和 API 安全解決方案實現高效率目標。這項發佈延續我們從本質上簡化應用程式和 API 安全的使命,無論客戶的應用程式如何建構或在哪裡,都能夠擁有全面高安全保護以加速數位創新。」   F5 提供整合服務為地端、雲端和邊緣的應用程式和 API 提供強大的保護。此外,F5 端到端安全防護建置,能收集和分析所有部署應用的威脅資料,包括F5 Threat Campaigns服務全面監測的持續和新興的攻擊活動。身為更大的硬體、軟體、SaaS 和託管服務整合產品的一員,該組合還提供領先的應用程式交付功能,F5 安全解決方案在任何環境中保護分散式應用程式和 API,簡化操作的複雜性。   提升 API 安全性為現代應用程式提供更強大的保護 相較於僅提供 API 單一產品安全服務供應商,F5 實現企業在公有雲和即服務中部署安全功能的需求,F5 將 API 自動發現、策略執行和異常檢測功能,作為統一 WAAP 服務的一部分,透過單一控制台簡化應用程式和 API 保護的操作和執行。由於動態、不斷發展的特性,使得特徵碼檢測的控制不足以保護 API 端點,F5 分散式雲端 API 安全利用優化的機器學習來實現自動 API 發現、威脅檢測和模式執行。透過觀察所有端點的正常行為模式,F5 的進階分析引擎可幫助用戶檢測異常並優化 API 架構,以改善整體安全狀況。此外,F5 支援token識別以檢測存取 JWT token的異常行為並防止未經授權的使用。   AI 是應用安全的基本要素 根據F5 的 SOAS 報告,近三分之二的企業正在優先採用人工智慧/機器學習,其中安全性是他們的首要考量。 CISO 將此類功能視為減少檢測和縮短回應時間的一種方法,不會影響效率或需要額外的安全人員。除了基於 AI 的分散式雲端 API 增強功能安全外,F5 還推出 AI 驅動的 Web 應用程式防火牆 (WAF) 功能,包括獨特的惡意用戶檢測和緩解功能,根據確定意圖的行為分析,劃分每個用戶的威脅分數。這使安全操作能夠在警報或自動阻斷之間進行判斷,以減輕特徵碼無法檢測到的攻擊。藉助 F5,可以監控所有流量,並根據可以跨分散式雲端 WAAP部署關聯的惡意用戶行為應用主動防禦。新功能還提供防止誤報系統,更容易阻止惡意流量而不會干擾合法用戶,以減少啟動特定應用程式保護所需的時間來簡化操作。   透過託管服務產品簡化應用安全 企業面對日益分散的跨基礎設施,在一致的部署安全性以及尋找多面向技能的資安管理人員方面,面臨越來越大的挑戰,F5 擴展其託管服務產品以符合企業需求: Distributed Cloud WAAP Managed Services:使 F5 客戶能夠獲得F5 SOC的經驗和專業知識,以管理 WAF、機器人防禦和 DDoS保護。透過共享控制台,客戶能夠根據應用需求和應用安全方法的轉變,在自助服務或託管服務模式之間無縫切換。 Distributed Cloud Managed Service Portal: F5的服務供應商合作夥伴能夠基於 F5 分散式雲 WAAP 的領先安全功能,建構和定制他們自己的託管服務產品。這個平台讓合作夥伴可以代表他們的客戶管理分散式雲端 WAAP,而不會犧牲可視性,進而產生新的收入來源和增值服務,同時擴展解決方案的服務範圍。   Digital Ajman 公司資訊安全長 Mhd Wail Wajih Khachfa 指出:「F5 的美妙之處在於了解每個應用程式並為該應用程式提供解決方案,對我們來說,F5 不僅僅是一家技術服務供應商,更是我們為客戶提供最佳性能、可用性和安全性的產品服務旅程中的戰略合作夥伴。”   Enterprise Management Associates 研究總監 Chris Steffen 表示:「誠如每個企業都有各自不同的風險因素,應用程式安全永遠不會適用每個人,現今領先的服務供應商認知,跨越資料中心、雲端、混合和邊緣部署的統一安全策略和增強的機器學習,提供整合性功能才是因應之道。 F5 解決方案讓客戶能夠靈活地同步擴展他們的應用程式和基礎設施,同時在任何部署環境中提供領先的安全性。」   其他資源 „h F5的 2023 年應用策略現狀報告 „h F5 分散式雲端服務

文章來源 : JlinkPR 發表時間 : 瀏覽次數 : 13869 加入收藏 :
Influenxio 圈圈科技推業界首創「互動式」網紅合作機制 生成式AI助攻

生成式 AI 橫空出世,影響各行各業布局,是否將衝擊內容創作生態,甚至改變網紅合作模式?一站式微網紅行銷互動平台 Influenxio 圈圈科技今(12)日宣布推出業界首創全新「互動式」網紅媒合機制,顛覆傳統由品牌發案、創作者報名模式,品牌主可於平台上透過生成式 AI 自動撰寫文案、發布商品介紹,即可自動曝光給數萬活躍微網紅社群,並開放微網紅主動自薦報名合作。作為全台最大 Instagram 微網紅搜尋引擎,Influenxio 亦同步升級試用會員體驗,品牌主現可免費查看 50 萬筆微網紅名單,更可主動出擊邀約網紅合作,透過科技與數據力輕鬆開啟數位口碑行銷之路。 Influenxio 圈圈科技創辦人暨執行長柯景倫表示:「Influenxio 不斷關注最新產業趨勢,同時聆聽品牌用戶回饋,推出業界首創『互動式』網紅媒合機制,是我們全新的里程碑。我們希望顛覆傳統媒合模式,更好的加速協助品牌主找到真心喜愛他們產品的創作者,透過我們的科技力把微網紅行銷可能產生的磨擦降到最低,為品牌累積穩定而真實的社群聲量、也讓每個創作者都有機會化被動為主動,釋放創造力、開啟更多的可能性。」   生成式 AI 助攻!Influenxio 推業界首個雙向「互動式」微網紅媒合機制 Influenxio 今日亦分享《品牌主訪談調查》,指出有近 9 成品牌主希望創造「更有真實感的口碑」,以及找到「真心喜歡品牌的網紅」合作;而也有近 8 成微網紅會根據個人對品牌及商品的喜好度,決定是否與品牌合作。有鑑於此,Influenxio 再推產品升級,打造業界首個開案前的雙向「互動式」網紅媒合機制,為品牌和微創作者搭建起一個高效率的互動平台。 Influenxio 全新升級的雙向互動網紅媒合機制包含「刊登商品」功能,打破以往由品牌發案、挑選創作者的模式,品牌主只需發布商品介紹,即可立即曝光給 Influenxio 平台的上萬活躍微網紅社群。品牌刊登商品後,創作者可以隨時於平台收藏喜愛商品,或主動聯繫品牌「自薦」合作;品牌主也可主動邀約收藏商品的網紅合作,找出真正對產品有興趣的網紅參加體驗,以雙向、互動模式加速促進媒合,體驗的內容也將更加真實、貼近品牌需求。 觀察到 AI 生成式應用和 AI 運算與數據為 2023 年行銷界關注的兩大技術應用,nfluenxio 更創新導入近期熱度極高的生成式 AI,品牌主現只需提供商品相關資訊,生成式 AI 將自動撰寫 200 字商品介紹文案,讓品牌主數秒內就能完成品牌曝光、快速吸引喜愛品牌或有在使用商品的網紅主動上門合作。 用數據賦能、滿足多元需求!Influenxio 整合導流功能,輕鬆一覽網紅合作轉換與成效數據 根據 Influenxio 觀察,品牌會員除了希望透過微網紅增加品牌或商品的曝光廣度外,也有與創作者合作轉換、導流的深度需求。為滿足對於網紅行銷的多元需求,Influenxio 平台新增導流功能,將網紅人際網絡轉化為社群時代以「網紅」影響力為核心擴散的聯播網,幫助品牌行銷觸角深入網紅粉絲圈,並將成效整合進平台內,品牌主可清楚追蹤、一次閱覽網紅貼文合作曝光、導流合作數據等整體行銷活動成效。Influenxio 的「網紅」聯播網導流量更優於其他導流方式,如品牌自媒體、同期多媒體聯播網廣告(GDN)廣告投放,跳出率與工作階段(Session)表現及品質亦優於其他管道。   Influenxio 亦持續透過數據力助攻品牌行銷、強化可視性,包含在搜尋引擎上加入許多關鍵數據指標,如粉絲樣貌、四大 IG 數據表現關鍵指標、粉絲活躍率、黏著度等,幫助會員更精準找到適合合作的微網紅。平台同時導入自定義標籤,助品牌為長期、波段式操作需求自主建立客製化微網紅資料庫,並以 AI 和機器學習技術來自動化優化執行效率、自動分析網紅所有貼文文字、建立關鍵字標籤為網紅分群,為品牌快速精準媒合出合適的微網紅人選,同時優化執行效率,透過平台自動推進時程機制,能幫助品牌與微網紅合作的結案速度提升40% 。   上萬名活躍網紅社群!Influenxio 打造全台最大 Instagram 微網紅搜尋引擎 Influenxio 成立逾四年,現已是台灣市場最大 Instagram 微網紅搜尋引擎,擁有亞洲最完整的 Instagram 帳號資料庫,涵蓋 50 萬名台、日優質微網紅,平均互動率 4.3 % 高於全球平均兩倍 。Influenxio 平台上亦有最活絡的網紅社群,單一專案最高達成 300 位微網紅同時完成合作,累積創造了破 50,000 則微網紅合作貼文。 在品牌主方面,Influenxio 平台上已累積超過 10,000 名品牌主會員註冊,過去一年註冊品牌會員更成長 30%,Influenxio 今日亦分享「免費試用會員」體驗再升級,不僅可免費查看 50 萬筆 Instagram 微網紅名單及數據分析,更可直接聯繫網紅並開啟合作。免費體驗每月提供 20 位微網紅聯繫及 3 位微網紅合作額度,且沒有試用期限,盼助攻大小品牌都能踏出微網紅行銷第一步,創造有效口碑!  

文章來源 : 香港商霍夫曼公關顧問股份有限公司 發表時間 : 瀏覽次數 : 14629 加入收藏 :
2026 年 3 月 11 日 (星期三) 農曆正月廿三日
首 頁 我的收藏 搜 尋 新聞發佈