關於 cookie 的說明

本網站使用瀏覽器紀錄 (Cookies) 來提供您最好的使用體驗,我們使用的 Cookie 也包括了第三方 Cookie。相關資訊請訪問我們的隱私權與 Cookie 政策。如果您選擇繼續瀏覽或關閉這個提示,便表示您已接受我們的網站使用條款。

搜尋結果Search Result

符合「新功能」新聞搜尋結果, 共 467 篇 ,以下為 25 - 48 篇 訂閱此列表,掌握最新動態
AWS推出新一代Amazon SageMaker 為資料、分析和AI提供統一平台

亞馬遜(Amazon)旗下Amazon Web Services(AWS)在2024年re:Invent全球大會上,宣布推出新一代Amazon SageMaker,將客戶所需的快速SQL分析、PB級資料處理、資料探索和整合、模型開發和訓練、生成式人工智慧(AI)等功能統一到一個整合平台上。 AWS AI和資料全球副總裁Swami Sivasubramanian表示:「分析和AI正在融合,從歷史分析到ML模型訓練和生成式AI應用程式,客戶以越來越互連的方式使用資料。為了支援這些工作負載,許多客戶已經在使用我們專門建構的分析和ML工具組合,例如,已成為處理資料和建構ML模型業界標準的Amazon SageMaker、Amazon EMR、Amazon Redshift、Amazon Simple Storage Service(Amazon S3)資料湖和AWS Glue的組合。新一代Amazon SageMaker匯集這些功能,同時還加入了一些令人興奮的新功能,為客戶提供資料處理、SQL分析、ML模型開發和訓練、建構生成式AI所需的所有工具。」 使用Amazon SageMaker Unified Studio更快地合作和建構 如今,數十萬客戶使用Amazon SageMaker來建構、訓練和部署ML模型。許多客戶依賴AWS提供的一整套專門建構的分析服務來支援各種工作負載,包括SQL分析、搜尋分析、大數據處理和串流分析。越來越多的客戶不再單獨地使用這些工具,而是正在將分析、機器學習和生成式AI結合來獲取洞察,並為用戶提供新體驗。這些客戶將受益於統一的環境,匯集客戶熟悉的AWS分析、ML和生成式AI工具,不僅可以輕鬆使用所有資料,還能夠與團隊或組織的其他成員輕鬆合作處理專案。 新一代Amazon SageMaker包括一個新的、統一的編輯器,為客戶提供單一的資料和AI開發環境,用戶可以在其中尋找和使用組織中的所有資料,為各種常見的資料應用案例選擇最佳的工具,並與不同團隊和角色合作,以擴展資料和AI專案。Amazon SageMaker Unified Studio整合了在Amazon Bedrock、Amazon EMR、Amazon Redshift、AWS Glue和現有Amazon SageMaker Studio中客戶喜歡使用的一系列獨立編輯器、查詢和視覺化功能與工具。這使客戶可以輕鬆使用這些功能來探索和準備資料、編寫需求或程式碼、處理資料以及建構ML模型。Amazon Q Developer能全程協助開發任務,包括資料探索、編寫程式碼、SQL生成和資料整合等。例如,用戶可以詢問Amazon Q:「我應該使用哪些資料來更了解產品銷售情況?」或「生成SQL來計算按照產品分類的總收入。」使用者可以安全地分享資料、模型、應用程式和其他成品,與團隊和組織成員共用,進而提升資料資產的易尋性和使用率。借助Amazon SageMaker Unified Studio中與Amazon Bedrock整合開發環境(IDE),用戶可以使用Amazon Bedrock精選的高效能基礎模型和工具(例如Agents、Guardrails、Knowledge Bases及Flows),快速、輕鬆地建構和部署生成式AI應用程式。Amazon SageMaker Unified Studio內建資料探索、共用和治理功能,因此分析師、資料科學家和工程師可以輕鬆搜尋和找到應用案例所需的正確資料,同時使用所需的安全控制和權限,確保掌握存取控制權,並保護資料安全。 NatWest Group是英國一家領先的銀行,為超過1900萬客戶提供服務,使用多種工具進行資料工程、SQL分析、ML和生成式AI工作負載。借助Amazon SageMaker Unified Studio,NatWest Group將在組織內打造一個統一的環境來支援這些工作負載,並預計資料使用者使用分析和AI功能所需的時間將減少50%,使員工花更少的時間管理多項服務,將更多的時間用於為客戶實現創新。 透過Amazon SageMaker資料和AI治理滿足企業安全需求 新一代Amazon SageMaker簡化了組織內資料和AI的探索、治理及合作。借助基於Amazon DataZone建構的Amazon SageMaker Catalog,管理員可以使用具有精細控制的單一許可模型,定義和實施一致的使用策略,跨團隊的資料工作人員便可以安全地探索和使用經過批准的資料和模型,這些資料和模型包含由生成式AI打造的業務上下文中繼資料。管理員可以輕鬆地定義和實施跨模型、工具和資料來源的權限,而客製化的安全措施有助於確保AI應用程式的安全性和合規性。客戶還可以透過Amazon SageMaker中的資料分類、毒性偵測(toxicity detection)、安全防護措施(guardrails)和負責任的AI策略來保護AI模型。 Amazon SageMaker Lakehouse減少資料孤島並統一資料 如今,超過一百萬個資料湖建構在Amazon Simple Storage Service(Amazon S3)上,使客戶能夠集中資料資產,並透過AWS的分析、AI和ML工具獲取價值。資料湖使客戶能夠按原樣儲存資料,並輕鬆組合來自多個來源的資料。客戶的資料可能分布在多個資料湖以及資料倉儲中,客戶將受益於用一種簡單的方法統一所有資料。 Amazon SageMaker Lakehouse可統一使用儲存在Amazon S3資料湖、Redshift資料倉儲和聯合資料來源中的資料,包含不同的資料儲存方式和物理位置,減少資料孤島並讓查詢變得更容易。借助Amazon SageMaker中與Apache Iceberg相容的全新資料湖功能,客戶可以從Amazon SageMaker Unified Studio中,使用與Apache Iceberg開放標準相容的AI和ML工具以及查詢引擎,以使用和處理所有資料。現在,無論資料的儲存方式和儲存位置,客戶可以使用喜歡的分析和ML工具處理資料,以支援SQL分析、特定查詢(ad-hoc querying)、資料科學、ML和生成式AI的應用案例。Amazon SageMaker Lakehouse提供整合的精細存取控制,這些存取控制一致地應用於資料湖中所有分析和AI工具的資料,客戶只需定義一次權限,即可在整個組織中安全地共用資料。 Roche是製藥和診斷領域的領導者,致力於推動科學進步以改善人們的生活。Roche將使用Amazon SageMaker Lakehouse統一來自Amazon Redshift和Amazon S3資料湖的資料,以消除資料孤島,增強團隊之間的合作,並允許使用者無縫運用資料,無需昂貴的資料移動或重複的安全存取控制。借助Amazon SageMaker Lakehouse,Roche預計資料處理時間將減少40%,這幫助他們減少資料管理工作,能將更多的精力用於推動業務發展。 全新零ETL整合SaaS應用程式,可快速、輕鬆地使用SaaS資料 為了在營運中真正運用資料,企業需要能無縫使用所有資料,無論這些資料位於何處。這就是AWS不斷發展零ETL的原因,零ETL使資料整合不再是繁瑣的手動工作,客戶可以輕鬆地在需要的地方使用資料。Amazon Aurora MySQL和PostgreSQL、Amazon RDS for MySQL以及Amazon DynamoDB與Amazon Redshift的零ETL整合,能幫助客戶快速且輕鬆地使用Amazon Redshift和Amazon SageMaker Lakehouse中常用的關聯式和非關聯式資料庫中的資料,並用於分析和機器學習。除了營運資料庫和資料湖,許多客戶也將關鍵企業資料儲存在SaaS應用程式中,而客戶將受益於輕鬆使用這些資料進行分析和機器學習。 客戶使用與SaaS應用程式整合的全新零ETL,將能輕鬆地使用Amazon SageMaker Lakehouse中的Zendesk和SAP等應用程式以及Amazon Redshift中的資料,並用於分析和AI。這消除了資料管道的需求,資料管道的建構本身就具有挑戰性且成本高昂,而且資料管道管理複雜,容易出錯而讓客戶無法及時獲得想要的洞察。整合SaaS應用程式的零ETL包含資料同步、檢測增量更新和刪除、合併目標的最佳實踐。 來自不同產業、各種規模的組織,包括Infosys、Intuit和Woolworths,都已經受益於AWS的零ETL整合,無需建構和管理資料管道,即可快速且輕鬆地連接和分析資料。例如,透過整合SaaS應用程式的零ETL,線上房地產平台idealista能簡化資料擷取流程,無需多個管道來儲存合作廠商SaaS應用程式中的資料,使資料工程團隊能夠專注於從資料中獲得可執行的洞察,而不是建構和管理基礎設施。 新一代Amazon SageMaker現已可用,Amazon SageMaker Unified Studio目前可供預覽,並即將可用。

文章來源 : 世紀奧美 發表時間 : 瀏覽次數 : 415 加入收藏 :
AWS在Amazon Bedrock上推出100多個新模型、全新強大的推論和資料處理功能

亞馬遜(Amazon)旗下Amazon Web Services(AWS)在2024年re:Invent全球大會上,宣布推出Amazon Bedrock的多項創新功能。Amazon Bedrock是AWS一項全受管服務,旨在運用高效能基礎模型建構和擴展生成式人工智慧(AI)應用程式。此次發布進一步彰顯了AWS對模型選擇的承諾,同時優化大規模推論的執行方式,幫助客戶從資料中挖掘更多價值。Amazon Bedrock的全新功能也將協助客戶避免因模型幻覺(hallucination)造成的事實錯誤、協調多個AI驅動的代理以執行複雜任務,以及打造更小、特定任務導向的模型,以更低的成本和延遲提供與大型模型相近的效能。 AWS AI和資料全球副總裁Swami Sivasubramanian表示:「Amazon Bedrock服務持續快速增長,因為具備廣泛而領先的模型選擇、可輕鬆基於自身資料進行客製化的工具、內建的負責任AI功能以及開發複雜代理的能力,成為越來越多客戶的選擇。為了讓客戶充分釋放生成式AI的潛力,Amazon Bedrock一直致力於解決開發人員目前面臨的最大挑戰。透過本次新發布的一系列新功能,我們將幫助客戶開發出更智慧的AI應用程式,讓他們為最終用戶創造更大價值。」 匯集領先AI公司的廣泛模型選擇 Amazon Bedrock為客戶提供豐富的全受管模型選擇,這些模型來自領先的AI公司,包括AI21 Labs、Anthropic、Cohere、Meta、Mistral AI以及Stability AI等。此外,Amazon Bedrock是客戶使用新發布的Amazon Nova模型的唯一管道。Amazon Nova是新一代基礎模型,以業界領先的性價比在多種任務上展現出頂尖智慧。透過本次發布,AWS在Amazon Bedrock上新增更多業界領先的模型,進一步擴展Amazon Bedrock的模型選擇範圍。 Luma AI的Ray 2:Luma AI的多模態模型和軟體產品借助生成式AI推動影片內容創作。AWS將成為首家向用戶提供Luma AI最先進的Luma Ray 2模型(其著名影片模型的第二代)的雲端服務供應商。Ray 2象徵生成式AI輔助影片創作的重大進步,它能夠根據文本和圖像高效生成電影級質感、逼真的高品質影片。用戶能夠快速嘗試不同的拍攝角度和風格,打造角色連貫、物理效果準確的影片,為建築、時尚、電影、平面設計以及音樂等領域提供創意成品。 poolside的malibu和point:poolside解決大型企業現代軟體工程面臨的挑戰。AWS將成為首家提供poolside的malibu和point模型使用權限的雲端服務供應商,這兩個模型在程式碼生成、測試、文件編製以及即時自動完成程式碼方面表現出色。這有助於工程團隊提高生產力,更快編寫出更優質的程式碼,並加速產品開發週期。這兩種模型還能夠根據客戶的程式碼庫、實際操作以及文檔進行安全、隱私的微調,使其能夠適應特定專案,幫助客戶以更高的準確性和效率處理日常軟體工程任務。此外,AWS還將成為首家提供poolside Assistant使用權限的雲端服務供應商,該功能可以將poolside的malibu和point模型強大的功能加入開發人員偏好的整合開發環境(IDE)中。 Stability AI的Stable Diffusion 3.5 Large:Stability AI是視覺媒體領域領先的生成式AI模型開發者,在圖像、影片、3D和音訊方面擁有先進的模型。Amazon Bedrock即將新增Stability AI最先進的文本轉圖像模型Stable Diffusion 3.5 Large。該模型能夠根據各種風格的文本描述生成高品質圖像,加速媒體、遊戲、廣告以及零售領域的客戶創造概念藝術、視覺效果以及詳細的產品圖像。 透過Amazon Bedrock Marketplace使用100多個熱門、新興和專業模型 儘管Amazon Bedrock中的模型能夠支援眾多任務,許多客戶仍希望將新興的專用模型融入到他們的應用程式中,以支援獨特的應用情況,例如分析財務文檔、生成新型蛋白質等等。如今,客戶能在Amazon Bedrock Marketplace上輕鬆地查找與選擇100多個模型,這些模型可部署在AWS上,並能透過Amazon Bedrock提供一致的使用體驗。這涵蓋了Mistral AI的Mistral NeMo Instruct 2407、Technology Innovation Institute的Falcon RW 1B以及NVIDIA NIM微服務等熱門模型,以及眾多專業模型,例如用於金融產業的Writer的Palmyra-Fin、用於翻譯的Upstage的Solar Pro、用於文本轉音訊的Camb.ai的MARS6、用於生物學的EvolutionaryScale的ESM3生成模型等。 客戶一旦找到他們想使用的模型,就能根據自身的擴展需求選擇合適的基礎設施,並透過全受管端點輕鬆將其部署在AWS上。客戶隨後可將該模型與Amazon Bedrock統一的應用程式介面(API)安全整合,進而使用Guardrails和Agents等工具,並受益於內建的安全和隱私功能。 Zendesk是一家全球服務軟體公司,服務全球10萬個品牌的多元文化客戶群。Zendesk可以在Amazon Bedrock中使用用於翻譯的Widn.AI等專用模型,透過電子郵件、聊天、電話以及社群媒體對客服需求進行個人化和在地化處理。這將為客服人員提供所需的資料,例如客戶透過母語表達的情緒或用意等,最終提升客服體驗。 提示詞快取和Intelligent Prompt Routing幫助客戶大規模處理推論問題 在選擇模型時,開發人員需要權衡多種因素,如準確性、成本和延遲。優化其中任一因素,都可能要其他因素讓步。為了在應用程式部署到生產環境時平衡這些考量因素,客戶會採用多種技術,例如快取常用提示詞或將簡單問題分配給較小的模型。然而,運用這些技術既複雜又耗時,需要專業知識來反覆測試不同方法,以確保最終用戶獲得良好的體驗。正因如此,AWS新增了兩項功能,幫助客戶更有效地大規模管理提示詞資訊。 透過快取提示詞功能降低回應延遲和成本:Amazon Bedrock現已支援安全地快取提示詞,進而減少重複處理,且不會影響準確性。對於支援的模型,此功能可將成本降低最高90%,並將延遲縮短最多85%。例如,律師事務所可以打造一個生成式AI聊天應用程式,用於回答律師有關文件的問題。當多名律師在提示詞中詢問關於文檔同一部分的問題時,Amazon Bedrock能夠快取該部分內容,使其只需要處理一次,之後每當有人想要詢問相關問題時,便可重複使用,透過減少模型每次需要處理的訊息量來降低成本。Adobe的Acrobat AI助理藉此實現快速的文檔摘要和問答功能,提高了用戶的工作效率。根據初步測試,借助Amazon Bedrock上的提示詞快取功能,Adobe發現回應時間縮短了72%。 Intelligent Prompt Routing功能有助於優化回應品質和成本:借助此功能,客戶能設定Amazon Bedrock自動把提示詞分配至同一模型系列裡的不同基礎模型,以優化回應品質和成本。運用先進的提示詞配對和模型理解技術,Intelligent Prompt Routing能夠預測每個請求對應的每個模型的效能,並將請求動態分配至最可能以最低成本提供所需回應的模型。Intelligent Prompt Routing可在不影響準確性的情況下,將成本降低多達30%。Argo Labs為餐廳提供創新的語音客服解決方案,透過Intelligent Prompt Routing處理各類客戶諮詢和訂位業務。當客戶提出問題、下單以及訂位時,Argo Labs的語音聊天機器人會動態地將查詢請求分配至最合適的模型,進而優化回應的成本和品質。例如「今晚這家餐廳有空位嗎?」這樣簡單的是非題,可以由較小的模型處理,而「這家餐廳提供哪些素食選項?」這類較複雜的問題則可由較大的模型來回答。借助Intelligent Prompt Routing功能,Argo Labs能夠運用語音客服無縫處理客戶互動,同時達成準確性和成本之間的平衡。 Amazon Bedrock知識庫的兩項新功能助力客戶最大程度發揮資料價值 無論自身資料儲存於何處、採用何種格式,客戶都希望運用資料為最終用戶建構獨特的、生成式AI驅動的體驗。知識庫是一項全受管功能,客戶借助檢索增強生成(RAG),能夠輕鬆運用上下文和相關資料客製化基礎模型的回應。雖然知識庫已能便捷地連接至Amazon OpenSearch Serverless和Amazon Aurora等資料來源,但許多客戶還希望將其他資料來源和資料類型融入生成式AI應用程式中。因此,AWS為知識庫新增了兩項功能。 支援結構化資料檢索功能以加速生成式AI應用程式開發:Knowledge Bases提供了首批受管式、可立即使用的RAG解決方案,使客戶能夠直接查詢生成式AI應用程式中結構化資料的儲存位置。此功能有助於打破資料來源之間的資料孤島,將生成式AI開發週期從一個多月縮短至幾天。客戶能夠建構應用程式,讓應用程式運用自然語言查詢Amazon SageMaker Lakehouse和Amazon S3資料湖、Amazon Redshift雲端資料倉儲等資料來源中的結構化資料。借助這項新功能,提示詞資訊會轉換為SQL查詢,用於檢索資料結果。Knowledge Bases會根據客戶的架構和資料自動調整,從查詢模式中學習,並提供一系列客製化選項,進一步提高針對所選的應用情況的準確性。信用情報公司Octus將運用Knowledge Bases中全新的結構化資料檢索功能,讓最終用戶使用自然語言查詢結構化資料。透過將Knowledge Bases與Octus現有的主要資料管理系統相連,最終用戶的提示詞資訊能轉換為SQL查詢,讓Amazon Bedrock運用這些SQL查詢檢索相關資訊,並作為應用程式回應的一部分回覆給用戶。這將幫助Octus的聊天機器人向用戶提供精準的、由資料驅動的洞察,提升使用者與公司一系列資料產品之間的互動。 支援GraphRAG功能以生成更具相關性的回應:知識圖譜讓客戶透過將相關資訊映射成網狀結構,來針對資料間的關係進行建模和儲存。將這些知識圖譜融入RAG時會格外有用,系統可依據圖譜輕鬆審閱並檢索相關資訊片段。如今,由於支援GraphRAG,Knowledge Bases讓客戶無需具備圖形資料庫的專業知識,即可使用Amazon Neptune圖形資料庫服務自動生成知識圖譜,並跨資料連接實體之間的關係。Knowledge Bases能夠更便捷地生成更準確、更相關的回應,借助知識圖譜關連性,查看根源資訊以了解模型如何得出特定回應。BMW集團將在旗下的My AI Assistant(MAIA)使用GraphRAG。MAIA是一款AI驅動的虛擬助理,可幫助用戶尋找、了解並整合託管在AWS上的公司內部資料資產。借助由Amazon Neptune支援的GraphRAG自動化圖形建模功能,BMW集團能夠依據資料使用情況,持續更新MAIA所需的知識圖譜,從資料資產中提供更相關且全面的洞察,進而持續為數百萬車主打造優質體驗。 Amazon Bedrock Data Automation將非結構化多模態資料轉換為結構化資料,用於生成式AI和分析 如今,大多數企業資料都是非結構化的,這些資料位於文檔、影片、圖像以及音訊等內容中。許多客戶希望運用這些資料挖掘洞察或為客戶打造新體驗,但將資料轉換為便於分析或RAG所需的格式往往是艱難的人工過程。例如,銀行在處理貸款業務時可能會收到多個PDF文檔,需要從每個文檔中擷取資訊,統一姓名、出生日期等資料的寫法,然後將結果轉換為文字,再輸入資料倉儲進行分析。借助Amazon Bedrock Data Automation,客戶能夠使用單個API從非結構化內容中大規模自動擷取、轉換並生成資料。 Amazon Bedrock Data Automation能夠快速且具成本效益地從文檔、圖像、音訊以及影片中擷取資訊,並轉換為結構化格式,適用於智慧文檔處理、影片分析以及RAG等應用。此功能可以使用預先定義的預設設定生成內容,例如影片片段每個場景的描述或音訊的逐字內容,客戶也可以根據自身的資料架構生成客製化的輸出內容,並將其輕鬆載入到現有的資料庫或資料倉儲中。透過與Knowledge Bases整合,Amazon Bedrock Data Automation還可以解析內容來支援RAG應用程式,透過整合嵌入在圖像和文本中的資訊,提升結果的準確性和相關性。同時,此功能提供信心分數,並基於原始內容生成回應,有助於降低生成幻覺的風險,並提高透明度。 Symbeo是一家隸屬於CorVel的公司,提供自動化應付帳款解決方案。Symbeo計畫運用Amazon Bedrock Data Automation,從複雜的文檔(如保險理賠、醫療帳單等)中自動擷取資料。這將幫助Symbeo團隊更快速地處理理賠事務,並縮短向客戶回覆的處理時間。數位資產管理平台Tenovos使用Amazon Bedrock Data Automation在大規模語義搜尋中提升內容的重複使用率50%以上,節省了數百萬美元的行銷費用。 Amazon Bedrock Marketplace現已正式可用,同時Amazon Bedrock Knowledge Bases中的推論管理功能、結構化資料檢索、GraphRAG以及Amazon Bedrock Data Automation均已可供預覽。此外,Luma AI、poolside和Stability AI的模型也即將上線。 AWS強化Amazon Bedrock,推出業界首創的AI防護、全新代理以及模型客製化功能 Swami Sivasubramanian表示:「Amazon Bedrock已成為客戶將生成式AI變成應用程式和業務核心的必備工具。在過去一年中,Amazon Bedrock的客戶群成長了4.7倍。隨著時間推移,生成式AI改變更多公司和客戶體驗,推論將成為每個應用程式的核心。隨著這些新功能的推出,我們正在代表客戶進行創新,以解決整個產業將生成式AI應用程式推進到生產時面臨的主要挑戰,例如模型幻覺和成本。」 透過Amazon Bedrock Guardrails,Amazon Bedrock能藉由自動推理檢查驗證事實回應的準確性、產生可稽核的輸出,並向客戶顯示模型得出結果的確切原因。這提高了透明度,並確保模型回應符合客戶的規範和政策。而在Amazon Bedrock中使用多代理合作,客戶可以為專案的特定步驟打造和分配專門的代理來獲得更準確的結果,並透過協調多個代理平行工作來加速任務。模型蒸餾技術則是在客戶提供範例提示詞後,由Amazon Bedrock完成所有回應生成並微調較小的模型。這為客戶提供了一個具有大型模型的相關知識和準確性,但兼具小型模型速度和成本的模型,使其成為生產應用的理想選擇。

文章來源 : 世紀奧美 發表時間 : 瀏覽次數 : 456 加入收藏 :
亞馬遜推出新一代基礎模型Amazon Nova

亞馬遜在2024年AWS re:Invent全球大會上,宣布推出新一代基礎模型Amazon Nova,這些模型在多種任務上展現出頂尖智慧,且具備業界領先的性價比。Amazon Nova模型將在Amazon Bedrock中提供,包括超快速文本生成模型Amazon Nova Micro,以及能夠處理文本、圖像和影片並生成文本的多模態模型Amazon Nova Lite、Amazon Nova Pro和Amazon Nova Premier。此外,亞馬遜還推出了兩個全新模型——用於生成高品質圖像的Amazon Nova Canvas和用於生成高品質影片的Amazon Nova Reel。 亞馬遜通用AI資深副總裁Rohit Prasad表示:「在亞馬遜內部,我們約有1,000個生成式人工智慧(AI)應用正在進行中,因此可以全面了解開發者所面臨的挑戰。我們的新一代Amazon Nova模型旨在幫助內外部開發者應對這些挑戰,提供強大的智慧和內容生成功能,並在延遲、成本效益、客製化、檢索增強生成(RAG)和智慧代理(agentic)等方面取得顯著進展。」 Amazon Nova理解模型展現出卓越的智慧、能力與速度 Amazon Nova包含四款先進的模型。Amazon Nova Micro是一款僅處理文本的模型,能夠以極低的延遲和成本提供回應;Amazon Nova Lite是一款極具成本效益的多模態模型,能夠快速處理圖像、影片和文本輸入;Amazon Nova Pro是一款功能強大的多模態模型,可在準確性、速度和成本之間實現絕佳平衡,適合多種任務;Amazon Nova Premier是亞馬遜的頂級多模態模型,專為複雜推論任務而生,並將其作為蒸餾客製化模型(distilling custom models)的最佳典範模型(teacher model)使用。目前,Amazon Nova Micro、Amazon Nova Lite和Amazon Nova Pro已全部正式可用,Amazon Nova Premier預計將在2025年第一季度可用。 亞馬遜對Amazon Nova模型進行了廣泛的業界基準測試。結果表明,Amazon Nova Micro、Amazon Nova Lite和Amazon Nova Pro在各自類別中與最佳模型相比均表現得相當有競爭力。 Amazon Nova Micro在11項適用基準測試中,其表現與Meta的LLaMa 3.1 8B相當或更優,而在12項適用基準測試中,其表現也與Google Gemini 1.5 Flash-8B持平或更優。憑藉每秒210個輸出token的業界領先速度,Amazon Nova Micro非常適合需要快速回應的應用場景。 Amazon Nova Lite在同類模型中同樣具備強勁競爭力。與OpenAI的GPT-4o mini相比,它在19項基準測試中有17項表現持平或更優;與Google的Gemini 1.5 Flash-8B相比,在21項基準測試中也有17項表現相當或更優;與Anthropic的Claude Haiku 3.5相比,則在12項基準測試中有10項表現相當或更優。除了在文本基準測試中展現出色的準確性外,Amazon Nova Lite在影片、圖表和文檔理解方面也表現突出,這一點透過VATEX、ChartQA和DocVQA等基準測試得到了證明。此外,Amazon Nova Lite在代理工作流程上也表現優異,如在Berkeley Function Calling Leaderboard上的函式呼叫能力,以及在理解視覺元素以在瀏覽器和電腦螢幕上執行操作的核心能力方面表現出色,這一點在VisualWebBench(網頁瀏覽器操作基準測試)和Mind2Web(通用多模態代理基準測試)得到證明。 Amazon Nova Pro在與OpenAI的GPT-4o的20項基準測試中,有17項表現相當或更優;在與Google的Gemini 1.5 Pro的21項基準測試中,有16項表現持平或更優;在與Anthropic的Claude Sonnet 3.5v2的20項基準測試中,有9項表現相當或更優。除了在文本和視覺智慧基準測試中的準確性外,Amazon Nova Pro在遵循指令和多模態代理工作流程方面也表現出色,相關測試包括綜合RAG(Comprehensive RAG Benchmark)、Berkeley Function Calling Leaderboard和Mind2Web。 多語言和多模態支援,具備長上下文處理能力 Amazon Nova Micro、Lite和Pro支援200多種語言。Amazon Nova Micro支援128K輸入token的上下文長度,而Amazon Nova Lite和Pro的上下文長度可達300K token,處理影片時長可達30分鐘。到2025年初,亞馬遜將支援超過200萬輸入token的上下文長度。 快速且具有成本效益 Amazon Nova模型快速、具有成本效益,且設計上易於與客戶的系統和資料無縫整合。Amazon Nova Micro、Lite和Pro在各自的智慧類別中,成本比Amazon Bedrock中表現最佳的模型至少便宜75%,同時也是Amazon Bedrock中對應類別速度最快的模型。 與Amazon Bedrock的無縫整合 所有Amazon Nova模型均已與Amazon Bedrock整合。Amazon Bedrock是一項全受管服務,透過單一API提供來自領先AI公司的高效能模型。客戶可以輕鬆試用和評估Amazon Nova模型及其他模型,找到最適合其應用的模型。 支援微調以提升準確性 這些模型還支援自訂微調,允許客戶根據自身專有資料中的已標記範例來提升準確性。Amazon Nova模型能夠從客戶的資料(包括文本、圖像和影片)中學習最重要的資訊,隨後Amazon Bedrock會訓練一個專屬的微調模型,以提供客製化回應。 蒸餾用於訓練更小、更高效的模型 除了支援微調外,這些模型還支援蒸餾,可以將規模更大、實力更強的「典範模型」中的特定知識轉移到更小的模型上,從而實現更高的精確度、更快的回應速度以及更低的營運成本。 基於資料回應的檢索增強生成(RAG) Amazon Nova模型與Amazon Bedrock知識庫緊密整合,專注於檢索增強生成(RAG)方法,使客戶能夠透過利用自身的資料確保生成內容的高度準確性和相關性。 針對代理應用進行優化 Amazon Nova模型經過優化,便於代理應用在執行多步驟任務時透過多個API與企業的專有系統和資料進行互動。 借助Nova創意內容生成模型,取得生產級視覺內容 Amazon Nova Canvas是一款先進的圖像生成模型,能夠根據輸入的文本或圖像生成專業級的視覺內容。它提供了便捷的編輯功能,使用者可以透過文本輕鬆調整圖像,控制顏色組合和佈局。該模型內建的安全控制措施確保安全和負責任地使用AI,包括浮水印功能,能夠追溯每張圖像的來源;以及內容審核功能,限制可能產生的有害內容。根據合作廠商的對比評估,Amazon Nova Canvas在效能上優於OpenAI的DALL-E 3和Stable Diffusion,並在關鍵的自動化指標上表現出色。 Amazon Nova Reel是一款先進的影片生成模型,能夠幫助客戶輕鬆以文本和圖像打造高品質影片,適用於廣告、行銷和培訓等內容創作。客戶可以使用自然語言提示控制視覺風格和節奏,包括鏡頭移動、旋轉和縮放。根據合作廠商的評估,Amazon Nova Reel在品質和一致性上優於同類模型,客戶更傾向於選擇由其生成的影片,而非Runway的Gen-3 Alpha生成的影片。與Amazon Nova Canvas一樣,Amazon Nova Reel也具備內建的安全控制措施,包括浮水印和內容審核。目前,Amazon Nova Reel支援生成六秒的影片,未來幾個月將支援最長為兩分鐘的影片生成。 下一步:語音到語音和多模態到多模態模型 亞馬遜計畫在2025年第一季度推出Amazon Nova語音到語音模型。該模型旨在透過理解自然語言的即時語音輸入,解釋語言和非語言訊號(如語調和節奏),提供流暢、接近真人的互動,徹底改變對話式AI應用,並確保低延遲的雙向交流。 此外,亞馬遜還在開發一種新模型,能夠接受文本、圖像、音訊和影片作為輸入,並以任意模態生成輸出。這款具備本地多模態到多模態,即「任意到任意」模態能力的Amazon Nova模型預計將在2025年中旬推出。該模型將簡化應用程式開發,使同一模型能夠執行多種任務,如內容模態轉換、內容編輯,以及驅動能夠理解和生成所有模態的AI代理。 AWS的合作夥伴和客戶已開始使用Amazon Nova模型,從其強大功能和超高性價比中獲益 AWS的策略合作夥伴SAP正在將Amazon Nova模型整合到SAP AI Core生成式AI中心支援的大型語言模型(LLMs)家族中。藉此,開發者能夠為SAP的AI助理Joule打造新功能,並利用SAP資料中完整的業務上下文,安全地建構AI驅動的解決方案,從而實現自動化、個人化以及供應鏈規劃等進階功能。 勤業眾信作為AWS的策略合作夥伴,致力於為全球各產業提供一流的生成式AI服務。勤業眾信深知,沒有一種AI解決方案和基礎模型能解決所有問題,認為Amazon Nova模型的進階客製化能力和提升的安全性將推動創新,為全球客戶帶來卓越的價值。 亞馬遜致力於開發負責任的AI Amazon Nova模型內建安全和保護措施。亞馬遜還推出了AWS AI Service Cards,提供有關使用案例、局限性和負責任AI實踐的透明資訊。

文章來源 : 世紀奧美 發表時間 : 瀏覽次數 : 426 加入收藏 :
AWS 讓 AI 使用門檻大幅下降!Amazon Bedrock 省錢神器讓企業節省90%

(觀傳媒編輯中心)【記者郭嘉/綜合報導】在 AI 應用日益普及的今天,成本控制成了企業最頭痛的問題之一。AWS 在 re:Invent 2024 大會上推出的 Amazon Bedrock Intelligent Prompt Routing 以及 prompt caching(提示詞快取)功能,就像是一位精明的 AI 管家,幫企業精打細算,讓 AI 應用不再是燒錢的無底洞。 ▲Amazon Bedrock 能幫企業省錢。(圖/品牌提供) Amazon Bedrock Intelligent Prompt Routing:AI 的智慧省錢術 想像你有一群能力各異的員工,有的擅長處理簡單任務,有的專門解決複雜問題。Amazon Bedrock Intelligent Prompt Routing 就像是一位超級主管,懂得根據每個問題的難度,自動分配給最適合的「模型」處理。透過先進的提示詞配對和模型理解技術,系統會預測每個請求對應的模型效能,並將請求動態分配至最可能以最低成本提供所需回應的模型。 舉個例子,當餐廳的語音客服系統收到「今晚有位子嗎?」這樣的簡單問題,系統會自動選用較小的模型處理;而面對「有哪些素食選擇?」這類需要詳細說明的問題,則會交給功能更強大的模型回答。這樣的智慧分配策略,讓企業最多可以節省 30% 的營運成本。 Prompt Caching:重複問題的最佳解方 Amazon Bedrock 的 prompt caching 功能就像是給 AI 裝了一個超強的記憶庫。當多位用戶詢問類似的問題時,系統不需要每次都重新運算,而是能夠直接調用之前的答案。這個看似簡單的功能,卻能為企業帶來驚人的效益:成本最多降低 90%,回應時間縮短高達 85%。 以 Adobe 的實際應用經驗為例,他們在 Acrobat AI 助理中導入 prompt caching 功能後,文件處理的回應時間減少了 72%。當多名用戶查詢文件中相似的內容時,系統可以快速提供答案,不只節省成本,更大幅提升了用戶體驗。 企業實戰案例:Argo Labs 的革新之路 Argo Labs 的應用案例完美展現了這兩項功能的威力。這家專門為餐廳提供語音客服解決方案的公司,透過結合 Intelligent Prompt Routing 和 prompt caching 功能,成功打造出經濟實惠又高效的 AI 客服系統。當客戶提出問題、預訂餐位時,系統能自動判斷問題類型,選擇最適合的模型回答,同時儲存常見問題的解答,創造出流暢的客戶體驗。 Amazon Bedrock 帶來的革新改變 這些新功能的推出,正在徹底改變企業使用 AI 的方式。過去企業在使用 AI 時,往往需要在效能和成本之間做出艱難的取捨。現在有了 Intelligent Prompt Routing 和 prompt caching,企業可以同時兼顧兩者,讓系統自動優化資源使用,在保持高品質服務的同時,大幅降低營運成本。 特別是對於中小企業來說,這些功能的意義更加重大。過去可能因為成本考量而對 AI 應用裹足不前,現在終於有機會以合理的價格導入 AI 技術,享受數位轉型帶來的優勢。 Amazon Bedrock 開啟 AI 經濟時代的大門 AWS 在 Amazon Bedrock 平台上推出的這些新功能,標誌著 AI 應用進入了一個更成熟的階段。透過智慧化的資源配置和優化,企業終於能夠以更合理的成本,享受 AI 技術帶來的便利。這不只是技術的進步,更是讓 AI 走向普及化的重要里程碑。 隨著 Intelligent Prompt Routing 和 prompt caching 功能的推出,我們可以期待看到更多企業加入 AI 應用的行列,為產業帶來更多創新和改變。AI 的未來,正變得越來越親民,越來越實用,而 AWS 的這些創新,正在為企業打開一扇通往 AI 經濟時代的大門。

文章來源 : 觀傳媒有限公司 發表時間 : 瀏覽次數 : 333 加入收藏 :
AWS 推出新一代 Amazon SageMaker,為數據處理、分析和 AI 提供統一平台

香港 - Media OutReach Newswire - 2024年12月11日 - Amazon Web Services(AWS)在 2024 re:Invent 全球大會上,宣布推出新一代 Amazon SageMaker,將客戶所需的快速 SQL 分析、PB 級大數據處理、數據搜索和整合、模型開發和訓練以及生成式人工智能(AI)等功能整合到一個平台上。 全新的 Amazon SageMaker Unified Studio 讓客戶能夠輕鬆搜尋和存取機構內所有數據,並整合 AWS 專門開發的分析、機器學習(ML)和 AI 功能,客戶可以透過 Amazon Q Developer 的協助,為各類常見數據用例選擇最合適的工具進行處理。 Amazon SageMaker Catalog 及其內建的治理功能確保授權人員以正確用途存取合適的數據、模型和開發組件。 全新的 Amazon SageMaker Lakehouse 整合了數據湖、數據庫、營運數據庫及企業應用程式中的數據,讓客戶可以輕鬆存取和處理 Amazon SageMaker Unified Studio 中的數據,並使用其熟悉的 AI 和 ML 工具或與 Apache Iceberg 相容的搜尋引擎。 全新的 zero-ETL 功能與領先的軟件即服務(SaaS)應用程式整合,讓客戶無需複雜的數據平台,即可在 Amazon SageMaker Lakehouse 和 Amazon Redshift 中存取第三方 SaaS 應用程式的數據,以進行分析或機器學習。 Adastra、Confluence、Etleap、idealista、Informatica、Lennar、Natera、NatWest Group、NTT Data、羅氏、Tableau、豐田北美公司等眾多客戶及合作夥伴已經在使用新一代 Amazon SageMaker,整合他們的數據、分析和 AI 項目。 AWS 數據與人工智能副總裁 Swami Sivasubramanian 博士表示:「分析和 AI 正在融合,客戶從歷史分析到 ML 模型訓練和生成式 AI 應用程式,都在以更緊密的方式連結及使用數據。為了支援這些工作負載,許多客戶已經在使用我們專門開發的分析和 ML 工具組合,例如,在處理數據和建構 ML 模型方面已成為業界標準的 Amazon SageMaker、Amazon EMR、Amazon Redshift、Amazon S3 數據湖和 Amazon Glue 組合。新一代 Amazon SageMaker 將這些功能整合,同時還加入多項令人期待的新功能,為客戶提供數據處理、SQL 分析、ML 模型開發和訓練以及構建生成式 AI 所需的完整工具。」 借助 Amazon SageMaker Unified Studio 更高效地協作和構建項目 現時已經有數十萬客戶在使用 Amazon SageMaker 構建、訓練和部署 ML 模型。許多客戶仍然依賴 AWS 專門開發的完整分析服務來支援各種工作負載,包括 SQL 分析、搜索分析、大數據處理及串流分析。越來越多客戶逐漸從獨立使用這些工具,轉向結合分析、ML 和生成式 AI 以獲取深度分析並為用戶提供新體驗。這些客戶將受惠於整合客戶熟悉的 AWS 分析、ML 和生成式 AI 工具的一個統一環境,不僅可以輕鬆存取他們的所有數據,還能與團隊或機構内的其他成員輕鬆協作處理數據項目。 新一代 Amazon SageMaker 新增一個統一的編輯器,為客戶提供單一的數據及 AI 開發環境,用戶可以從中搜尋和存取機構内所有數據,為各種常見的數據用例選擇最佳的工具,並將數據和 AI 項目擴展至團隊內,再透過不同分工實現協作。Amazon SageMaker Unified Studio 整合了在Amazon Bedrock、Amazon EMR、Amazon Redshift、Amazon Glue 及現有 Amazon SageMaker Studio 中,客戶喜歡使用的一系列獨立編輯器、搜尋及視覺化功能和工具,讓客戶可以輕鬆存取和使用這些功能發掘和準備數據、編寫查詢或程式碼、處理數據以及構建 ML 模型。Amazon Q Developer 全程協助各種開發任務,包括發掘數據、編碼、SQL 生成和數據整合等。例如,用戶可以向 Amazon Q 查詢:「我應該使用哪些數據來提升對產品銷售情況的了解?」或 「生成按產品類別計算總收入的 SQL。」用戶可以安全地發布數據、模型、應用程式和其他組件並與團隊或機構成員共享,從而提升數據資產的可見度和使用率。借助 Amazon SageMaker Unified Studio 中與 Amazon Bedrock 整合的開發環境(IDE),用戶可以使用 Amazon Bedrock 精選的高效能基礎模型和工具(例如Agents、Guardrails、Knowledge Bases 和 Flows),快速、輕鬆地構建和部署生成式 AI 應用程式。Amazon SageMaker Unified Studio 內置數據發掘、共享及管理功能,讓分析師、數據科學家和工程師可以輕鬆搜尋並找到合適用例的正確數據,同時套用所需的安全控制和權限管理,控制存取,以保障數據安全。 NatWest Group 是一家領先的英國銀行,為超過1900萬客戶提供服務,運用多種工具進行數據工程、SQL 分析、ML 及生成式 AI 工作負載。借助 Amazon SageMaker Unified Studio,NatWest Group 將為整個機構提供一個統一的環境以支援這些工作負載,預計用於數據用戶存取分析和 AI 功能的時間將減少50%,讓他們節省管理多個服務的時間,投入更多時間於創新客戶服務。 透過 Amazon SageMaker 數據和 AI 管理滿足企業安全需要 新一代 Amazon SageMaker 簡化了機構內的數據及 AI 的發掘、治理和協作。借助基於 Amazon DataZone 構建的 Amazon SageMaker Catalog,管理員可以採用具精準控制的單一權限管理模型,制定和執行一致的存取策略,讓跨團隊的數據工作人員可以安全地發掘和存取已獲批的數據和模型,這些數據和模型包含由生成式 AI 編寫的背景元數據。管理員可以輕鬆地制定和執行跨模型、工具和數據來源的權限管理,而定制的安全措施有助於確保 AI 應用程式的安全性和合規性。客戶還可以通過 Amazon SageMaker 中的數據分類、毒舌檢測(toxicity detection)、安全防護(guardrails)和負責任 AI 策略以保護其 AI 模型。 Amazon SageMaker Lakehouse 減少數據孤島並統一數據 現時已經有超過一百萬個數據湖構建在 Amazon Simple Storage Service(Amazon S3)上,讓客戶能整合數據資產,並透過 AWS 分析、AI 和 ML 工具創造價值。數據湖讓客戶能以原始狀態儲存數據,從而輕鬆組合來自多個來源的數據。客戶的數據可能分佈在多個數據湖及數據庫中,所以透過一種簡單的方式統一所有數據將能讓客戶受惠。 Amazon SageMaker Lakehouse,不論數據的儲存方式和位置都可以統一存取儲存在 Amazon S3 數據湖、Redshift 數據倉庫和聯合數據來源中的數據,減少數據孤島,讓查詢更便捷。借助 Amazon SageMaker 中與 Apache Iceberg 相容的全新數據湖倉功能,客戶可以在 Amazon SageMaker Unified Studio 中存取和處理他們的所有數據,並使用與 Apache Iceberg 開放標準相容的 AI 和 ML 工具以及搜尋引擎。現在,不論數據的儲存方式和位置,客戶都能使用他們偏好的分析和 ML 工具處理數據,以支援包括 SQL 分析、即時查詢、數據科學、ML 和生成式 AI 等用例。Amazon SageMaker Lakehouse 提供整合的精細存取控制,為 Lakehouse 中所有分析和 AI 工具中的數據提供一致的存取控制,客戶只需設定一次權限,即可在整個機構内安全地共享數據。 Roche 是一家在製藥和診斷領域的領先企業,致力於透過推動科學發展改善人類生活。Roche 將使用 Amazon SageMaker Lakehouse,在無需進行昂貴的數據遷移或重複設置安全存取控制的前提下,整合來自 Amazon Redshift 和 Amazon S3 數據湖的數據,以消除數據孤島,增強團隊之間的協作,並允許用戶無縫地運用數據。借助 Amazon SageMaker Lakehouse,Roche 預計可以減少40%的數據處理時間,讓團隊減少數據管理工作,投放更多精力於推動業務發展。 與 SaaS 應用程式結合的全新 zero-ETL,可快速、輕鬆地存取 SaaS 數據 企業要在營運中真正發揮數據價值,就需要在不論數據儲存位置的情況下無縫存取所有數據。這正是 AWS 不斷發展 zero-ETL 的原因。zero-ETL 讓數據整合不再是繁瑣的人工程序,客戶可以輕鬆地在需要的地方獲取數據。這包括 Amazon Aurora MySQL 和 PostgreSQL、Amazon RDS for MySQL 以及 Amazon DynamoDB 與 Amazon Redshift 提供的 zero-ETL 整合功能,讓客戶快速且輕鬆地在 Amazon Redshift 和 Amazon SageMaker Lakehouse 中存取常用關聯式和非關聯式數據庫的數據,並用於分析和 ML。除營運數據庫和數據湖以外,許多客戶還將關鍵企業數據儲存在 SaaS 應用程式中。若能輕易存取這些數據進行分析和 ML,將令客戶受惠。 透過與 SaaS 應用程式整合的全新 zero-ETL,客戶可以輕鬆地存取 Amazon SageMaker Lakehouse 中的 Zendesk 和 SAP 等應用程式以及 Amazon Redshift 中的數據,並用於分析和 AI。構建數據平台具挑戰性且成本高昂,加上數據平台的管理複雜,容易出錯,讓客戶無法及時獲得想要的分析,而此功能正正解決了對數據平台的需求。結合 SaaS 應用程式的 zero-ETL 包含數據同步、增量更新和刪除檢測以及目標 merge 的最佳實踐方式。 來自不同行業和規模的機構,包括 Infosys、Intuit 和 Woolworths,已經受惠於 AWS zero-ETL 的整合功能,無需構建和管理數據平台,即可快速且輕鬆地連接和分析數據。以線上房地產平台 idealista 為例,透過 SaaS 應用程式的 zero-ETL 整合功能,將可簡化數據擷取和擷入流程,無需透過多個平台存取儲存在第三方 SaaS 應用程式中的數據,讓他們的數據工程團隊能夠專注於從數據中獲得可執行的分析結果,而非耗費精力於基礎建設的建置和管理。 新一代 Amazon SageMaker 現已可用,Amazon SageMaker Unified Studio 目前已經推出預覽並很快可用。 如欲了解更多資訊,請瀏覽以下網站: AWS New Blog,了解此次發佈的更多細節。 Amazon SageMaker 頁面,了解有關該服務的更多資訊。 Amazon SageMaker Unified Studio 頁面、 Amazon SageMaker數據和AI治理頁面以及Amazon SageMaker Lakehouse 頁面,可了解企業如何使用這些功能。 Amazon re:Invent 頁面,獲取關於 AWS re:Invent 活動的詳細資訊。 Hashtag: #AmazonWebServices #AWS發佈者對本公告的內容承擔全部責任關於 Amazon Web Services自 2006 年來,Amazon Web Services 一直在提供世界上服務最豐富、應用廣泛的雲端服務。AWS為客戶提供超過 240 種功能全面的雲端服務,包括運算、儲存、數據庫、網絡、分析、機器學習與人工智能、物聯網、流動、安全、混合雲、媒體,以及應用開發、部署和管理等方面,遍及 34 個地理區域內的 108 個可用區域(Availability Zones),並已公布計畫在墨西哥、紐西蘭、沙特阿拉伯和泰國等建立 6 個 AWS 地理區域、18 個可用區域。AWS 的服務獲得全球超過百萬客戶的信任,包括發展迅速的初創公司、大型企業和政府機構。通過 AWS 的服務,客戶能夠有效強化自身基礎設施,提高營運上的彈性與應變能力,同時降低成本。欲了解更多有關 AWS 的資訊,請瀏覽:https://aws.amazon.com。

文章來源 : Media OutReach Limited 發表時間 : 瀏覽次數 : 457 加入收藏 :
AWS Amazon Q Developer:借助生成式 AI 重塑軟件開發及營運

Amazon Q Developer 作為強大的生成式 AI 軟件開發助手,現已支援加速單元測試、文件生成、程式碼審查,以及營運過程的疑難排解,讓開發者專注更具創造力和有價值的工作上香港 - Media OutReach Newswire - 2024 年 12 月 10 日 - Amazon Web Services(AWS)在 2024 re:Invent 全球大會上,宣布推出 Amazon Q Developer 一系列創新的強化功能,包括能實現自動執行單元測試、文件生成和程式碼審查流程的智能代理,有助大幅提升開發人員在整個軟件開發流程中的效率,並協助用戶解決營運上遇到的難題。Amazon Q Developer 是一款針對軟件開發而設的強大生成式人工智能(AI)助手,滿足開發人員任何場景的需要,包括透過這次與 GitLab 全新整合的 Amazon Management Console,以及各類整合式開發環境(IDE)等。 Amazon Q Developer 能夠自動識別並生成單元測試,透過全面的測試覆蓋,協助開發人員更快辨別問題並提升程式碼可靠性,大幅節省時間。 開發人員現可使用 Amazon Q Developer 生成及定期更新所有文件,隨時掌握專案項目的最新資訊。同時,Amazon Q Developer 讓他們能快速熟習新程式碼,為團隊成員擷取關鍵的專案項目細節,並提升舊文件的可讀性。 Amazon Q Developer 具備自動檢查程式碼品質、查重和識別安全漏洞的能力,從而簡化程式碼審查流程。它能夠迅速向開發人員提供回饋,讓開發人員在當前工作流程下,加速部署高品質的程式碼。 建基於 AWS 豐富的營運經驗及對企業和機構雲端資源關係的深入理解,Amazon Q Developer 現在可以協助不同經驗水平的用戶,以更短的時間調查並解決在 AWS 環境中遇到的營運問題,確保企業的應用程式正常運行。 埃森哲、Amazon Kindle、Amazon Prime Video、Amazon Music、Boomi、BT Group、Cedar Gate Technologies、德勤、FINRA、Genesys、Netsmart、培生、SmugMug 以及 Tata Consultancy Services 等眾多企業亦正使用 Amazon Q Developer 提高開發人員的工作效率,並能更快地解決營運上遇到的挑戰。 AWS 下一代開發者體驗副總裁 Deepak Singh 表示:「Amazon Q Developer 正從根本上改變開發人員的工作方式,它將提升各類軟件開發任務的速度高達 80%。Amazon Q Developer 的程式碼接受率在所有多行程式碼編碼助手中居於首位,其程式碼安全掃描的性能亦超越市場領先的公開基準工具。Amazon Q Developer 的自主代理功能更是憑藉其卓越的準確性,在 SWE-bench Verified 的排行榜上居於首位。正是基於這些優勢,我們的客戶正利用 Amazon Q Developer 在軟件開發週期各階段提高開發人員的生產力。透過這次的發布,我們將應用程式構建與運行過程中最為繁瑣和耗時的任務實現自動化處理,消除軟件開發中的瑣碎工作,從而充分發揮每位開發人員的影響力。」 在短時間內獲得更好的測試覆蓋率 編寫單元測試對於保障程式碼按預期運行,並及早發現潛在問題至關重要。然而,開發人員在全面實施程式碼測試時往往面臨繁瑣且耗時的挑戰。這種狀況常常導致開發人員為追求速度而犧牲了全面的測試覆蓋率,這不僅增加程式碼部署後昂貴的轉返(rollbacks)風險,而且可能影響客戶體驗。儘管生成式 AI 助手能輔助這一過程,但仍然需要開發人員投入時間進行逐步指導。為了進一步減輕開發人員的負擔,Amazon Q Developer 現已推出自動識別並生成單元測試程式碼的功能,大幅減少開發人員的工作量,並實現完整的測試覆蓋率,這不僅確保程式碼的可靠性,也加快交付功能的時間。 生成測試程式碼從此變得更簡單。在整合式開發環境(IDE)中,開發人員只需在 Amazon Q Developer 的聊天視窗中輸入「/test」命令,或在選擇相關程式碼塊後右鍵選擇「test」選項即可。Amazon Q Developer 將基於其對整個項目的深入理解,自動識別並生成相應的測試用例,並將這些測試無縫整合到項目中,從而協助開發人員快速驗證程式碼的運作是否符合預期。在 GitLab 中,開發人員可利用「/q test」快捷操作使用 Amazon Q Developer,透過提出這項合併請求自動生成程式碼測試,這項功能能大幅節省時間並提升整個團隊的測試覆蓋率。透過消除編寫單元測試程式碼所需的大部分工作,Amazon Q 讓開發人員有更多時間專注於編寫程式碼,同時確保覆蓋開發人員所需的範圍,以維持程式碼的品質。 各種規模的企業開發人員正使用 Amazon Q Developer 快速獲得更好的測試覆蓋率。Boomi 是一家雲端整合和自動化平台,他們的開發人員透過使用 Amazon Q Developer,預計減少 25% 的手動測試時間,提升測試覆蓋所需的速度達 20%,並在開發週期的早期階段就能發現並修復更多漏洞,這將加速人工主導的最終審查流程。Boomi 利用 Amazon Q Developer 提升開發效率和程式碼品質,並透過優化流程成功節約 15% 的開發成本。Tata Consultancy Services 正使用 Amazon Q Developer 全面加速他們軟件發展生命週期,使開發人員能夠更快地(速度提升高達30%)生成更為全面、精準的上下文感知的單元測試,確保了程式碼的穩健性、韌性和可靠性。德勤通過採用 Amazon Q Developer 自動識別和生成單元測試,比手動顯著縮短測試時間,讓開發團隊能更快完成測試覆蓋,交付更高品質的程式碼,從而可以更快為其客戶推出新的解決方案。總括而言,德勤的開發人員在堅守嚴格安全標準的前提下,開發速度提升 30%。 生成和定期更新軟件文件,確保其準確性和時效性 開發人員在編寫程式碼和測試階段過後,往往需要編寫軟件文件來闡述程式碼的功能與運行機制。隨著專案項目規模擴大,軟件文件的定期更新往往變得困難且容易被忽略,這導致新的開發人員需要耗費大量時間自行理解程式碼的運行機制。為減輕開發人員的負擔,Amazon Q Developer 現已推出自動生成和即時更新軟件文件的功能,令開發人員能輕鬆地定期更新準確、詳盡的專案軟件文件資訊。如今,開發人員無須中斷編寫程式碼的過程,以詳細記錄程式碼的運作原理,從而將更多時間投入到專案項目工作中。同時,Amazon Q Developer 有助提升整個開發團隊的效率,因為團隊成員無需再花費大量時間研究一段程式碼的功能,而可以更加專注地投入到項目中,為項目帶來更具意義的創新。 開發人員如今能夠在整合式開發環境(IDE)中,或是透過 GitLab 整合式產品輕鬆編寫軟件文件。開發人員要使用該功能非常簡單,只需在 IDE 的聊天視窗輸入「/doc」,即可自動生成和更新他們現有的 README 檔。為了加快對程式碼的理解,開發人員可以直接向 Amazon Q 提問,了解程式碼的具體運作方式,或利用它來提升現有軟件文件的可讀性,從而幫助團隊成員更輕鬆地理解程式碼。Amazon Q Developer 還會提供軟件文件的修改建議,確保開發人員能準確地更新軟件文件。 Genesys 是一家提供由 AI 驅動的編排服務的全球化供應商,並計畫使用 Amazon Q Developer 來提升其現有軟件文件的精確度和可讀性。他們希望能將新加入的開發人員掌握陌生程式碼的速度提升四倍,並使公司內部能更高效地協作。同時,通過與 Amazon Q Developer 的其他智能代理功能相結合,如自動單元測試、功能開發和程式碼查核,Genesys 有望提升開發人員的生產力超過 30%。電子健康記錄和解決方案供應商 Netsmart 透過使用 Amazon Q Developer 自動編寫軟件文件的功能,使其工程師能以更少的工作量保持項目細節的準確性,並且能夠將工程師熟習項目的時間縮短最多一周。Netsmart在採用 Amazon Q Developer 改善開發流程的多個環節後,其程式碼建議接受率已達至 35%,效率預計將持續提升。 透過程式碼審核自動化,部署更高品質的程式碼 程式碼部署前往往需要另一位開發人員對程式碼進行細緻查核,確保其符合企業要求的品質、風格與安全標準。這一過程可能要開發人員花費數天時間等待回饋並反復修改,且由於通常只有一位審查員參與,難免間中遺漏潛在的重大問題。為提升效率並盡早識別更多潛在漏洞,Amazon Q Developer 推出自動程式碼查核功能,協助開發人員及時獲取回饋,並根據最佳工程標準保障程式碼的品質。 Amazon Q 透過初次查核,可協助開發人員盡早發現並解決程式碼品質問題,從而大幅減少後續審核所需的時間。開發人員要啟動查核流程,僅需在 IDE 的聊天介面輸入「/review」,Amazon Q 便能迅速標記可疑的程式碼編寫模式,識別開源軟件套裝的風險,並評估修訂更新投入服務後可能帶來的影響。此外,Amazon Q 能根據開發人合併請求的背景資訊調整其建議,確保建議能夠配合開發人員的編程風格和偏好。在開發人員審核合併請求時,可通過 GitLab Duo 配合 Amazon Q 調用「/q review」,輕鬆獲取回饋並進一步簡化程式碼的審核流程。 Amazon Prime Video 的開發團隊遵循嚴格的程式碼審查流程,以確保符合客戶所期望的高品質和可用性標準。Amazon Q Developer 的自動程式碼查核功能可以幫助開發人員審核所有程式碼和合併請求,這讓開發人員能夠在同濟審核前開發更高品質的程式碼,顯著減少程式碼轉返及修訂,從而加速工作週期。Prime Video 為 Amazon Q Developer 的早期使用者,其開發團隊每週節省大量時間,其中部分開發人員採納超過 50% 的程式碼建議。通訊服務供應商 BT Group 的開發人員現在能夠全天候使用 Amazon Q Developer 獲取即時的程式碼回饋,讓他們能以更快的速度開發並交付更穩定和安全的程式碼。在早期使用階段,BT Group 的開發人員就發現程式碼查核助理極具價值,它不僅能夠識別出潛在的品質與安全風險,還能提供問題分析及修復建議,以確保程式碼按預期運行。總括而言,BT Group 自使用 Amazon Q Developer 以來,其程式碼接受率達到 37%,並在使用 Amazon Q Developer 的四個月內將約 12% 的繁瑣、耗時的工作自動化。 迅速應對營運挑戰 當應用程式編寫完畢並投入服務後,營運團隊便需監察運行狀況、反覆調整及解決問題,以確保其性能符合預期標準。一旦遇到問題,營運團隊需迅速恢復應用程式的正常運行,減少對客戶的影響。然而,這是一個反覆試驗的過程,可能需要數小時手動篩選大量資料,以識別並修復問題。憑藉 AWS 超過17年營運全球廣泛且可靠的雲端運算基礎設施的豐富經驗,Amazon Q Developer 有效協助不同經驗水平的營運和開發人員,在極短時間內對他們在 AWS 環境中深入調查並解決營運問題。 當 Amazon CloudWatch 發出警報後,Amazon Q Developer 便會自動啟動調查流程。憑藉其對企業使用 AWS 資源的深入了解,包括 Amazon CloudWatch、Amazon CloudTrail、Amazon Health 和 Amazon X-Ray 等,它能快速篩選數十萬個數據節點,分析各項服務功能之間的關係,並通過了解它們如何協同運作以識別相關信號中的異常。經過分析後,Amazon Q 將向用戶提供問題根源的潛在假設,並引導用戶解決 — 這些功能組合是其他主要雲端服務供應商無法比擬的。在可行的情況下,Amazon Q Developer 還能展示操作手冊,並在獲得用戶批准後自動執行。由於 Amazon Q Developer 承擔繁重的調查工作,用戶可以更快地解決問題,從而節省大量時間,專注於更具策略意義的工作上。 用戶在檢測到系統表現異常時,例如延遲激增或日誌中顯示用戶執行錯誤,即可啟動調查。用戶可以通過在 Amazon Management Console 選擇「調查」選項,或使用 Amazon Q 聊天工具詢問有關其 AWS 資源的問題,如「My Amazon Lambda function is running slow. What is wrong with it?(我的 Amazon Lambda 函數似乎運行緩慢,哪裡出了問題?)」。在整個調查過程中,Amazon Q 將在 Amazon CloudWatch 中匯報所有分析、用戶操作記錄以及後續建議,以便團隊協作與共同學習,從而有效防範未來潛在的問題。 憑藉 AWS 比其他主要雲端服務供應商更豐富的營運經驗和龐大規模,Amazon Q Developer 為客戶提供基於這些專業知識的深入見解和解決指導方案,助客戶實現更高效的營運。照片管理平台 SmugMug 將運用 Amazon Q Developer 自動分析系統指標、日誌和營運事件,使他們能夠在 20 分鐘內診斷出大多數問題,診斷速度提升了 50%。SmugMug 透過減少日誌手動搜索從而提升營運效率,讓團隊成員能夠將更多的時間和資源投入到平台構建中,協助攝影師發展他們的網店。在 Amazon,Kindle 的技術支援工程師採用 Amazon Q Developer 的營運調查功能後,解決問題的速度提升 65-80%,這使他們能夠更迅速地回應客戶需求,確保提供卓越的用戶體驗。Amazon Music 的開發人員將 Amazon Q 視為全天候的得力助手,它能夠自動調查並識別各種潛在問題,極大提升回應速度。初期的使用資料顯示,Amazon Music 的問題解決速度提高一倍,確保用戶能夠不間斷地享受他們喜愛的音樂。醫療健康技術提供商 Cedar Gate Technologies 通過使用 Amazon Q Developer 將營運的根源問題分析時間從原先的兩個小時大幅縮短至大約 30 分鐘,加快調查和解決問題的速度,確保其醫療業的客戶無間斷地為患者提供重要的護理服務。 這一系列全新的代理功能現已在整合式開發環境 IDE 中開放使用,用戶亦可透過與 GitLab 整合的新產品預覽使用,而全新營運功能目前處於預覽階段。 如欲了解更多資訊,請瀏覽以下網站: Amazon News Blog,深入了解此次發布的三個新功能及新營運能力。 Amazon Blog 了解更多關於 GitLab Duo 和 Amazon Q 的資訊。 Amazon Q Developer頁面,了解更多功能。 Amazon re:Invent頁面,獲取關於 AWS re:Invent 活動的詳細資訊。 Hashtag: #AmazonWebServices #AWS發佈者對本公告的內容承擔全部責任關於 Amazon Web Services自 2006 年來,Amazon Web Services 一直在提供世界上服務最豐富、應用廣泛的雲端服務。AWS為客戶提供超過 240 種功能全面的雲端服務,包括運算、儲存、數據庫、網絡、分析、機器學習與人工智能、物聯網、流動、安全、混合雲、媒體,以及應用開發、部署和管理等方面,遍及 34 個地理區域內的 108 個可用區域(Availability Zones),並已公布計畫在墨西哥、紐西蘭、沙特阿拉伯和泰國等建立 6 個 AWS 地理區域、18 個可用區域。AWS 的服務獲得全球超過百萬客戶的信任,包括發展迅速的初創公司、大型企業和政府機構。通過 AWS 的服務,客戶能夠有效強化自身基礎設施,提高營運上的彈性與應變能力,同時降低成本。欲了解更多有關 AWS 的資訊,請瀏覽:https://aws.amazon.com。

文章來源 : Media OutReach Limited 發表時間 : 瀏覽次數 : 447 加入收藏 :
2024 年 12 月 13 日 (星期五) 農曆十一月十三日
首 頁 我的收藏 搜 尋 新聞發佈