エージェントがゲームのルールを変える、Amazon クラウドテクノロジーの生成 AI により、基本モデルがワークフローを高速化

最近、Stability AI は次世代 Vincent グラフ モデルを正式にリリースしました — Stable Diffusion XL 1.0 このバージョン 1.0 は、Stability AI の主力グラフ モデルであり、最も先進的なオープンソース グラフ モデルです。

現在オープンされている画像モデルの中で、SDXL 1.0 には最も多くのパラメータがあります。公式発表によれば、今回は新たなアーキテクチャが採用されており、基本モデルのパラメータ規模は35億に達し、パラメータサイズ66億のリファインモデルも存在するという。そして、このような強力な画像生成モデルは、Amazon Cloud Technology Amazon Bedrock でワンクリックですでにアクセスできるようになりました。

ベーシックモデルがフルアップデート

つい先週、Amazon Cloud Technology は新しい基本モデルを大規模にリリースしました。先ほど述べた SDXL 1.0 に加えて、Amazon Bedrock は Cohere ベースモデルと ChatGPT の最強の競合相手である Anthropic の Claude 2 のサポートも追加しました。

ecf21220f48b4138aba051de60749e5a.png

 

Cohere によって開発された大規模な言語モデルである Command は、ユーザーのパーソナライズされたコマンドによってトレーニングできるモデルであり、テキスト検索、テキスト分類、テキスト生成という 3 つの主要な AI 機能の提供に重点を置いています。さらに、Anthropic が起動した Claude 2 の処理能力は 100,000 トークンに更新されました。以前のバージョンと比較して、クロード 2 は数学、コード、推論能力が大幅に向上しました。同時に、開発者は機械学習センターである Amazon SageMaker Jumpstart を使用して、ワンクリックでさまざまな人気のオープンソースモデルを開発することもできます。たとえば、世界最大のオープンソース コミュニティ Hugging Face がホストする Meta の最新の Llama 2、Falcon、Flan などです。

 

エージェントがゲームのルールを変える

ただし、基本モデルはさまざまなタスクにおいて強力な汎化能力を備えていますが、アプリケーション シナリオが継続的に拡張されるため、モデル自体だけで一部の複雑なタスクを完了することが困難になります。少し前に AutoGPT が爆発的に普及したことで、学術界と産業界に、大規模な言語モデルを統合するエージェントという新しい探求の方向性が与えられました。

要約すると、エージェントは最も単純な形式でループを実行でき、各反復で自律的な命令と操作を生成します。その結果、会話のガイドを人間に依存する必要がなくなり、拡張性も高くなります。

Amazon クラウドテクノロジーもこの分野で独自の探求を行い、新しい Amazon Bedrock Agents を革新的に提案しました。Amazon Bedrock が提供するエージェント機能に基づいて、開発者はさまざまな生成 AI アプリケーションを簡単に作成して、複雑なタスクを完了し、独自の知識ソースに基づいて最新の回答を提供できます。以前は実装に数時間のコーディングが必要でしたが、今では数回クリックするだけで済み、エージェントは手動でコーディングすることなく自動的にタスクを分解し、計画を作成できます。このようにして、生成 AI アプリケーションを数分で作成できます。

では、Amazon Bedrock Agents を使用すると、どのようにして基礎となるモデルのワークフローを高速化できるのでしょうか? 具体的には以下の4つのステップに分かれます。

● ステップ 1: 複雑なタスクを複数のステップに分解するための指示とオーケストレーションを定義する

● ステップ 2: 取得拡張生成 (RAG)、企業データと対話するように FM を構成する

● ステップ 3: インタラクションを完了し、API 呼び出しを実行してユーザーのリクエストを満たす

● ステップ 4: クラウドで安全にホストする

Amazon Bedrock Agent は、シンプルな API を通じて企業データにリンクし、それを機械可読形式に変換して、正確な応答を生成できます。次に、ユーザーのリクエストに応じて API を自動的に呼び出します。

 

Nvidia H100最強の祝福

ただし、基本モデルのパフォーマンスが継続的に向上することで、数百兆ものパラメータがもたらされます。この複雑さの急増により、モデルのトレーニングと微調整にかかる時間も大幅に増加します。最新の LLM はトレーニングに数か月かかります。一方、HPC 分野でも同様の傾向が現れています。精度の向上により、ユーザーが収集したデータセットはエクサバイトレベルに達しました。高性能でスケーラブルなコンピューティング能力の需要を満たすために、Amazon Cloud Technology は、Nvidia の最も強力な GPU-H100 を搭載した新しい Amazon Elastic Compute Cloud (EC2) P5 インスタンスを開始しました。

Amazon EC2 P5 インスタンスは、前世代と比較してトレーニング時間を最大 6 倍 (数日から数時間) 短縮するだけでなく、トレーニング コストも最大 40% 削減します。具体的には、Amazon EC2 P5 インスタンスには、合計 8 個の NVIDIA H100 Tensor Core GPU が搭載されており、640 GB の高帯域幅 GPU メモリに加えて、第 3 世代 AMD EPYC プロセッサ、2 TB のシステムメモリ、30 TB が搭載されています。ローカル NVMe ストレージ、最大 3200 Gbps の合計ネットワーク帯域幅。

質問応答システム、コード生成、ビデオと画像の生成、音声認識など、最も要求の厳しい計算集約型の生成 AI アプリケーションを強化する完全に構成されたパフォーマンス。ますます複雑になる LLM および CV モデルのトレーニングと実行に最適です。

新しい Amazon EC2 P5 インスタンスに基づいて、ユーザーは以前はアクセスできなかった問題を調査し、解決策をより迅速に繰り返すことができます。さらに、大規模かつ低レイテンシーに対するユーザーのニーズを満たすために、Amazon Cloud Technology は、Amazon EC2 P5 インスタンスを搭載した第 2 世代 EC2 UltraClusters も発売しました。クラウド内で最大規模の ML インフラストラクチャとして、EC2 UltraCluster は、20,000 個を超える NVIDIA H100 GPU にわたって、低レイテンシで最大 20 エクサフロップスの総コンピューティング能力を提供します。

 

モデルに「外部脳」を挿入する

エージェントの構築から、リアルタイム データを取得するには、大規模モデルに基づいて構築されたすべてのアプリケーションを RAG 上に構築する必要があることがわかります。そしてこのテクノロジーは、ベクトル データベースが AI アプリケーションで重要な役割を果たすための基礎となります。

Amazon Cloud Technology Summit では、Amazon OpenSearch サーバーレス ベクトル エンジンが初めて発表されました。このツールを通じて、開発者はベクトル データベースを簡単に使用して、大規模なモデルに基づいた検索エクスペリエンスを迅速に構築できます。全体として、Amazon OpenSearch サーバーレス ベクトル エンジンは、シンプルでスケーラブルで高性能のベクトル ストレージと検索機能を導入しています。開発者は、さまざまな ML モデル (Amazon BedRock によって提供されるモデルを含む) によって生成された数十億のベクトル埋め込みをミリ秒単位の応答時間で迅速に保存およびクエリできます。

現在、生成 AI が爆発的に普及しており、あらゆる垂直分野の企業がこのブームに注目し、高度な対話を統合して AI アプリケーションを生成することで、ユーザー エクスペリエンスを変え、デジタル プラットフォームと対話する方法を模索しています。Amazon Cloud Technologies のこのツールは、ベクトル埋め込みの使用を通じて ML 検索と生成 AI を強化します。

ベクトル埋め込みはユーザーのプライベート データに基づいてトレーニングされ、情報の意味論的および文脈上の特性を表すことができます。これには、結果を統合するために外部データ ソースや他のアプリケーション コードに依存することなく、ユーザーのクエリを時間内に処理して最も近いベクトルを見つけ、それを他のメタデータと組み合わせることができるという利点があります。

ベクトル エンジンは Amazon OpenSearch サーバーレス上に構築されているため、バックエンド インフラストラクチャのサイズ、調整、拡張について心配する必要がないことは注目に値します。すべてのデータは Amazon Simple Storage Service (Amazon S3) に保存されます。ベクターの数がプロトタイプ作成時の数千から本番環境の数億以上に増加すると、ベクター エンジンはインフラストラクチャを拡張するためにデータのインデックスを再作成したり再ロードしたりすることなく、シームレスに拡張します。

さらに、ベクター エンジンはインデックス作成と検索ワークロードに対して独立した計算を提供するため、開発者はユーザー エクスペリエンスがクエリ パフォーマンスの影響を受けないようにしながら、ベクターをリアルタイムでシームレスに取り込み、更新、削除できます。Vector Engine による Amazon OpenSearch Serverless のサポートにより、開発者は、ベクトル データベース インフラストラクチャを管理することなく、機械学習で強化された検索エクスペリエンスと生成 AI アプリケーションを構築するための、シンプルでスケーラブルな高性能ソリューションを手に入れることができます。

 

世界的な生成 AI リーダー

データ量の爆発的な増加、拡張性の高いコンピューティング能力の利用可能性、機械学習テクノロジーの進歩により、生成 AI はあらゆる業界を変えるのに十分です。そのため、最新テクノロジーをいち早く導入して価値を創出したいと考える企業が増えています。適切なモデルを選択し、企業データを使用して安全にカスタマイズし、アプリケーションに統合することは、多くの時間がかかり、高度な専門知識が必要な複雑なプロセスです。正確に言えば、Amazon クラウドテクノロジー Amazon Bedrock はこのプロセスを簡素化し、シンプルな API を介してファーストクラスの基礎モデルにアクセスします。

フルマネージドサービスである Amazon Bedrock Agents を使用すると、開発者は生成 AI ベースのアプリケーションを簡単に作成して、さまざまなユースケースの複雑なタスクを完了できます。その中でも、Vector Database は、開発者のアプリケーションがリアルタイムでデータを保存し、情報を適時に呼び出し、より良いユーザー エクスペリエンスを提供するのに役立ちます。Amazon EC2 P5 インスタンスは、モデルのトレーニングにかかる​​時間と計算能力を大幅に節約します。上記のイノベーションに基づいて、Amazon Cloud Technology が生成 AI のエンドツーエンドのリーダーであり、企業開発者が生成 AI の可能性を解き放ち、価値を生み出すのを支援していることを真に実証しています。

同時に、Amazon Cloud Technology は生成 AI の敷居を下げ続けており、GenAI の包括性に取り組むリーダーでもあります。

少し前に、Amazon Cloud Technology は、基礎となる基本モデルを使用して開発者の作業効率を向上させることができるプログラミング アシスタント Amazon CodeWhisperer の利用可能性を発表したばかりです。IDE (統合開発環境) で自然言語と履歴コードを使用して、開発者が残したコメントに基づいてコードの提案をリアルタイムで生成できます。

今回、Amazon CodeWhisperer は初めて Amazon Glue Studio Notebooks と統合され、ユーザーのエクスペリエンスを最適化し、開発効率を向上させることができます。Amazon Glue Studio ノートブックを使用すると、開発者は特定の言語でタスクを作成し、Amazon CodeWhisperer はタスクを完了できる 1 つ以上のコードスニペットを推奨します。

Amazon CodeWhisperer は、Amazon Lambda や Amazon Simple Storage Service (Amazon S3) などの最も一般的に使用される API 向けに最適化されており、アプリケーションを構築する開発者にとって優れたコーディング コンパニオンとなります。さらに、Amazon Cloud Technology では、開発者が生成 AI を使用できるようにするための 7 つの無料スキル トレーニング コースも提供しています。その中で、彼らはWu Endaと協力して、新しいコース「Building Generative AI with Large Language Models」を立ち上げました。

●医療分野でも応用されています。

今年の大規模な AI モデルの波は、人々が医療業界での生成 AI の応用を模索するきっかけにもなりました。医療業界での AI の応用については、Amazon Cloud Technology も行動を起こし、ヘルスケア ソフトウェアプロバイダー向けの新しいサービスである Amazon HealthScribe をリリースしました。

Amazon HealthScribe は、生成 AI と音声認識を使用した機械学習モデルを使用して臨床文書の作成を自動化し、臨床医が患者との会話を文字に起こして分析するのを支援します。自然言語処理機能により、会話から薬や病状などの複雑な医療用語を抽出することもできます。病歴、ポイント、医師の診察を受ける理由などがすべてわかります。Amazon HealthScribe の AI 機能は Amazon Bedrock を利用しており、ユーザーは事前トレーニングされたモデルを通じてスタートアップや Amazon 自体から生成 AI を構築できます。

Amazon Cloud Technology は、世界的なクラウド コンピューティングの先駆者として、現在の AI の波における生成人工知能の可能性と重要性を認識していると言えます。生成 AI は、あらゆるアプリケーション、あらゆるビジネス、さらにはあらゆる業界を変革することができます。データ処理、コンピューティング能力、機械学習の進歩により、多くの企業の実験から展開への移行が加速しています。

Amazon Bedrock などのサービスや業界リーダーとのパートナーシップを通じて、同社は生成人工知能へのアクセスを民主化しています。Amazon クラウドテクノロジーは、継続的なイノベーションに基づいて、開発者と世界がエクスペリエンスを再考し、最高の製品を実現できるようにしています。

おすすめ

転載: blog.csdn.net/m0_66395609/article/details/132102724