エージェント開発には小さな一歩、大規模なモデルの適用には大きな一歩

https://www.sohu.com/a/708426242_425761
チャット GPT で出発する大型モデルは間違いなく今年上半期で最もホットなコースです GPT-4 のリリースにより、大手インターネット巨人、テクノロジー企業などが. がゲームに参加しました。国内市場ではここ数カ月で大型モデルが集中的に登場している。

ChatGPT は大規模モデルの開発における重要なマイルストーンであり、AI を時代の中心に押し戻し、新たなデジタル テクノロジー競争の頂点となったと言わざるを得ません。

「数百のモデルの戦い」が激化する中、OpenAI 創設メンバーのアンドレイ・カルパシーは反対側に注意を向けた - エージェント

「新しいエージェントの論文が発表されるたびに、チームは興奮して真剣に議論します。
皆さん(開発者)は全員エージェント開発の最前線にいますが、OpenAI にはこの分野での蓄積がほとんどありません。」
OpenAI In の創設メンバー、Andrej Karpathy 氏は次のように述べています。ハッカソンのスピーチで彼は、大規模モデルのトレーニングと比較して、OpenAI は現在、エージェント分野により多くの注目を集めていると述べました。

エージェントとは何ですか?

大規模モデルのコンテキストでは、複雑なタスクを自律的に理解、計画、実行できるシステムとして理解できます。

AutoGPTやBabyAGIに代表される技術実証プロジェクトは今年4月に一時流行しましたが、本格的なビジネス応用にはまだ遠い状況です。

現在、エージェントの爆発的な第 2 ラウンドが進行中です。これは、シナリオとより緊密に統合されたアプリケーションの新しいラウンドによって特徴付けられます。

当然のことながら、最初に行動を起こしたのはプログラミングおよび開発業界でした。

最近人気のあるオープン ソース プロジェクト スイープ は、GitHub の Issue および Pull Request シナリオと直接統合されており、バグ レポートや機能リクエストを自動的に「スイープ」し、対応するコードを直接完成させます。

スタートアップの中には、OpenAI がサポートする Cursor コード エディターもあります。これは、コード生成を、プロジェクト フレームワーク全体を 1 つの文で生成するレベルにまで高めます。

次に、Agent は新たな出発点となり、あらゆる分野で新世代の AI アプリケーションを構築するために不可欠なコンポーネントになります。

この点に関して、スタートアップ Seednapse AI の創設者は、AI アプリケーションを構築するための 5 層の基礎理論を提案し、業界で注目を集めました。

★ Models は、私たちがよく知っている大規模なモデル API です。

★ プロンプト テンプレート、ユーザー入力に適応するためにプロンプ​​トの単語に変数を導入するプロンプト テンプレート。

★ チェーン、モデルへのチェーン呼び出し。前の出力が次の入力の一部になります。

★ エージェントは独立してチェーンコールを実行し、外部ツールにアクセスできます。

★マルチエージェント、複数のエージェントがメモリの一部を共有し、互いに独立して連携します。

起業家の先駆者に加えて、AI インフラストラクチャの巨人さえもエージェントに取り組み始めています。

たとえば、ニューヨークで開催された Amazon Cloud Technology Summit で発表された Amazon Bedrock Agents の新機能は、この傾向を最もよく表したものです。

フルマネージドの基本モデル サービスに基づいて、Amazon Bedrock Agents は、複数のエージェントの開発、デプロイ、管理の機能もパッケージ化し、統合します。

前述の 5 層基礎理論に従えば、この種のサービスは 5 層目から直接開始することと同等となり、開発の敷居が大幅に下がります。

Amazon Cloud Technology は記者会見で次のように説明しました。

☞ 数回クリックするだけでタスクを実行できる生成 AI アプリケーションを作成します。

しきい値を下げたエージェント アプリケーションもあらゆる分野で爆発的に普及することが予測されます。

AI アプリケーションの新時代の出発点であるエージェント

エージェント アプリケーションとしてカウントされるものは何ですか? OpenAI の中国科学者 Weng Lilian 氏は、直感的な「レシピ」を次のように教えてくれました。

☞エージェント = 大規模モデル + メモリ + アクティブな計画 + ツールの使用

Amazon クラウド テクノロジー プラットフォームを例に挙げると、エージェント アプリケーションを開発するときは、まず特定のタスク シナリオに基づいてエージェントの適切な基本モデルを選択する必要があります。

Amazon Bedrock は、独自の大型モデルである Amazon Titan に加え、セキュリティと制御性に優れた Anthropic、概要情報の取得に優れた Cohere、Vincentian グラフに特化した Stability.ai など、さまざまなモデルをまとめています。

選択後、エージェントが果たすべき役割と達成すべき目標を理解できるように、実行するタスクの指示を言葉で直接説明します。

指示は、一連の「質問-思考ステップ-行動ステップ-例」を含むプロンプトワードで構成でき、ReAct (協調推論と行動) テクノロジーのサポートにより、基本モデルは推論と意思決定を通じて対応する解決策を見つけることができます。

次のハイライトはアクション グループの追加です。

エージェントによって実行される特定のタスクと、エンタープライズ システム API、Lambda 関数などの使用できるツールがここで設定されます。

公式デモは、保険請求管理シナリオです。このシナリオでは、代理店が未処理の請求のリストを抽出し、各請求の未処理の書類を特定し、保険契約者にリマインダーを送信することによって保険請求を管理します。

すべてのアクション グループを設定したら、エージェントの作成と展開を数回クリックするだけで完了できます。

導入が完了すると、テストで、エージェントがユーザーのリクエストを理解し、タスクを複数のステップに分割し (未処理の保険金請求の収集、保険金請求 ID の検索、リマインダーの送信)、対応する操作を実行することがわかります。

Amazon Bedrock は、ウィザードベースのインタラクティブなインターフェイスを通じて、基本モデルの設定に必要なコーディングの労力を軽減します。

アクション グループは、API を呼び出して特定の機能を実装したり、独自のデータを使用して差別化されたアプリケーションを構築したりする機能を提供し、基本モデルがより複雑な実際のビジネス タスクを完了できるようにします。

プロセス全体を通じて、Amazon クラウド テクノロジー プラットフォーム上のさまざまなセキュリティ サービスと連携することもできます。たとえば、PrivateLin を使用して、基本モデルとローカル ネットワークの間にプライベート接続を確立し、すべてのトラフィックがインターネットに公開されないようにします。

フルマネージド サービスを提供することにより、開発者は基盤となるシステムを管理することなく、基本モデルの機能を活用できます。

最終的には、基本モデルから実用化までのサイクルが短縮され、基本モデルがビジネスに生み出す価値が加速されます。

大規模なモデル アプリケーションを高速化するときに他に注意すべきことは何ですか?

Amazon Bedrock のエージェント機能を使用すると、大規模なモデルを実際のビジネスに迅速に導入し、企業のコスト削減、効率の向上、またはイノベーションを実現できます。

しかし、生成 AI の価値を真に活用し、その可能性を最大限に発揮し、競合他社と競争するには、プライベート データが不可欠です。

つまり、大規模モデル アプリケーションの実装の鍵となるのは、企業独自の貴重な業界データです。

これらの豊富なリソースをエージェントに統合して、タスクを実行するときに大規模なモデル アプリケーションが正しい情報に効率的にアクセスできるようにする方法は、今日、すべての企業が直面しなければならない問題です。

もちろん、これらはすべてプライバシーの確保を前提として行われなければなりません。

プライベート データの統合と呼び出しに加えて、大規模モデル アプリケーションの実装に向けての最も基本的なサポートであるコンピューティング能力は、常に話されても飽きることのないトピックです。

ご存知のとおり、現在のグラフィックス カードのリソースは非常に不足しており、高価です。

たとえば、調査によると、今年4月中旬にNvidiaのH100は海外の電子商取引プラットフォームで4万ドル以上で販売されており、6万5000ドルの値札が付く場合も珍しくなかった。

購入するかレンタルするかにかかわらず、これは世界中の企業にとって生成 AI アプリケーションを検討する上で多額の出費となっています。

この支出をより経済的にするにはどうすればよいでしょうか? これはどの企業も考えていることです。

Amazon Cloud Technology に代表される大手サプライヤーが、生成 AI の実装におけるこれらの課題や問題点に対して体系的なソリューションを提供し、上記の問題を 1 つずつ解決していることは注目に値します。

パーソナライズされたデータの問題に対応して、Amazon Cloud Technology は、生成 AI アプリケーションとビジネス統合を促進するために 3 つのデータ サービスにベクトル エンジンを提供すると発表しました。

生成 AI の発生後、ベクトル データベースも非常に人気があることがわかっています。従来のリレーショナル データベースよりもモデル コンテキストに関連した応答を提供できるためです (次の図を参照)。

Amazon Cloud Technology のこの最新サービスは、ベクトル エンジンを備えたデータベースにプライベート データを保存し、生成 AI アプリケーションを実行する際に、単純な API 呼び出しを通じて企業の内部データを簡単にクエリできるようになります。

現在のデータ保管場所、データベーステクノロジーへの習熟度、ベクトル次元の拡張、埋め込みの数、パフォーマンス要件などのさまざまなニーズに基づいて、Amazon クラウドテクノロジーは、満たすための 3 つのオプションを提供します。

-Amazon Aurora PostgreSQL 互換バージョンのリレーショナル データベースは、pgvector オープンソース ベクトル類似性検索プラグインをサポートします。

- Amazon OpenSearch サーバーレス用の k-NN (k 最近傍) プラグインとベクトル エンジンを備えた分散検索および分析サービス Amazon OpenSearch。

-Amazon RDS (Amazon Relational Database Service) PostgreSQL と互換性があり、pgvector プラグインをサポートするリレーショナル データベース。

もちろん、最も注目すべきは、新たに開始された Amazon OpenSearch サーバーレス サービスであり、その最大の利点は、企業が基盤となる運用と保守の負担を負わず、ベクター データの保存と取得のみを考慮できることです。

データ統合の問題を解決した後、基礎的なサポートの観点から、Amazon Cloud Technology は今回、H100 によってサポートされる新しい Amazon EC2 P5 インスタンスを直接起動しました。かつてはほとんどの企業にとって非常にまれであったこのコンピューティング リソースは、現在では「あなたのところにある」ものになっています。指先」。

このインスタンスには、8 つの NVIDIA H100 Tensor コア GPU、640 GB の高帯域幅 GPU メモリが含まれており、さらに、第 3 世代 AMD EPYC プロセッサ、2 TB システム メモリ、30 TB ローカル NVMe ストレージ、および 3200 Gbps の総ネットワーク帯域幅と GPUDirect RDMA も提供されることがわかります。待ち時間の短縮と効率的なスケールアウト パフォーマンスを実現します。

前世代の GPU ベースのインスタンスと比較して、Amazon EC2 P5 はトレーニング時間を最大 6 倍 (数日から数時間) 短縮し、トレーニング コストを最大 40% 削減できます。

Amazon Cloud Technology が以前にリリースした自社開発チップをベースにした Amazon EC2 Inf2 および Amazon EC2 Trn1n と組み合わせると、これらも優れたパフォーマンスを発揮するため、コンピューティング電力要件に関してはオンデマンドの選択の余地が多くあると言えます。 . .

上記の基本的なサポートに加えて、すぐに使用できるさまざまな AI サービスも「ありません」。

たとえば、開発プロセスの AI プログラミングアシスタントである Amazon CodeWhisperer が Amazon Glue と統合され、AI コード生成シナリオが新しいグループの人々、つまり自然言語のみを必要とするデータ エンジニアに拡張されました (「使用」など)。 json ファイルのコンテンツを使用して Spark DataFrame を作成するなど、開発者はさまざまなタスクを処理できます。

もう 1 つの例は、ビジネス インテリジェンス (BI) 用の Amazon QuickSight です。これにより、ビジネス アナリストは自然言語を使用して日常業務を実行し、さまざまなデータ視覚化チャートを数秒で作成できます。

医療業界で臨床文書を生成し、医師の時間を節約するために使用できる Amazon HealthScribe もあります。

これらのツールは、企業が本業に集中し、生産効率を向上できるように設計されています。

最後に簡単にまとめると、次のようになります。

今年 4 月以来、Amazon Cloud Technology は、独自のポジショニングと実際のユーザーのニーズに基づいて生成 AI 市場への参入を正式に発表し、生成 AI テクノロジーを使用してビジネスを加速または革新したいすべての企業にサービスを提供しています。

Amazon Cloud Technology は、わずか 4 か月で、基本モデルからコンピューティング能力サポート、プライベート データ ストレージから効率的な開発ツールに至るまで、幅広いアプリケーションを備えたさまざまなベース リソースを立ち上げました。

ニューヨーク サミットで発表された最新トレンドは、生成 AI アプリケーションの開発を継続的に増やすために必要なすべてです。

Amazon EC2 P5 インスタンスに代表されるコンピューティング層から、Amazon OpenSearch サーバーレス ベクトル エンジンである Amazon Bedrock Agents に代表されるツール層、そして Amazon QuickSight に代表されるアプリケーション層に至るまで、エンドツーエンドのソリューションが形成されています。

その中でも、Amazon クラウド テクノロジーは生成 AI の敷居を下げ続けており、新興企業であろうと伝統的な業界であろうと、生成 AI プロセスのどのレイヤーにいても、あまり費用をかけずに適切なツールをここで見つけることができます。基礎となるロジックに基づいて、実際のビジネスにすぐに取り掛かることができます。

Amazon Cloud Technology のデータベース、データ分析、機械学習担当グローバル バイスプレジデントである Swami Sivasubramanian 氏は次のように述べています。

「私は、生成型 AI があらゆるアプリケーション、業界、企業を変えると信じています。」
実際、AI モデル戦争が激化し続ける中、生成型 AI も注目を集めています。AI分野で経験を積んできた企業群も、この前例のない変化から自らの新たなチャンスを見つけ出そうと、自社に適した応用の方向性を模索している。

Amazon クラウドテクノロジーの多くのサービスは、企業が開発コストを削減し、商業化を加速するために、より多くの開発スペースを獲得したことは間違いありません。

おすすめ

転載: blog.csdn.net/WitsMakeMen/article/details/133388584