大型機種の競争激化、国内外のAI規制がさらに強化

人工知能技術の継続的な発展に伴い、大型モデルは現在最も注目されているトピックの 1 つとなっています。国内外のテクノロジー企業が研究開発に積極的に投資しているだけでなく、政府も人工知能技術の安全で持続可能な開発を確保するために監督を強化しています。本記事では、ラージモデルの定義と人気、国内外のAI規制の現状、AI関連企業として何ができるのかを3つのレベルで解説します。

1. ラージモデルとは何か、今ラージモデルが人気の理由

大規模モデルとは、大量のデータによってトレーニングされた非常に大規模なニューラル ネットワーク モデルを指します。このようなモデルには通常、数百万から数十億のパラメーターが必要であり、より正確で効率的な予測と推論が可能になります。データ量の継続的な増加とコンピューティング能力の向上により、大規模モデルの人気がますます高まっています。音声認識、自然言語処理、画像認識などの分野では、大型モデルが最先端の技術となっています。

大型モデルが注目される理由は主に以下の理由による。まず、大規模なモデルは人工知能技術の精度と信頼性を向上させ、より正確で効率的な予測と推論を可能にします。第 2 に、大規模なモデルは、自然言語処理や画像認識などのより複雑なタスクを処理して、ユーザーのニーズの高まりに対応できます。最後に、大規模なモデルは、人工知能技術の可塑性と移転可能性を向上させ、より幅広い応用と促進を実現することもできます。

2. 国内外のAI規制の現状

大型モデルの人気が高まるにつれ、世界中の政府も人工知能技術の規制を強化しています。

2023年4月11日、我が国のインターネット情報局は「生成型人工知能サービスに関する行政措置(意見募集草案)」を作成し、国民からの意見を公募した。「行政措置」では、国家が人工知能アルゴリズムやフレームワークなどの技術の自主的な革新、促進と応用、国際協力を支援し、安全で信頼性の高いソフトウェア、ツール、コンピューティング、データリソースの優先使用を奨励すると述べた。「行政措置」では、サービス提供過程におけるプロバイダーの主な責任を明確にし、生成コンテンツ、データセキュリティ、モデルアルゴリズム設計、動作仕様の4つの側面から生成人工知能製品を制限する。

2023年4月11日、米国商務省傘下の国家電気通信情報局は、潜在的にリスクのある新しい人工知能モデルはリリース前に認証プロセスを経るべきかどうかを含むコメント要請を出した。

2023 年 4 月 12 日、イタリア個人情報保護庁は、データ セキュリティの問題に関して OpenAI に対して一連の要件を提出し、ChatGPT のデータ処理ロジックの開示、ユーザーの年齢の審査、データ主体の権利の明確化を求めました。これらの要件を満たした後、ChatGPT はイタリアでの使用を再開することが許可されます。

2023 年 4 月 13 日、欧州データ保護委員会 (EDPB) は、規制当局間の協力を強化し、人工知能チャットボット ChatGPT に関連する可能性のあるデータ保護問題について情報交換するためのタスクフォースの設立を発表しました。

3. AI関連企業としてできること

AI関連企業として、国内大型模型メーカーの全盛期において、深い業界蓄積と豊富な業界データを強みとして、汎用大型模型と自社独自の大型模型を組み合わせて、様々な細分化された需要を取り込むことが可能です。最適化トレーニングのための豊富な業界データ 垂直業界​​の機能を備えた独自の大規模モデルを作成し、垂直顧客の支援を強化します。同時に、人工知能技術の安全で持続可能な開発を確保するために、人工知能技術の規制とガバナンスに積極的に参加する必要があります。

ラージモデルとは一言で言えば、大量のデータで学習された超大規模なニューラルネットワークモデルであり、今最も注目されているトピックの1つです。大型モデルの人気が高まるにつれ、世界中の政府も人工知能技術の規制を強化しています。AI 関連企業として、私たちは積極的にニーズを探求し、一般的な大規模モデルを独自の豊富な業界データと組み合わせて使用​​して、垂直業界機能を備えた独自の大規模モデルを作成し、人工知能技術の監督とガバナンスに積極的に参加して、人工知能技術の監督とガバナンスに積極的に参加する必要があります。インテリジェンス 安全で持続可能な技術開発。

おすすめ

転載: blog.csdn.net/m0_72843152/article/details/130379346