スターマークが10万人突破!Auto-GPT の後、Transformer は新たなマイルストーンに到達しました

出典 | 新志源ID | AI時代

発売以来 6 年間で、Transformer は NLP 分野の主流モデルになっただけでなく、他の分野へのクロスオーバーにも成功し、かつては AI の世界で人気の機械学習アーキテクチャになりました。ちょうど今日、Transformers ライブラリが GitHub で 100,000 スターのマークを突破しました。

2017 年、Google チームは論文「Attending Is All You Need」で画期的な NLP アーキテクチャ Transformer を提案し、それ以来ずっとオープンになっています。

長年にわたり、このアーキテクチャは Microsoft、Google、Meta などの大手テクノロジー企業の間で人気がありました。一世を風靡したChatGPTもTransformerをベースに開発されました。

そしてちょうど今日、トランスフォーマー ライブラリが GitHub で 100,000 スターのマークを突破しました。

当初は単なるチャットボット プログラムだった Hugging Face は、Transformer モデルの中心として名声を高め、一気に世界的に有名なオープンソース コミュニティになりました。

このマイルストーンを祝うために、Hugging Face は Transformes ライブラリ上に構築された 100 のプロジェクトもまとめました。

Transformer が機械学習サークルを爆発させる

2017 年 6 月に Google が「Attending Is All You Need」という論文を発表したとき、おそらく誰も、この深層学習アーキテクチャ Transformer がどれほど多くの驚きをもたらすか予想していませんでした。

誕生以来、Transformer は AI 分野の礎の王となりました。2019年にはGoogleもその特許を申請した。

Transformer が NLP 分野で主流の地位を占めるにつれて、他の分野にも国境を越えて広がり始めており、CV 分野にも Transformer を導入しようとする取り組みがますます増えています。

トランスフォーマー ライブラリがこのマイルストーンを突破したことを見て、多くのネチズンは非常に興奮しています。

「私は多くの人気のあるオープンソース プロジェクトに貢献してきましたが、トランスフォーマーが GitHub で 100,000 スターに達するのを見るのはかなり特別なことです。」

少し前に、Auto-GPT の GitHub スター数が pytorch を上回り、大きな話題を呼びました。

ネットユーザーは、Auto-GPT がトランスフォーマーとどう違うのか疑問に思わずにはいられません。

実際、Auto-GPT はトランスフォーマーをはるかに上回り、スターの数は 130,000 個です。

現在、Tensorflow には 170,000 個を超えるスターがあります。Transformers は、これら 2 つのプロジェクトに次いで 100,000 個以上のスターを備えた 3 番目の機械学習ライブラリであることがわかります。

一部のネチズンは、Transformers ライブラリを初めて使用したとき、そのときの名前が「pytorch-pretrained-BERT」だったことを思い出しました。

トランスフォーマーをベースにした 50 の素晴らしいプロジェクト

Transformers は、事前トレーニングされたモデルを使用するためのツールキットであるだけでなく、Transformers と Hugging Face Hub を中心に構築されたプロジェクト コミュニティでもあります。

以下のリストでは、Hugging Face がトランスフォーマーに基づいて構築された 100 の驚くべき新しいプロジェクトをまとめています。

以下に、紹介する上位 50 プロジェクトを選択しました。

gpt4all

gpt4all は、オープンソースのチャットボット エコシステムです。コード、ストーリー、ダイアログを含むアシスタントの大規模でクリーンなデータセットでトレーニングされます。アシスタントとしてのトレーニング用に、LLaMA や GPT-J などのオープンソースの大規模言語モデルを提供します。

キーワード: オープンソース、LLaMa、GPT-J、命令、アシスタント

推薦者

このリポジトリには、Jupiter ノートブックとして提供される、レコメンダー システムを構築するための例とベスト プラクティスが含まれています。データの準備、モデリング、評価、モデルの選択と最適化、運用化など、効果的なレコメンダー システムを構築するために必要ないくつかの側面をカバーしています。

キーワード: レコメンデーションシステム、AzureML

ラマクリーナー

安定拡散技術をベースにした画像復元ツール。不要な物体、欠陥、さらには人物を写真から削除し、写真上のあらゆるものを置き換えます。

キーワード: 修復、SD、安定拡散

才能

FLAIR は強力な PyTorch 自然言語処理フレームワークで、NER、センチメント分析、品詞タグ付け、テキストと二重埋め込みなどのいくつかの重要なタスクを変換できます。

キーワード: NLP、テキスト埋め込み、ドキュメント埋め込み、生物医学、NER、PoS、感情分析

マインドデータベース

MindsDB は、ローコードの機械学習プラットフォームです。複数の ML フレームワークを「AI テーブル」としてデータ スタックに自動的に統合することで、アプリケーションへの AI の統合が簡素化され、あらゆるスキル レベルの開発者が AI にアクセスできるようになります。

キーワード: データベース、ローコード、AI テーブル

ラングチェーン

Langchain は、LLM およびその他の知識ソースと互換性のあるアプリケーションの開発を支援するように設計されています。このライブラリを使用すると、アプリケーションへの呼び出しを連鎖させて、多くのツール間でシーケンスを作成できます。

キーワード: LLM、大規模言語モデル、エージェント、チェーン

私が話した

ParlAI は、オープンドメインのチャットからタスク指向の対話、視覚的な質問応答まで、対話モデルを共有、トレーニング、テストするための Python フレームワークです。100 を超えるデータセット、多くの事前トレーニング済みモデル、同じ API の下で一連のエージェントを提供し、いくつかの統合が行われています。

キーワード: 対話、チャットボット、VQA、データセット、エージェント

文変換者

このフレームワークは、文、段落、画像の密なベクトル表現を計算する簡単な方法を提供します。これらのモデルは、BERT/RoBERTa/XLM-RoBERTa などの Transformer ベースのネットワークに基づいており、さまざまなタスクで SOTA を実現します。テキストはベクトル空間に埋め込まれているため、類似したテキストが近くにあり、コサイン類似度によって効率的に見つけることができます。

キーワード: 密ベクトル表現、テキスト埋め込み、文章埋め込み

ルートヴィヒ

Ludwig は、シンプルで柔軟なデータ駆動型構成システムを使用して機械学習パイプラインを簡単に定義できる宣言型機械学習フレームワークです。Ludwig はあらゆる種類の AI タスクを対象としており、データ駆動型の構成システム、トレーニング、予測および評価のスクリプト、プログラミング API を提供します。

キーワード: 宣言型、データ駆動型、ML フレームワーク

InvokeAI

InvokeAI は、プロ、アーティスト、愛好家を対象とした安定拡散モデルのエンジンです。CLI および WebUI を通じて最新の AI 駆動テクノロジーを活用します。

キーワード: 安定拡散、WebUI、CLI

パドルNLP

PaddleNLP は、特に中国語向けの使いやすく強力な NLP ライブラリです。複数の事前トレーニング済みモデル動物園をサポートし、研究から産業アプリケーションまで幅広い NLP タスクをサポートします。

キーワード: 自然言語処理、中国語、研究、産業

スタンザ

Stanford NLP Group の公式 Python NLP ライブラリ。60 を超える言語でさまざまな正確な自然言語処理ツールの実行をサポートし、Python から Java Stanford CoreNLP ソフトウェアへのアクセスをサポートします。

キーワード: NLP、多言語、CoreNLP

ディープパブロフ

DeepPavlov は、オープンソースの会話型人工知能ライブラリです。これは、実稼働可能なチャットボットや複雑な対話システムの開発、および NLP、特に対話システムの分野の研究向けに設計されています。

キーワード: 会話、チャットボット

アルパカローラ

Alpaca-lora には、低ランク適応 (LoRA) を使用してスタンフォードの Alpaca の結果を再現するコードが含まれています。このリポジトリは、トレーニング (微調整) および生成スクリプトを提供します。

キーワード: LoRA、パラメータの効率的な微調整

画像-pytorch

DALL-E2 を上回る、Google のクローズドソースのテキストから画像へのニューラル ネットワークである Imagen のオープンソース実装。imagen-pytorch は、テキストから画像への合成のための新しい SOTA です。

キーワード: イマージェン、ヴィンセント・グラフ

アダプター変圧器

adapter-transformers は、事前トレーニングされたアダプター モジュールの中央リポジトリである AdaptorHub を組み込むことにより、アダプターを最先端の言語モデルに統合する Transformers ライブラリの拡張機能です。これはトランスフォーマーのドロップイン代替品であり、トランスフォーマーの開発と歩調を合わせるために定期的に更新されます。

キーワード: アダプター、LoRA、パラメーターの効率的な微調整、ハブ

ニモ

NVIDIA NeMo は、自動音声認識 (ASR)、テキスト音声合成 (TTS)、大規模言語モデル、自然言語処理に取り組む研究者向けに構築された会話型 AI ツールキットです。NeMo の主な目的は、産業界や学術界の研究者が以前の成果 (コードや事前トレーニングされたモデル) を再利用し、新しいプロジェクトの作成を容易にすることを支援することです。

キーワード: 対話、ASR、TTS、LLM、NLP

ランハウス

Runhouse を使用すると、Python のコードとデータを任意のコンピューターまたはデータ ダウンレイヤーに送信し、既存のコードや環境から通常どおりそれらと対話し続けることができます。Runhouse の開発者は次のように述べています。

これは、リモート マシンをバイパスしたり、リモート データを操作したりできる Python インタープリターの拡張機能と考えてください。

キーワード: MLOps、インフラストラクチャ、データ ストレージ、モデリング

修道士

PyTorch エコシステムの一部である MONAI は、医療画像分野における深層学習のための PyTorch に基づくオープンソース フレームワークです。その目標は次のとおりです。

- 学術、産業、臨床研究者の協力的なコミュニティを共通の基盤で発展させる。

- 医用画像処理のための SOTA、エンドツーエンドのトレーニング ワークフローを作成します。

- 深層学習モデルの確立と評価のための最適化および標準化された方法を提供します。

キーワード: 医用画像、トレーニング、評価

単純な変圧器

Simple Transformers を使用すると、Transformer モデルを迅速にトレーニングして評価できます。モデルの初期化、トレーニング、評価に必要なコードは 3 行だけです。さまざまな NLP タスクをサポートします。

キーワード: フレームワーク、シンプルさ、NLP

ジャービス

JARVIS は、GPT-4 などの LLM をオープンソース機械学習コミュニティの他のモデルと統合するシステムで、最大 60 の下流モデルを活用して LLM によって識別されたタスクを実行します。

キーワード: LLM、エージェント、HF ハブ

トランスフォーマー.js

transformers.js は、トランスフォーマーからのモデルをブラウザーで直接実行することを目的とした JavaScript ライブラリです。

キーワード: トランスフォーマー、JavaScript、ブラウザ

マルハナバチ

Bumblebee は、Elixir 言語のニューラル ネットワーク ライブラリである Axon 上に、事前トレーニングされたニューラル ネットワーク モデルを提供します。これには、誰でもわずか数行のコードで機械学習タスクをダウンロードして実行できるモデルとの統合が含まれています。

キーワード: エリクサー、軸索

粘土

Argilla は、高度な NLP ラベル付け、モニタリング、ワークスペースを提供するオープンソース プラットフォームです。Hugging Face、Stanza、FLAIR などの多くのオープンソース エコシステムと互換性があります。

キーワード: NLP、ラベリング、モニタリング、ワークスペース

干し草の山

Haystack は、Transformer モデルと LLM を使用してデータを操作できるオープンソースの NLP フレームワークです。複雑な意思決定、質問応答、セマンティック検索、テキスト生成アプリケーションなどを迅速に構築するための、本番環境に対応したツールを提供します。

キーワード: NLP、フレームワーク、LLM

スペイシー

SpaCy は、Python および Cython での高度な自然言語処理のためのライブラリです。最新の研究に基づいて構築されており、実際の製品で使用できるように一から設計されています。サードパーティ パッケージ spacy-transformers を通じて、Transformers モデルのサポートを提供します。

キーワード: NLP、アーキテクチャ

スピーチブレイン

SpeechBrain は、PyTorch に基づくオープンソースのオールインワン会話型 AI ツールキットです。私たちの目標は、音声認識、話者認識、音声強調、音声分離、音声認識、マルチマイクなどの最先端の音声テクノロジーを簡単に開発するために使用できる、柔軟でユーザーフレンドリーな単一のツールキットを作成することです。信号処理およびその他のシステム。

キーワード: 対話、スピーチ

焦げた

Skorch は、PyTorch をラッピングした scikit-learn 互換のニューラル ネットワーク ライブラリです。Transformers のモデルとトークナイザーのトークナイザーをサポートします。

キーワード: Scikit ラーニング、PyTorch

ベルトヴィズ

BertViz は、BERT、GPT2、T5 などの Transformer 言語モデルでアテンションを視覚化するための対話型ツールです。ほとんどの Huggingface モデルをサポートするシンプルな Python API を通じて、Jupiter または Colab ノートブックで実行できます。

キーワード: ビジュアライゼーション、トランスフォーマー

メッシュトランスフォーマージャックス

Mesh-transformer-jax は、JAX の xmap/pjit 演算子を使用して Transformers モデルの並列処理を実装する Haiku ライブラリです。

このライブラリは、TPUv3 で約 40B のパラメータまで拡張できるように設計されています。GPT-J モデルをトレーニングするために使用されるライブラリです。

キーワード: Haiku、モデル並列処理、LLM、TPUdeepchem

OpenNRE

Neural Relation Extraction (NRE) 用のオープンソース ソフトウェア パッケージ。初心者から開発者、研究者、学生まで幅広いユーザーを対象としています。

キーワード: 神経関係抽出、フレームワーク

パイコレクター

中国語のテキストエラー修正ツール。この方法では、言語モデルを使用してエラー、ピンイン特徴、形状特徴を検出し、中国語テキストのエラーを修正します。中国語のピンインとストロークの入力方法に使用できます。

キーワード: 中国語、誤り訂正ツール、言語モデル、ピンイン

ンパウグ

この Python ライブラリは、機械学習プロジェクトの NLP を強化するのに役立ちます。これは、モデルのパフォーマンスを向上させる合成データを生成する機能を備えた軽量ライブラリであり、オーディオとテキストをサポートし、いくつかのエコシステム (scikit-learn、pytorch、tensorflow) と互換性があります。

キーワード: データ拡張、合成データ生成、オーディオ、自然言語処理

夢のテクスチャ

dream-textures は、Blender に安定した拡散サポートをもたらすことを目的としたライブラリです。画像生成、テクスチャ投影、イン/アウト ペイント、ControlNet、アップスケーリングなどの複数のユースケースをサポートします。

キーワード: 安定拡散、ブレンダー

セルドンコア

Seldon コアは、ML モデル (Tensorflow、Pytorch、H2o など) または言語ラッパー (Python、Java など) を本番環境の REST/GRPC マイクロサービスに変換します。Seldon は、数千までスケールする実稼働機械学習モデルを処理でき、高度なメトリクス、リクエスト ログ、説明者、異常値検出器、A/B テスト、カナリアなどを含む高度な機械学習機能を提供します。

キーワード: マイクロサービス、モデリング、言語パッケージ化

オープンモデル動物園

このライブラリには、最適化された深層学習モデルと、高性能の深層学習推論アプリケーションの開発を加速する一連のデモが含まれています。独自のトレーニングを行う代わりに、これらの無料の事前トレーニング済みモデルを使用して、開発および実稼働環境のデプロイメントプロセスをスピードアップします。

キーワード: 最適化モデル、プレゼンテーション

ml-安定拡散

ML-Stable-Diffusion は、Apple が Apple チップ デバイス上の Core ML に Stable Diffusion サポートを提供するリポジトリです。Hugging Face Hub でホストされる安定した拡散チェックポイントをサポートします。

キーワード: 安定拡散、Appleチップ、Core ML

安定した夢の融合

Stable-Dreamfusion は、Stable Diffusion Text to 2D Model を利用した Text to 3D Model Dreamfusion の pytorch 実装です。

キーワード: テキストから 3D へ、安定した拡散

TXT

Txtai は、セマンティック検索と言語モデル駆動のワークフローをサポートするオープンソース プラットフォームです。Txtai は、ベクトル インデックスとリレーショナル データベースを組み合わせた組み込みデータベースを構築し、SQL 最近傍検索をサポートします。セマンティック ワークフローは、言語モデルを統合アプリケーションに接続します。

キーワード: セマンティック検索、LLM

DJL

Deep Java Library (DJL) は、開発者にとって使いやすい、オープンソースの高レベルでエンジンに依存しないディープ ラーニング用の Java フレームワークです。DJL は、ネイティブ Java 開発エクスペリエンスと、他の通常の Java ライブラリと同様の機能を提供します。DJL は、HuggingFace Tokenizer 用の Java バインディングと、Java で HuggingFace モデルを展開するための単純な変換ツールキットを提供します。

キーワード: Java、アーキテクチャ

lm-評価-ハーネス

このプロジェクトは、多数の異なる評価タスクで生成言語モデルをテストするための統一フレームワークを提供します。200 を超えるタスクをサポートし、HF Transformers、GPT-NeoX、DeepSpeed、OpenAI API などのさまざまなエコシステムをサポートします。

キーワード: LLM、評価、少数ショット

gpt-neox

このリポジトリは、GPU 上で大規模な言語モデルをトレーニングするための EleutherAI のライブラリを文書化しています。このフレームワークは Nvidia の Megatron 言語モデルに基づいており、DeepSpeed のテクノロジーといくつかの新しい最適化によって強化されています。その焦点は、数十億のパラメーターを使用してモデルをトレーニングすることです。

キーワード: トレーニング、LLM、メガトロン、ディープスピード

音楽家

Muzic は、深層学習と人工知能を通じて音楽を理解し、生成できる人工知能音楽の研究プロジェクトです。Muzic は Microsoft Research Asia の研究者によって作成されました。

キーワード: 音楽理解、音楽生成

ダイフロー

DALL・E フローは、テキスト プロンプトから高解像度画像を生成するための対話型ワークフローです。DALL・E-Mega、GLID-3 XL、Stable Diffusion を使用して候補画像を生成し、CLIP-as-service を呼び出して候補画像を並べ替えます。好ましい候補は拡散のために GLID-3 XL に供給され、多くの場合、テクスチャや背景が豊かになります。最後に、候補は SwinIR によって 1024x1024 にスケーリングされます。

キーワード:高精細画像生成、安定拡散、DALL-E Mega、GLID-3 XL、CLIP、SwinIR

ライトシーク

LightSeq は、CUDA で実装されたシーケンスの処理と生成のための高性能トレーニングおよび推論ライブラリです。BERT、GPT、Transformer などの最新の NLP および CV モデルを効率的に計算できます。そのため、機械翻訳、テキスト生成、画像分類、その他のシーケンス関連のタスクに役立ちます。

キーワード: 学習、推論、系列処理、系列生成

LaTeX-OCR

このプロジェクトの目標は、数式の画像を取得し、対応する LaTeX コードを返す学習ベースのシステムを作成することです。

キーワード: OCR、LaTeX、数式

オープンクリップ

OpenCLIP は、OpenAI の CLIP のオープンソース実装です。

このリポジトリの目的は、画像とテキストの対照的な監視によるモデルのトレーニングを可能にし、分布の変化に対する堅牢性などのモデルの特性を調査することです。プロジェクトの出発点は、同じデータセットでトレーニングすると、元の CLIP モデルの精度と一致する CLIP の実装でした。

具体的には、OpenAI の 1,500 万画像サブセット YFCC コード ベースでトレーニングされた ResNet-50 モデルは、ImageNet 上で 32.7% という最高精度を達成します。

キーワード: CLIP、オープンソース、比較、画像からテキストへの変換

大遊び場

Stable Diffusion と Dall-E mini を使用して、任意のテキスト プロンプトから画像を生成するプレイグラウンド。

キーワード: WebUI、安定拡散、Dall-E mini

FedML

FedML は、場所や規模を問わず、分散データ上で安全かつ協調的な機械学習を可能にするフェデレーテッド ラーニングおよび分析ライブラリです。

キーワード: フェデレーテッド ラーニング、分析、協調的機械学習、分散化‍

参考文献:

https://twitter.com/huggingface/status/1658846950958018560

おすすめ

転載: blog.csdn.net/lqfarmer/article/details/130893584