Perception LM 8B
その他
Metaが発表したPyTorchフレームワークに基づく事前学習言語モデルで、非商業研究用途に適しています。
大規模言語モデル
PyTorch 英語
P
facebook
638
28
Community Request 01 12B
複数のCaptain-Erisシリーズモデルをmergekitツールで統合した事前学習言語モデル
大規模言語モデル
Transformers

C
Nitral-AI
19
3
Bytedance Research.ui TARS 72B SFT GGUF
バイトダンス研究チームが発表した72Bパラメータ規模のマルチモーダル基礎モデルで、画像テキストからテキストへの変換タスクに特化
画像生成テキスト
B
DevQuasar
81
1
Nllb 200 Bnb 4bit
NLLB-200-3.3BはMeta(旧Facebook)が開発した多言語ニューラル機械翻訳モデルで、200言語間の翻訳タスクをサポートしています。
機械翻訳
Transformers

N
Youseff1987
17
1
Ruri Reranker Large
Apache-2.0
瑠璃リランカーは日本語汎用リランキングモデルで、Sentence Transformersアーキテクチャに基づき、日本語テキストの関連性順位付けタスクに特化しています。
テキスト埋め込み 日本語
R
cl-nagoya
2,538
11
Xflux Text Encoders
Apache-2.0
T5(Text-to-Text Transfer Transformer)はGoogleが開発した汎用テキスト変換モデルで、様々な自然言語処理タスクを処理できます。
大規模言語モデル
Transformers 英語

X
XLabs-AI
481.59k
17
Gte En Mlm Large
Apache-2.0
GTE-v1.5シリーズの大型英語テキストエンコーダーで、最大8192の文脈長をサポートし、改良されたBERTアーキテクチャに基づいて構築されています。
大規模言語モデル 複数言語対応
G
Alibaba-NLP
171
5
Llmc Gpt2 774M 150B
MIT
これはGPT-2アーキテクチャに基づく774Mパラメータの言語モデルで、FineWebデータセットの1500億トークンでトレーニングされています。
大規模言語モデル
Transformers 英語

L
mdouglas
18
1
Aya 23 35B GGUF
aya-23-35B-GGUF量子化版はCohereForAI/aya-23-35BのGGUF量子化バージョンで、23言語の多言語テキスト生成タスクをサポートします。
大規模言語モデル 複数言語対応
A
legraphista
399
2
Codellama 13b Python Hf
Code LlamaはMetaが発表した70億から340億パラメータ規模の事前学習及び微調整生成テキストモデルシリーズで、このモデルは130億パラメータのPython専用バージョンです
大規模言語モデル
Transformers その他

C
meta-llama
636
7
Codellama 13b Hf
Code LlamaはMetaが開発した70億から340億パラメータ規模の事前学習及び微調整生成テキストモデルシリーズで、汎用コード生成と理解に適しています
大規模言語モデル
Transformers その他

C
meta-llama
482
17
Codellama 7b Hf
Code LlamaはMetaが提供する70億から340億パラメータ規模のコード生成・理解モデルシリーズで、このバージョンは7Bベースモデルです
大規模言語モデル
Transformers その他

C
meta-llama
4,650
101
Hebrew Gemma 11B Instruct
その他
ヘブライ語-Gemma-11B生成テキストモデルを基に、マルチターン対話データセットで命令ファインチューニングしたバージョン
大規模言語モデル
Transformers 複数言語対応

H
yam-peleg
2,670
23
GNER T5 Xxl
Apache-2.0
GNER-T5-xxlはFlan-T5アーキテクチャに基づく生成的命名エンティティ認識モデルで、パラメータ数は11Bに達し、ゼロショット認識タスクで優れた性能を発揮します。
シーケンスラベリング
Transformers 英語

G
dyyyyyyyy
51
3
Swallow 70b Hf
Llama 2シリーズを基に日本語能力を強化したオープンソース大規模言語モデルで、7B/13B/70Bの3つの規模と命令チューニング版を提供
大規模言語モデル
Transformers 複数言語対応

S
tokyotech-llm
2,088
10
Llama 2 13B Chat GGUF
MetaがリリースしたLlama 2シリーズの13Bパラメータチャットモデル。GGUF量子化フォーマットを採用し、対話シーンに適しています
大規模言語モデル 英語
L
TheBloke
10.35k
201
Llama 65b Instruct
UpstageがLLaMAアーキテクチャに基づいて開発した65Bパラメータの命令微調整大規模言語モデルで、長文処理をサポート
大規模言語モデル
Transformers 英語

L
upstage
144
14
Kollama 33b
MIT
KoLLaMAは韓国語/英語/コードデータセットでトレーニングされたLLaMAアーキテクチャの大規模言語モデルで、韓国語オープンソース大規模言語モデル研究に特化しています。
大規模言語モデル
Transformers 複数言語対応

K
beomi
55
9
Ziya LLaMA 13B Pretrain V1
Gpl-3.0
LLaMaアーキテクチャに基づく130億パラメータの大規模事前学習モデルで、中国語分かち書きを最適化し、1100億トークンの中英増分事前学習を完了し、中国語生成と理解能力を大幅に向上させました
大規模言語モデル
Transformers 複数言語対応

Z
IDEA-CCNL
113
20
Polycoder 0.4B
PolyCoderは4億のパラメータを持つ大規模言語モデルで、コード生成と理解タスクに特化しています。
大規模言語モデル
Transformers

P
NinedayWang
177
5
Stt Fr Conformer Transducer Large
これはフランス語自動音声認識のための大規模なConformer-トランスデューサーモデルで、約1.2億のパラメータを持ち、1500時間以上のフランス語音声データでトレーニングされています。
音声認識 フランス語
S
nvidia
31
10
Bloom 7b1
Openrail
BigScience 大規模オープンサイエンス多言語モデル、46の自然言語と12のプログラミング言語をサポート、1760億パラメータ
大規模言語モデル 複数言語対応
B
bigscience
9,628
204
Codegen 16B Mono
Bsd-3-clause
CodeGen-Mono 16Bは、プログラム合成のための自己回帰型言語モデルで、英語のプロンプトから実行可能なコードを生成することに特化しています。
大規模言語モデル
Transformers

C
Salesforce
227
126
Blenderbot 90M
Apache-2.0
BlenderBotはオープンドメインチャットボットモデルで、多輪対話と様々な対話スキルの融合に特化しています。
対話システム
Transformers 英語

B
facebook
4,669
3
T5 Efficient Large Nh32
Apache-2.0
T5効率的ラージ-NH32はGoogleのT5モデルの深層ナロー変種で、モデルの深さを増やすことで下流タスクの性能向上に焦点を当てています。
大規模言語モデル 英語
T
google
16
0
Gpt2 Large Dutch
これはゼロから訓練されたGPT2の大型モデル(7.62億個のパラメータ)で、オランダ語に特化しており、純粋なオランダ語mC4での困惑度は15.1です。
大規模言語モデル その他
G
yhavinga
428
7
T5 Efficient Large
Apache-2.0
T5-Efficient-LARGEはGoogleのT5をベースにしたバリエーションで、深度狭幅アーキテクチャを採用して下流タスクの性能を最適化し、7.377億個のパラメータを持っています。
大規模言語モデル 英語
T
google
183
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98