# 英語言語モデル

Marin 8b Instruct
Apache-2.0
Marin 8Bはオープンソースの8Bパラメータ規模の大規模言語モデルで、Llamaアーキテクチャに基づいて開発され、英語テキスト生成タスクをサポートします。
大規模言語モデル Safetensors 英語
M
marin-community
239
1
Olmo 2 0425 1B
Apache-2.0
OLMo 2 1Bはアレン人工知能研究所が公開したオープン言語モデルシリーズの中で最小のモデルで、OLMo-mix-1124で事前学習され、中間トレーニング段階でDolmino-mix-1124データセットが使用されました。
大規模言語モデル Transformers 英語
O
allenai
13.31k
45
Falcon E 1B Instruct
その他
Falcon-E-1B-Instructは、1.58ビットアーキテクチャに基づく効率的な言語モデルで、エッジデバイス向けに最適化されており、低メモリ使用量と高性能を特徴としています。
大規模言語モデル Transformers
F
tiiuae
87
7
Falcon E 3B Base
その他
Falcon-EはTIIが開発した1.58ビット量子化言語モデルで、純粋なTransformerアーキテクチャを採用し、効率的な推論のために設計されています
大規模言語モデル Transformers
F
tiiuae
51
6
Olmo 2 0325 32B
Apache-2.0
OLMo 2 32Bはアレン人工知能研究所(AI2)が公開したオープン言語モデルシリーズで最大規模の32Bパラメータモデルで、Apache 2.0ライセンスでオープンソース化されており、英語言語処理をサポートしています。
大規模言語モデル Transformers 英語
O
allenai
2,246
47
Yue S1 7B Anneal En Cot Exl2
Apache-2.0
m-a-p/YuE-s1-7B-anneal-en-cotモデルを基にExllamav2で量子化したバージョンで、テキスト生成タスクに適しており、特に音楽関連分野で良好な性能を発揮します。
大規模言語モデル 英語
Y
Doctor-Shotgun
94
10
Gemma 2 Ataraxy V4d 9B
Ataraxyシリーズで最も包括的なオールラウンダーで、主にクリエイティブライティング能力を向上させ、汎用シナリオでも優れたパフォーマンスを発揮します
大規模言語モデル Transformers 英語
G
lemon07r
236
16
Relullama 7B
Llama 2 7Bを微調整したReLU活性化スパース大規模言語モデル、動的パラメータ選択により計算効率を向上
大規模言語モデル Transformers 英語
R
SparseLLM
5,323
11
Gpt1
MIT
OpenAIが発表したTransformerベースの言語モデルで、大規模コーパスによる事前学習を経ており、強力なテキスト生成能力を備えています
大規模言語モデル Transformers 英語
G
lgaalves
310
5
Tinyllama 1.1B Step 50K 105b
Apache-2.0
TinyLlamaは1.1BパラメータのLlamaモデルで、3兆トークンの事前学習を計画しており、最適化により16台のA100-40G GPUで90日以内に学習を完了できます。
大規模言語モデル Transformers 英語
T
TinyLlama
14.41k
133
Btlm 3b 8k Base
Apache-2.0
BTLM-3B-8k-baseは8kコンテキスト長を持つ30億パラメータの言語モデルで、6270億トークンのSlimPajamaデータセットでトレーニングされ、オープンソースの70億パラメータモデルに匹敵する性能を発揮します。
大規模言語モデル Transformers 英語
B
cerebras
2,078
262
Gpt2 Small
MIT
GPT-2はTransformerアーキテクチャに基づく自己回帰型言語モデルで、自己教師付き学習により大規模な英語コーパスで事前学習され、テキスト生成タスクに長けています。
大規模言語モデル Transformers 英語
G
ComCom
1,032
3
Roberta Med Small 1M 1
1Mトークンの小規模データで事前学習されたRoBERTaモデルで、MED-SMALLアーキテクチャを採用し、テキスト理解タスクに適しています。
大規模言語モデル
R
nyu-mll
23
1
Distilbert Base Uncased Finetuned Cola
Apache-2.0
DistilBERTベースの軽量テキスト分類モデルで、GLUEのCoLAタスクでファインチューニングされ、文の文法正しさを判断
テキスト分類 Transformers
D
histinct7002
15
0
Large
Apache-2.0
英語コーパスに基づいて事前学習されたTransformerモデルで、ELECTRAに類似した目的関数を採用し、自己教師付き方式で英語の内在的な表現を学習します。
大規模言語モデル Transformers 英語
L
funnel-transformer
190
2
Transfo Xl Wt103
Transformer-XLは相対位置エンコーディングを採用した因果的Transformerアーキテクチャで、以前に計算された隠れ状態を再利用することで、より長いコンテキストを捉えることができ、テキスト生成タスクに適しています。
テキスト生成 Transformers 英語
T
transfo-xl
4,498
15
Gpt Neo 2.7B
MIT
GPT-Neo 2.7BはEleutherAIがGPT - 3アーキテクチャを再現した27億パラメータのTransformer言語モデルで、Pileデータセットで訓練されました。
大規模言語モデル 英語
G
EleutherAI
52.68k
486
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase