# マルチタスクテキスト生成

Llama 3.1 8B SuperNova EtherealHermes GGUF
Apache-2.0
Llama-3.1アーキテクチャに基づく8Bパラメータの大規模言語モデルで、様々な量子化バージョンのGGUF形式ファイルを提供
大規模言語モデル 英語
L
tensorblock
44
1
Nvidia.llama 3 3 Nemotron Super 49B V1 GGUF
NVIDIAが開発した大規模言語モデルで、Llama-3アーキテクチャを基に490億のパラメータを持ち、様々なテキスト生成タスクに適しています。
大規模言語モデル
N
DevQuasar
1,259
2
Llama 3.1 8b DodoWild V2.01
Llama 3.1アーキテクチャに基づく8Bパラメータ言語モデルで、mergekitを使用して複数のモデルを統合し、テキスト生成能力を備えています
大規模言語モデル Transformers
L
Nexesenex
58
2
Llama 3.1 8b Dolermed V1.01
Llama 3.1アーキテクチャに基づく8Bパラメータモデルで、複数の事前学習モデルをmergekitで統合し、テキスト生成能力を備えています。
大規模言語モデル Transformers
L
Nexesenex
95
4
Qwen2.5 Dyanka 7B Preview
Apache-2.0
Qwen2.5アーキテクチャに基づく7Bパラメータ規模の言語モデルで、TIESメソッドにより複数の事前学習モデルを融合
大規模言語モデル Transformers
Q
Xiaojian9992024
1,497
8
Li 14b V0.4 Slerp0.1
これはSLERP手法を用いて統合された140億パラメータ規模の大規模言語モデルで、li-14b-v0.4とmiscii-14b-0218の2つの基本モデルを統合して作成されました。
大規模言語モデル Transformers
L
wanlige
70
7
Thait5 Instruct
MIT
kobkrit/thai-t5-baseを微調整したタイ語命令モデルで、会話、質問応答、要約などのタスクをサポート
大規模言語モデル Transformers その他
T
Peenipat
41
1
Phi 4 Model Stock V2
Phi-4-Model-Stock-v2は複数のPhi-4バリエーションモデルを統合した大規模言語モデルで、model_stock統合手法を採用し、複数のベンチマークテストで良好な性能を示しています。
大規模言語モデル Transformers
P
bunnycore
56
2
Dolphin3.0 Llama3.2 1B GGUF
Llama3.2アーキテクチャに基づく1Bパラメータ量子化モデル、テキスト生成タスクをサポート、様々な量子化バージョン選択に対応
大規模言語モデル 英語
D
bartowski
1,134
4
3blarenegv3 ECE PRYMMAL Martial
Apache-2.0
mergekitを使用して事前学習言語モデルをマージして得られたモデルで、複数のテキスト生成タスクで評価結果があります。
大規模言語モデル Transformers
3
brgx53
1,799
18
Buddyglass V0.3 Xortron7MethedUpSwitchedUp
複数の8BパラメータLlama-3.1モデルを統合したモデルで、model_stockメソッドにより性能を最適化
大規模言語モデル Transformers
B
darkc0de
15
5
Mistral NeMo Minitron 8B Base
その他
Mistral-NeMo-Minitron-8B-Baseは基礎的なテキスト生成モデルで、Mistral-NeMo 12Bを剪枝と蒸留することで得られ、様々な自然言語生成タスクに適しています。
大規模言語モデル Transformers
M
nvidia
7,924
175
Gemma 2 2b
GemmaはGoogleが提供する軽量で最先端のオープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
502.52k
540
Gemma 2 9b
GemmaはGoogleが提供する軽量級の最先端オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
45.11k
655
Gemma 2 27b It
GemmaはGoogleが提供する軽量オープンソース大規模言語モデルシリーズで、Geminiモデルと同じ技術に基づいて構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
google
160.10k
543
Orca Mini V5 8b Dpo
Llama 3アーキテクチャに基づく8Bパラメータモデル、複数のDPOデータセットでトレーニングされ、テキスト生成タスクに特化
大規模言語モデル Transformers 英語
O
pankajmathur
16
3
UNA ThePitbull 21.4B V2
UNA-ThePitbull-21.4B-v2は21.4Bパラメータの大規模言語モデルで、70Bモデルに近い性能を持ち、EQとIQを融合させ、会話とテキスト生成に優れています。
大規模言語モデル Transformers
U
fblgit
16
16
Llama4some SOVL 4x8B L3 V1
これはmergekitを使用して複数の事前学習済み言語モデルを統合して得られたエキスパート混合モデルで、最も制約のないテキスト生成能力を創造することを目的としています。
大規模言語モデル Transformers
L
saishf
22
3
Llama 3 Stinky V2 8B
その他
これはLlama-3アーキテクチャに基づく8Bパラメータモデルで、mergekitツールを使用して複数の事前学習モデルを統合し、優れたテキスト生成能力を備えています。
大規模言語モデル Transformers
L
nbeerbower
39
5
Spyazweb AI DeepMind Project
Apache-2.0
Mixtralアーキテクチャに基づく多機能大規模言語モデルで、深層マインドと自己最適化能力を融合し、多言語テキスト生成と複雑な推論タスクをサポート
大規模言語モデル Transformers 英語
S
LeroyDyer
97
3
Llama 3 8b Ita
Meta-Llama-3-8Bをベースに最適化されたイタリア語の大規模言語モデルで、英語とイタリア語のテキスト生成タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
L
DeepMount00
16.00k
27
Phi 3 Portuguese Tom Cat 4k Instruct
Apache-2.0
30万件のポルトガル語命令データセットでトレーニングされたポルトガル語モデル、microsoft/Phi-3-mini-4kからファインチューニング
大規模言語モデル Transformers その他
P
rhaymison
83
14
Cabrallama3 8b
Meta-Llama-3-8B-Instructをベースにした強化版で、カブラ30kデータセットでファインチューニングされ、特にポルトガル語の理解と応答に特化して最適化されています。
大規模言語モデル 複数言語対応
C
botbot-ai
66
19
Meta Llama 3 8B Instruct
Metaがリリースした80億パラメータの命令微調整大規模言語モデルで、対話シナリオに最適化され、ベンチマークテストでほとんどのオープンソースチャットモデルを上回る
大規模言語モデル Transformers 英語
M
meta-llama
1.2M
3,933
Orbita V0.1
Apache-2.0
Orbita-v0.1はQwen 14Bをベースとしたトルコ語大規模言語モデルで、プログラミングや数学など多様なタスクにおいてトルコ語の多面的な能力を備えています。
大規模言語モデル Transformers その他
O
Orbina
2,833
41
Neuralstar AlphaWriter 4x7b
Apache-2.0
NeuralStar_AlphaWriter_4x7bは、混合専門家技術(MoE)に基づいて構築された7Bパラメータの言語モデルで、クリエイティブライティングタスクに最適化されており、異なるライティング分野に特化した4つの専門家モデルを統合しています。
大規模言語モデル Transformers
N
OmnicromsBrain
21
10
Mera Mix 4x7B
Apache-2.0
mera-mix-4x7Bは、Mixtral-8x7Bの半分の規模を持つエキスパート混合(MoE)モデルで、同等の性能を維持しながら推論速度が速いです。
大規模言語モデル Transformers
M
meraGPT
2,375
19
Recurrentgemma 2b It
RecurrentGemmaはGoogleの新しいループアーキテクチャに基づいて構築されたオープンソース言語モデルで、より効率的な長文シーケンス処理能力を提供します
大規模言語モデル Transformers
R
google
5,418
110
Mistral Portuguese Luana 7b
Apache-2.0
Mistral-7Bをファインチューニングしたポルトガル語コマンド最適化モデル。20万件のポルトガル語コマンドで訓練され、ポルトガル語モデルの空白を埋める
大規模言語モデル Transformers その他
M
rhaymison
59
11
Gemma Portuguese Luana 2b
Apache-2.0
これはGemmaアーキテクチャに基づく20億パラメータ規模のポルトガル語大規模言語モデルで、特にブラジルポルトガル語に最適化されており、指令追従とテキスト生成タスクをサポートします。
大規模言語モデル Transformers その他
G
rhaymison
115
4
Mistral 7B Portuguese
Mistral-7B-Instruct-v0.2を基に微調整したポルトガル語大規模言語モデルで、ポルトガル語テキスト生成能力の向上に焦点を当てています
大規模言語モデル Transformers 複数言語対応
M
cnmoro
124
13
Zephyr 7b Gemma V0.1
その他
Zephyr 7B Gemmaはgoogle/gemma-7bをファインチューニングした言語モデルで、公開合成データセットで直接選好最適化(DPO)を使用して訓練され、有用なアシスタントとして設計されています。
大規模言語モデル Transformers
Z
HuggingFaceH4
502
124
Tito 7B Slerp
Apache-2.0
Tito-7B-slerpはmergekitツールを使用してYugoGPTとAlphaMonarch-7Bの2つのモデルを融合した大規模言語モデルで、セルビア語と英語のタスクで優れた性能を発揮します。
大規模言語モデル Transformers
T
Stopwolf
22
4
Gemma 2b
GemmaはGoogleが開発した軽量オープンソースの大規模言語モデルで、Geminiと同じ技術をベースに構築され、様々なテキスト生成タスクに適しています。
大規模言語モデル Transformers
G
alpindale
135
8
Gemma 7b It
GemmaはGoogleが提供する軽量オープンモデルシリーズで、Geminiと同じ技術を基に構築されており、テキスト生成タスクに適しています。
大規模言語モデル
G
google
77.07k
1,163
Pasta Lake 7b
その他
Pasta-Lake-7bは、Test157t/Pasta-PrimaMaid-7bとmacadeliccc/WestLake-7B-v2-laser-truthy-dpoの2つのモデルを統合して作成された7Bパラメータ規模の言語モデルです。
大規模言語モデル Transformers
P
Nitral-Archive
93
6
Gemma 7b
GemmaはGoogleが提供する軽量オープンソースの大規模言語モデルで、Geminiと同じ技術を基に構築されており、様々なテキスト生成タスクに適しています。
大規模言語モデル
G
google
55.61k
3,160
Gemma 2b It
GemmaはGoogleが提供する軽量オープンソース大規模言語モデルシリーズで、Geminiモデルを作成した研究と技術に基づいています。
大規模言語モデル
G
google
108.61k
730
Tinymistral 248M V3
Apache-2.0
TinyMistral-248M-v3 は2億4800万パラメータの小型言語モデルで、現在も訓練中であり、約210億トークンを学習済みです。
大規模言語モデル Transformers 英語
T
M4-ai
179
8
Boreangale 70B
その他
BoreanGale-70Bは、カスタムアルゴリズム(NearSwap)を使用して統合された70Bパラメータの大規模言語モデルで、miqu-1-70b-sfとWinterGoddess-1.4x-70B-L2の2つのモデルを統合して作成されました。
大規模言語モデル Transformers
B
alchemonaut
17
5
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase