Arshstory
MIT
Llamaアーキテクチャに基づく5億パラメータのテキスト生成モデルで、ストーリー作成のために特別に設計されています。
テキスト生成
Transformers

A
arshiaafshani
131
1
Deepcogito Cogito V1 Preview Llama 3B GGUF
Llamaアーキテクチャに基づく3Bパラメータの言語モデルで、様々なハードウェア要件に対応する複数量化バージョンを提供
大規模言語モデル
D
tensorblock
162
1
3b Zh Ft Research Release Q8 0 GGUF
Apache-2.0
このモデルはcanopylabs/3b-zh-ft-research_releaseから変換されたGGUF形式のモデルで、中国語テキスト生成タスクに適しています。
大規模言語モデル 中国語
3
cludyw
20
0
Slim Orpheus 3b JAPANESE Ft Q8 0 GGUF
Apache-2.0
これはslim-orpheus-3b-JAPANESE-ftモデルを変換したGGUF形式のモデルで、日本語テキスト処理に特化して最適化されています。
大規模言語モデル 日本語
S
Gapeleon
26
0
Deepcogito Cogito V1 Preview Llama 70B 6bit
これはLlamaアーキテクチャに基づく70Bパラメータの大規模言語モデルで、6ビット量子化処理が施され、テキスト生成タスクに適しています。
大規模言語モデル
D
mlx-community
8,168
1
Tiny Random Llama 4 8E
これはデバッグ用のミニチュアモデルで、ランダム初期化されており、meta-llamaのLlama-4-Maverick-17B-128E-Instructモデルに基づいて設定されています。
大規模言語モデル
Transformers

T
katuni4ka
140
1
Speechless Llama3.2 V0.1
Apache-2.0
無言はコンパクトなオープンソースのテキストからセマンティックモデル(10億パラメータ)で、従来のテキスト読み上げ(TTS)モデルに依存せずに、オーディオを直接離散的なセマンティックタグに変換することを目的としています。
音声認識 複数言語対応
S
Menlo
39
3
Tinystories 656K
Apache-2.0
TinyStories-656Kは、物語生成に特化した軽量級のTransformer言語モデルで、約600kのパラメータのみを使用しています。
テキスト生成
Transformers 英語

T
raincandy-u
119
29
Ftaudit Llama3 8b V1
Llama-3はTransformerアーキテクチャに基づく大規模言語モデルで、英語の言語処理をサポートしています。
大規模言語モデル
Transformers 英語

F
weifar
32
2
Ablation Model Fineweb Edu
Apache-2.0
このモデルはFineWebアブレーション研究の一部で、パラメータ数は18.2億、Llamaアーキテクチャを基にし、FineWeb-Eduデータセットでトレーニングされ、英文テキスト補完タスクに適しています。
大規模言語モデル
Transformers 英語

A
HuggingFaceFW
262
14
Orcamaid V3 13B 32k GGUF
その他
Orcamaid v3 13B 32KはLlamaアーキテクチャに基づく大規模言語モデルで、32Kのシーケンス長をサポートし、テキスト生成タスクに適しています。
大規模言語モデル
Transformers

O
TheBloke
163
17
Finance LLM GGUF
その他
Finance LLMは金融分野に特化した言語モデルで、Llamaアーキテクチャを基盤とし、OpenOrca、Lima、WizardLMなどのデータセットでファインチューニングされています。
大規模言語モデル 英語
F
TheBloke
641
21
Med42 70B GGUF
その他
Med42 70Bはアラブ首長国連邦のM42 Healthが開発した医療アシスタントモデルで、医療健康分野のテキスト生成タスクに特化しています。
大規模言語モデル 英語
M
TheBloke
1,854
22
Koalpaca Translation KR2EN
Apache-2.0
これは韓国語から英語への翻訳ツールで、AIHUBの口語翻訳データセットでトレーニングされています。
機械翻訳
Transformers 複数言語対応

K
gyupro
38
3
Tinyllama V0
Apache-2.0
Llamaアーキテクチャで再構築された最初のTinyStories-1Mバージョンで、子供向けストーリー生成を目的としたコンセプト検証モデル
大規模言語モデル
Transformers

T
Maykeye
565.95k
34
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98