Murai 350M V0.1 Beta
Apache-2.0
これはtransformersライブラリに基づいて構築されたテキスト生成モデルで、効率的なパラメータアーキテクチャと優れたテキスト生成能力を備えています。
大規模言語モデル
Transformers

M
DeepMount00
140
1
Gemma 3 4b It 4bit DWQ
Google Gemma-3-4b-itモデルを変換した4ビットDWQ量子化MLX形式のバージョンで、効率的なテキスト生成能力を提供します。
大規模言語モデル
G
mlx-community
2,025
1
Sailor2 L 8B Chat GGUF
Apache-2.0
Sailor2は東南アジア地域に特化した多言語大規模言語モデルで、英語、中国語、および複数の東南アジア言語を含む15言語をサポートしています。
大規模言語モデル 複数言語対応
S
QuantFactory
303
2
Phi 4 Mini Instruct 8da4w
MIT
Phi-4-miniはPyTorchチームによって開発された量子化言語モデルで、8ビット埋め込みと8ビット動的活性化、および4ビット重み線形層(8da4w)の量子化スキームを採用しており、モバイルデバイスへの展開に適しています。
大規模言語モデル
Transformers その他

P
pytorch
780
1
Heron NVILA Lite 1B
Apache-2.0
NVILA-Liteアーキテクチャでトレーニングされた日本語視覚言語モデル、日本語と英語の画像テキストインタラクションをサポート
画像生成テキスト
Safetensors 複数言語対応
H
turing-motors
460
2
Llama 3.3 70B Instruct Abliterated Finetuned GPTQ Int8
これはLlama-3.3-70B-Instructモデルを基にしたGPTQ量子化8ビット版で、微調整と最適化が施されており、対話推論タスクに適しています。
大規模言語モデル
Transformers 複数言語対応

L
huihui-ai
7,694
12
Persian Question Generator
Apache-2.0
これはmT5モデルを微調整したペルシア語質問生成モデルで、ペルシア語のテキストから関連する質問を生成することができます。
質問応答システム
Transformers その他

P
myrkur
57
1
Jais Family 590m Chat
Apache-2.0
Jaisシリーズはアラビア語-英語バイリンガルの大規模言語モデルで、特にアラビア語のパフォーマンスを最適化しつつ、強力な英語能力を保持しています。590mバージョンはこのシリーズの基本モデルの一つです。
大規模言語モデル
Safetensors 複数言語対応
J
inceptionai
514
7
Nephra V1.0
nephra v1 はロールプレイ会話専用に設計されたモデルで、ロールプレイと命令スタイルのデータセットでトレーニングされています。
大規模言語モデル
Transformers 英語

N
yodayo-ai
135
24
Convai 9b
MIT
ConvAI-9bは90億パラメータを持つ対話型AIモデルで、Zephyr-7b-betaとMistral-7B-v0.2を融合して構築されており、チャットボットや仮想アシスタントなどのインタラクティブなシナリオに適しています。
大規模言語モデル
Transformers 英語

C
CreitinGameplays
15
1
Pinokio V1.0
Apache-2.0
Pinokio_v1.0 は英語とトルコ語をサポートするテキスト生成モデルで、Apache-2.0 ライセンスの下で公開されています。
大規模言語モデル
Transformers 複数言語対応

P
Eurdem
2,810
4
Starchat2 15b V0.1
StarChat2はStarCoder2をファインチューニングした160億パラメータのプログラミングアシスタントモデルで、対話とコード生成タスクに優れています
大規模言語モデル
Transformers

S
HuggingFaceH4
4,196
111
Vikhr 7B Instruct 0.2
Vikhrはロシア語ユーザー向けに設計された、ロシア語と英語のバイリンガルオープンソース命令追従型大規模言語モデルで、対話やタスク支援が可能です。
大規模言語モデル
Transformers 複数言語対応

V
Vikhrmodels
76
22
Llammas
LlammasはLlama-2-7Bモデルをエストニア語に適応させたオープンソース対話モデルで、2段階のトレーニングによりクロスランゲージ知識転移を実現
大規模言語モデル
Transformers 複数言語対応

L
tartuNLP
400
5
Dialogpt Sarcastic
このモデルは、Microsoft/DialoGPT-mediumを微調整したバージョンで、皮肉な返答を生成するために特別に訓練されています。
大規模言語モデル
Transformers

D
abhiramtirumala
19
5
Dialogpt RickBot
Transformerアーキテクチャに基づく大規模言語モデルで、様々な自然言語処理タスクをサポートします。
対話システム
Transformers

D
beatajackowska
1,907
0
Dialogpt Small Rick Sanchez
OpenAIが開発した大規模生成型言語モデルで、自然言語テキストを理解し生成可能
大規模言語モデル
Transformers

D
matprado
26
1
Dialogpt Medium Asunayuuki
DialoGPTアーキテクチャに基づく対話生成モデルで、アニメキャラクターの結城明日奈(Asuna)をスタイルの特徴としています。
対話システム
Transformers

D
Denny29
91
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98