Hyperclovax SEED Text Instruct 0.5B
その他
命令追従能力を備えた韓国語最適化テキスト生成モデルで、軽量設計によりエッジデバイスへのデプロイに適しています
大規模言語モデル
Transformers

H
naver-hyperclovax
7,531
60
Gemma 3 4b Persian V0
Apache-2.0
Gemma 3アーキテクチャに基づくペルシア語専用モデル。QLoRAを使用した4ビット量子化を採用し、ペルシア語のテキスト生成と理解に特化
大規模言語モデル その他
G
mshojaei77
542
9
Llama 3.1 8b DodoWild V2.01
Llama 3.1アーキテクチャに基づく8Bパラメータ言語モデルで、mergekitを使用して複数のモデルを統合し、テキスト生成能力を備えています
大規模言語モデル
Transformers

L
Nexesenex
58
2
Persianllama 13B
ペルシャ語初の画期的な大規模言語モデルで、130億のパラメータを持ち、ペルシャ語ウィキペディアのコーパスで訓練され、様々な自然言語処理タスクのために設計されています。
大規模言語モデル
Transformers その他

P
ViraIntelligentDataMining
3,291
11
Llava Llama 3 8b
その他
LLaVA-v1.5フレームワークでトレーニングされた大規模マルチモーダルモデルで、80億パラメータのMeta-Llama-3-8B-Instructを言語バックボーンとして採用し、CLIPベースの視覚エンコーダーを備えています。
画像生成テキスト
Transformers

L
Intel
387
14
Llava Meta Llama 3 8B Instruct
Meta-Llama-3-8B-InstructとLLaVA-v1.5を統合したマルチモーダルモデルで、先進的な視覚-言語理解能力を提供
画像生成テキスト
Transformers

L
MBZUAI
20
11
Llava Gemma 7b
LLaVA-Gemma-7bはLLaVA-v1.5フレームワークでトレーニングされた大規模マルチモーダルモデルで、google/gemma-7b-itを言語バックボーンとして使用し、CLIP視覚エンコーダーと組み合わせており、マルチモーダル理解と生成タスクに適しています。
画像生成テキスト
Transformers 英語

L
Intel
161
11
Llava Gemma 2b
LLaVA-Gemma-2bはLLaVA-v1.5フレームワークでトレーニングされた大規模マルチモーダルモデルで、20億パラメータのGemma-2b-itを言語バックボーンとして使用し、CLIP視覚エンコーダーを組み合わせています。
画像生成テキスト
Transformers 英語

L
Intel
1,503
44
Mobillama 1B Chat
Apache-2.0
MobiLlama-1B-ChatはMobiLlama-1Bを微調整した命令追従モデルで、リソース制約のあるデバイス向けに設計されており、効率性、低メモリ使用量、高速応答を重視しています。
大規模言語モデル
Transformers 英語

M
MBZUAI
44
25
Llava V1.6 Vicuna 7b Gguf
Apache-2.0
LLaVAはオープンソースのマルチモーダルチャットボットで、マルチモーダル命令追従データでLLMをファインチューニングしてトレーニングされています。このバージョンはGGUF量子化バージョンで、複数の量子化オプションを提供しています。
テキスト生成画像
L
cjpais
493
5
Llava V1.5 7b Gguf
LLaVAはオープンソースのマルチモーダルチャットボットで、LLaMA/Vicunaを微調整し、GPTが生成したマルチモーダル命令追従データに基づいてトレーニングされています。
画像生成テキスト
L
granddad
13
0
Fialka 13B V4
Apache-2.0
スミレシリーズ言語モデルは命令追従とロシア語対話維持のために特別に訓練されており、第4世代はRLHFで最適化され、より強力な応答能力と豊富な情報量を備えています。
大規模言語モデル
Transformers その他

F
0x7o
95
5
Boana 7b Instruct
Boana-7B-InstructはLLaMA2-7Bをベースにしたポルトガル語命令ファインチューニングモデルで、ポルトガル語ユーザー向けに設計されており、低複雑度のLLMオプションを提供します。
大規模言語モデル
Transformers その他

B
lrds-code
24
5
Openchat 3.5 0106 GGUF
Apache-2.0
Openchat 3.5 0106はMistralアーキテクチャに基づくオープンソースの対話モデルで、OpenChatチームによって開発されました。このモデルは高品質な対話体験を提供することに重点を置き、さまざまな対話タスクをサポートします。
大規模言語モデル
O
TheBloke
4,268
72
Liuhaotian Llava V1.5 13b GGUF
LLaVAはオープンソースのマルチモーダルチャットボットで、LLaMA/Vicunaアーキテクチャをベースに、マルチモーダル命令追従データで微調整されています。
テキスト生成画像
L
PsiPi
1,225
36
Llava V1.5 13b Lora
LLaVAはオープンソースのマルチモーダルチャットボットで、LLaMA/Vicunaを微調整し、GPTが生成したマルチモーダル命令追従データに基づいてトレーニングされています。
テキスト生成画像
Transformers

L
liuhaotian
143
26
Selfrag Llama2 7b
MIT
70億パラメータのSelf-RAGモデルで、多様なユーザークエリに対して出力を生成し、検索システムの呼び出し、出力内容と検索段落の自己批判、反省タグの生成を自立的に行えます。
大規模言語モデル
Transformers

S
selfrag
1,318
78
Llava V1.5 13B AWQ
LLaVAはオープンソースのマルチモーダルチャットボットで、GPTが生成したマルチモーダル命令追従データを用いてLLaMA/Vicunaをファインチューニングしてトレーニングされています。
テキスト生成画像
Transformers

L
TheBloke
141
35
Longalpaca 70B
LongLoRAは、シフトされたショートアテンションメカニズムによる長文脈処理を実現する効率的なファインチューニング技術で、8kから100kの文脈長をサポートします。
大規模言語モデル
Transformers

L
Yukang
1,293
21
Mentallama Chat 7B
MIT
命令追従能力を備えた初の説明可能なメンタルヘルス分析オープンソース大規模言語モデル、LLaMA2-chat-7Bをファインチューニング
大規模言語モデル
Transformers 英語

M
klyang
3,336
23
Synthia 70B V1.2b
SynthIA(合成知能エージェント)はOrcaスタイルのデータセットでトレーニングされたLLama-2-70Bモデルで、命令追従と長い会話に優れています。
大規模言語モデル
Transformers 英語

S
migtissera
136
29
Llama 2 70b Fb16 Korean
Llama2 70Bモデルを韓国語データセットでファインチューニングしたバージョンで、韓国語と英語のテキスト生成タスクに特化
大規模言語モデル
Transformers 複数言語対応

L
quantumaikr
127
37
Stable Vicuna 13b Delta
StableVicuna-13BはVicuna-13B v0モデルを基に、人間のフィードバックによる強化学習(RLHF)と近接方策最適化(PPO)を用いて、様々な対話および命令データセットで微調整されたモデルです。
大規模言語モデル
Transformers 英語

S
CarperAI
31
455
Godot Dodo 4x 60k Llama 7b
LLaMA-7Bをファインチューニングした命令追従モデルで、コード命令シナリオに特化して最適化されています
大規模言語モデル
Transformers

G
minosu
39
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98