Phi 4 Reasoning Plus
MIT
Phi-4推論強化版はマイクロソフトリサーチが開発した140億パラメータのオープンソース推論モデルで、教師あり微調整と強化学習による最適化を経ており、数学、科学、プログラミング分野の高度な推論能力に特化しています。
大規模言語モデル
Transformers 複数言語対応

P
unsloth
189
2
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plusはマイクロソフトリサーチによって開発されたオープンソースの推論モデルで、数学、科学、プログラミング分野の高度な推論能力に特化しています。
大規模言語モデル 複数言語対応
P
unsloth
109.62k
47
T5 Small Finetuned Xsum
Apache-2.0
T5-smallモデルをXSumデータセットでファインチューニングしたテキスト要約モデル
テキスト生成
Transformers

T
bdwjaya
103
0
Llama 3.1 8B SuperNova EtherealHermes GGUF
Apache-2.0
Llama-3.1アーキテクチャに基づく8Bパラメータの大規模言語モデルで、様々な量子化バージョンのGGUF形式ファイルを提供
大規模言語モデル 英語
L
tensorblock
44
1
Aya Vision 8b
Aya Vision 8Bはオープンウェイトの80億パラメータ多言語視覚言語モデルで、23言語の視覚と言語タスクをサポートします。
画像生成テキスト
Transformers 複数言語対応

A
CohereLabs
29.94k
282
Drama Large
DRAMA-large (0.3B) は、プルーニングされた大規模言語モデルアーキテクチャに基づいて構築された密検索モデルで、効率的かつ汎用的な多言語テキスト検索タスクに最適化されています。
テキスト埋め込み
Transformers 複数言語対応

D
facebook
55
7
Falcon3
Apache-2.0
Falcon3-10B-InstructはFalcon3シリーズのオープンソース基盤モデルで、100億パラメータを有し、高品質な指示追従タスクに特化しており、多言語処理をサポートし、コンテキスト長は最大32Kトークンに達します。
大規模言語モデル
F
cortexso
244
1
Llama 3.1 Storm 8B GGUF
Llama-3.1-Storm-8BはLlama-3.1-8B-Instructを基に構築された改良モデルで、複数のベンチマークテストで優れた性能を発揮し、対話や関数呼び出しタスクに適しています。
大規模言語モデル 複数言語対応
L
akjindal53244
654
41
Sat 3l Sm
MIT
3層Transformerアーキテクチャを採用した最先端の文分割技術で、多言語テキスト分割をサポートします。
シーケンスラベリング
Transformers 複数言語対応

S
segment-any-text
168.01k
6
Nllb 200 Distilled 600M En Zh CN
これはMeta社のNLLB-200-distilled-600Mモデルをファインチューニングした機械翻訳モデルで、英語から簡体字中国語への翻訳タスク専用です。
機械翻訳
Transformers 複数言語対応

N
HackerMonica
41
3
Llama 3 Wissenschaft 8B
その他
Llama-3-8bをベースに構築された多言語混合モデルで、ドイツ語、イタリア語、英語の能力を統合
大規模言語モデル
Transformers

L
nbeerbower
15
4
Llama 3 8B Dutch
Llama 3 8Bをベースにしたオランダ語会話モデルで、ORPO手法を用いてオランダ語フィードバックデータセットで最適化トレーニングされています
大規模言語モデル
Transformers その他

L
ReBatch
47
12
Snowflake Arctic Embed Xs
Snowflake Arctic Embed XS は軽量な文埋め込みモデルで、文の類似度と特徴抽出タスクに特化しています。
テキスト埋め込み
Transformers

S
Snowflake
125.31k
35
Rakutenai 7B Instruct
Apache-2.0
RakutenAI-7B-instructはMistral-7Bアーキテクチャを基に最適化された日本語と英語の大規模言語モデルで、日本語理解ベンチマークで優れた性能を発揮しつつ、英語能力も競争力を維持しています。
大規模言語モデル
Transformers 複数言語対応

R
Rakuten
671
44
Qra 1b
Apache-2.0
Qraはポーランド国立情報処理研究所とグダニスク工科大学が共同開発したポーランド語最適化大規模言語モデルシリーズで、TinyLlama-1.1Bを初期化し900億のポーランド語トークンで訓練
大規模言語モデル
Transformers

Q
OPI-PG
246
20
Mobilellama 1.4B Chat
Apache-2.0
MobileLLaMA-1.4B-Chat は MobileLLaMA-1.4B-Base を微調整したチャットモデルで、ShareGPT データセットを使用した教師付き命令微調整が施されています。
大規模言語モデル
Transformers

M
mtgv
580
20
Btlm 3b 8k Chat
Apache-2.0
BTLM-3B-8k-chatはBTLM-3B-8K-baseを基に開発されたチャットバージョンで、DPO手法を用いて最適化され、人間の嗜好に合った対話シナリオ向けに設計されています。
大規模言語モデル
Transformers 英語

B
cerebras
138
13
Openchat 3.5 GPTQ
Apache-2.0
OpenChat 3.5 7BはMistralアーキテクチャに基づく7Bパラメータの大規模言語モデルで、OpenChatチームによって開発され、Apache 2.0ライセンスで公開されています。
大規模言語モデル
Transformers

O
TheBloke
107
17
Distilbart Qgen 3 3
Apache-2.0
このモデルはSQuADデータセットでファインチューニングされたBARTの変種で、テキスト段落と回答に基づいて対応する質問を生成するために特別に設計されています。
質問応答システム
Transformers 英語

D
gpssohi
21
3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98