Schreiber Mistral Nemo 12B
Apache-2.0
Schreiber-mistral-nemo-12Bは、mistral-nemo-kartoffel-12Bをベースに微調整された大規模言語モデルで、より強力で正確な言語処理能力を提供することに特化しています。
大規模言語モデル
Transformers

S
nbeerbower
107
1
Calmerys 78B Orpo V0.1
MIT
MaziyarPanahi/calme-2.4-rys-78bをベースに、mlabonne/orpo-dpo-mix-40kデータセットで微調整された大規模言語モデルで、Open LLM Leaderboardで1位を獲得しています。
大規模言語モデル
Transformers 英語

C
dfurman
353
74
Llama Medx V3.2
Llama-medx_v3.2 は医療分野に特化して微調整された大規模言語モデルで、Meta-Llama-3.1-8B アーキテクチャを基に開発され、教師あり微調整(SFT)とオッズ比選好最適化(ORPO)技術によって訓練され、医学用語と臨床推論能力を正確に習得しています。
大規模言語モデル
Transformers

L
skumar9
5,677
12
Arabic Orpo Llama 3 8B Instruct
Llama-3-8B-Instructをベースに微調整されたアラビア語テキスト生成モデルで、アラビア語テキストの首尾一貫性と正確性の向上に特化しています。
大規模言語モデル
Transformers アラビア語

A
MohamedRashad
5,764
15
Llama3 8B Chinese Chat
Meta-Llama-3-8B-Instructを微調整した中英対話モデルで、中国語回答の品質を最適化し、中英混在問題を減少させました。
大規模言語モデル
Transformers 複数言語対応

L
shenzhi-wang
2,777
678
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98