Wanabi 24b Preview Gguf
Apache-2.0
日本語小説創作支援のためにファインチューニングされた大規模言語モデルのプレビュー版
大規模言語モデル 日本語
W
kawaimasa
148
3
Deepseek R1 Medical CoT
MIT
DeepSeek-R1-Distill-Llama-8Bをファインチューニングした医療思考連鎖推論モデルで、QLoRA量子化技術とUnsloth最適化手法により医療推論能力を強化。
大規模言語モデル
D
zijiechen156
49
2
Captain Eris Violet GRPO V0.420
その他
Captain-Eris_Violetは、多段階の教師ありファインチューニング、QLoRAアダプター、およびGRPO最適化されたRLHFを通じて開発された先進的な言語モデルで、ロールプレイや対話生成に適しています。
大規模言語モデル
Transformers 英語

C
Nitral-AI
1,355
21
Norskgpt Llama 3 70b Adapter
Llama-3-70b-fp16をベースに開発されたノルウェー語アダプター、100万ノルウェー語テキストトークンでトレーニング
大規模言語モデル
Transformers その他

N
bineric
37
6
Llama Medx V2
Apache-2.0
epfl-llm/meditron-7bをベースにファインチューニングしたLlama3 8Bシリーズの医療チャットモデルで、SFT QLora技術を用いて訓練
大規模言語モデル
Transformers

L
skumar9
2,606
1
Llamantino 2 7b Hf ITA
LLaMA 2ベースのイタリア語適応大規模言語モデル、イタリア語テキスト生成タスクに特化
大規模言語モデル
Transformers その他

L
swap-uniba
4,696
7
Llama 2 7b Mt French To English
MIT
Meta Llama 2 7BモデルをファインチューニングしたLoRAアダプターで、フランス語から英語へのテキスト翻訳タスク専用です。
機械翻訳 複数言語対応
L
kaitchup
268
3
Evolcodellama 7b
Apache-2.0
CodeLlama-7b-hfモデルをベースに、QLoRA(4ビット精度)でEvol-Instruct-Python-1kデータセット上でファインチューニングされたコード生成モデル
大規模言語モデル
Transformers

E
mlabonne
34
6
Cyberbase 13b
CyberBaseはサイバーセキュリティ分野向けに設計された実験的なベースモデルで、Vicuna-13b-v1.5-16kをベースにファインチューニングされています
大規模言語モデル
Transformers

C
CyberNative
40
29
Clinicalcamel 70B
臨床ラクダはLLaMA-2 70Bアーキテクチャをベースに、QLoRAファインチューニングを施したオープンソースの大規模言語モデルで、医学および臨床研究分野に特化しています。
大規模言語モデル
Transformers 英語

C
wanglab
2,855
46
Llama 2 13B Fp16 French
Apache-2.0
Llama-2-13b-chatをファインチューニングしたフランス語Q&Aモデル、バロックスタイルのテキスト生成などのタスクをサポート
大規模言語モデル 複数言語対応
L
Nekochu
79
11
Anima33b Merged
その他
QLoRAベースの初のオープンソース33B中国語大規模言語モデルで、Guanaco 33Bを基に中国語能力を強化したファインチューニングを実施
大規模言語モデル
Transformers 中国語

A
lyogavin
52
30
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98