Openrs3 GRPO Ja
OpenRS3-GRPO-jaはSakanaAI/TinySwallow-1.5B-Instructモデルを日本語数学指示データセットでファインチューニングしたバージョンで、GRPO手法を用いてトレーニングされ、数学推論タスクに特化しています。
大規模言語モデル
Transformers

O
EQUES
25
3
Qwen2.5 0.5B Instruct Gensyn Swarm Fierce Placid Whale
Gensyn/Qwen2.5-0.5B-Instructを微調整したバージョンで、TRLフレームワークとGRPOアルゴリズムを使用してトレーニング
大規模言語モデル
Transformers

Q
gangchen
3,053
2
Qwen2.5 7B HomerFuse NerdExp
Apache-2.0
HomerSlerp6-7Bの強力なファインチューニングAIモデルをベースに、複数のQwen2.5-7Bシリーズモデルを融合し、高い適応性、深い知識、魅力的なインタラクション体験を提供
大規模言語モデル
Transformers 英語

Q
ZeroXClem
74
3
JARVIS
Apache-2.0
因果言語モデリング(CLM)アーキテクチャに基づく対話AIで、自然言語インタラクション向けに設計されており、一貫性があり文脈に合った応答を生成できます。
大規模言語モデル
Transformers 複数言語対応

J
VAIBHAV22334455
38
12
Strangemerges 17 7B Dare Ties
Apache-2.0
StrangeMerges_17-7B-dare_tiesは、LazyMergekitを使用してGille/StrangeMerges_16-7B-slerpとGille/StrangeMerges_12-7B-slerpの2つのモデルをdare_tiesマージ手法で統合したものです。
大規模言語モデル
Transformers

S
Gille
20
1
Blurdus 7b V0.1
Apache-2.0
Blurdus-7b-v0.1はLazyMergekitを使用して3つの7Bパラメータモデルを統合したハイブリッドモデルで、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル
Transformers

B
gate369
80
1
Smol Llama 101M Chat V1
Apache-2.0
101Mパラメータの軽量Llamaチャットモデル、smol_llama-101M-GQAを基に微調整され、対話生成タスクに適しています。
大規模言語モデル
Transformers 英語

S
Felladrin
127
10
Open Llama 3b V2 Chat
Apache-2.0
LLaMA 3B v2を基に開発された対話モデルで、テキスト生成タスクをサポートし、オープン大規模モデルランキングで平均的な性能を示します。
大規模言語モデル
Transformers

O
mediocredev
134
3
Q Align Iqa
MIT
これはarXiv論文2312.17090で公開されたマルチモーダルモデルで、テキストと視覚処理能力を備えている可能性があります
大規模言語モデル
Transformers

Q
q-future
43
1
Causallm 7B DPO Alpha GGUF
Llama 2アーキテクチャに基づく7Bパラメータの大規模言語モデル、DPOトレーニングで最適化され、中英文テキスト生成をサポート
大規模言語モデル 複数言語対応
C
tastypear
367
36
Orca Mini 13b
orca_mini_13b は複数の高品質データセットでトレーニングされたテキスト生成モデルで、命令追従と対話タスクに特化しています。
大規模言語モデル
Transformers 英語

O
pankajmathur
79
100
CAMEL 33B Combined Data
CAMEL-33BはLLaMA-33Bを微調整した大規模言語モデルで、CAMELフレームワークの対話データ、ShareGPTの公開対話、Alpacaの命令データを統合し、マルチターン対話と命令理解に優れています。
大規模言語モデル
Transformers

C
camel-ai
97
6
Blenderbot 1B Distill
Apache-2.0
このモデルは高性能なオープンドメインチャットボットで、質問、回答、知識提示、共感など複数の対話スキルを統合できます。
対話システム
Transformers 英語

B
facebook
2,413
37
BERT NLP
多機能な大規模言語モデルで、様々な自然言語処理タスクを処理可能(推論情報)
大規模言語モデル
B
subbareddyiiit
18
0
Kogpt2 Base V2
KoGPT2はSKT-AIによって開発された韓国語GPT-2モデルで、Transformerアーキテクチャに基づいており、さまざまな韓国語テキスト生成タスクに適しています。
大規模言語モデル 韓国語
K
skt
105.25k
47
Dpr Question Encoder Single Nq Base
DPR(密集パッセージ検索)はオープンドメイン質問応答研究のためのツールとモデルです。このモデルはBERTベースの質問エンコーダーで、Natural Questions(NQ)データセットでトレーニングされています。
質問応答システム
Transformers 英語

D
facebook
32.90k
30
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98