Llama 3.2 Latin
LLaMA-3.2-3Bをファインチューニングしたラテン語モデルで、古代から現代の新ラテン語まで、さまざまな歴史的時期のラテンテキストを生成・理解するために最適化されています。
大規模言語モデル
Transformers

L
hathibelagal
272
1
Mbart50 Turkish Grammar Corrector
MIT
mbart-large-50をファインチューニングしたトルコ語文法チェックモデル
テキスト生成
Transformers その他

M
yeniguno
27
1
Internlm3 8b Instruct Gguf
Apache-2.0
InternLM3-8B-Instruct モデルの GGUF フォーマット版で、llama.cpp フレームワークに対応し、複数の量子化バージョンをサポートしています。
大規模言語モデル 英語
I
internlm
1,072
26
Dallah Llama
Dallahはアラビア語向けに特別設計された先進的なマルチモーダル大規模言語モデルで、特にアラビア方言間のコンテンツ理解と生成に重点を置いています。
テキスト生成画像
Safetensors アラビア語
D
alielfilali01
17
0
Deberta V3 Large Lemon Spell 5k
DeBERTa-v3-largeをファインチューニングした英語文法チェックモデルで、一般的な文法誤りの検出と修正に特化
シーケンスラベリング
Transformers 複数言語対応

D
manred1997
15
1
Arabic Alphabet Speech Classification
これはアラビア文字の発音を認識・分類するtransformersモデルです。
音声分類
Transformers

A
HamzaSidhu786
60
1
Leeroodedicated Math 7b
このモデルは専門家協調手法により構築され、数学問題解決に特化しており、自主的に解決策を生成するか、必要に応じてGPT-4レベルの大規模モデルを呼び出します。
大規模言語モデル
Transformers

L
leeroo
63
6
Generate Question Mistral 7B
これはMistral 7Bアーキテクチャに基づいた高度な質問生成モデルで、入力テキストに基づいて関連する質問を生成するために設計されています。
質問応答システム
Transformers

G
FPHam
30
34
Reverse Interview Question
与えられたステートメントから、その原因となり得る質問を自動生成できるAIモデル。カルビン大学の高度プロジェクトによって作成されました。
質問応答システム
Transformers

R
hyechanjun
58
1
T5 Base Qg Hl
MIT
T5-baseアーキテクチャでトレーニングされた回答認識型問題生成モデルで、テキスト内のハイライトされた回答部分に基づいて関連する質問を生成できます。
質問応答システム
Transformers

T
valhalla
11.65k
12
T5 Base E2e Qg
MIT
T5-baseをベースに訓練されたエンドツーエンドの質問生成モデルで、入力テキストから自動的に関連する質問を生成できます。
質問応答システム
Transformers

T
valhalla
10.58k
29
Distilbert Base Uncased Finetuned Cola
Apache-2.0
このモデルはdistilbert-base-uncasedを未知のデータセットでファインチューニングしたバージョンで、主にテキスト分類タスクに使用されます。
大規模言語モデル
Transformers

D
ms29315
15
0
Bart Base Squad Qg No Answer
BART-baseアーキテクチャに基づく質問生成モデルで、SQuADデータセット向けにファインチューニングされており、回答情報なしで質問を生成できます。
質問応答システム
Transformers 英語

B
research-backup
15
0
Query Wellformedness Score
Apache-2.0
文法の正しさと完全性をチェックすることで、文の規範性を評価します。大文字小文字を区別し、文法エラーと大文字小文字の誤りに対して減点します。
テキスト分類
Q
Ashishkr
1,002
30
Finetuned Arabert Gec
aubmindlab/bert-base-arabertv02を基に微調整したアラビア語文法誤り訂正モデル
大規模言語モデル
Transformers

F
s3h
18
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98