# トルコ語最適化
Bert2d Cased Turkish 128K WWM NSW2
Apache-2.0
Bert2DModelは、古典的なBERTアーキテクチャに対する全く新しい探索であり、トルコ語のような複雑な形態論構造を持つ言語を処理するために設計されています。
大規模言語モデル
PyTorch
B
yigitbekir
610
2
Llama 3 8B Instruct Abliterated TR
LLaMA-3-8B-Instructのアブレーションバージョンで、特定の技術手段によりモデルにトルコ語で応答させる
大規模言語モデル
Transformers Other

L
Metin
25
5
Turkish E5 Large
MIT
intfloat/multilingual-e5-large-instructモデルをファインチューニングしたトルコ語検索モデルで、トルコ語段落検索タスクに特化しています。
テキスト埋め込み
Safetensors
T
ytu-ce-cosmos
2,327
10
Turkish Llama 8b Instruct V0.1 GGUF
トルコ語に最適化された8Bパラメータの命令微調整大規模言語モデルで、文化的文脈理解とローカライズ表現に優れています
大規模言語モデル
T
matrixportal
220
2
Gemma 3 4b It GGUF
Gemma 3B InstructはGoogleが開発した軽量オープンソースの大規模言語モデルで、30億パラメータ規模で最適化され、多言語タスクと量子化デプロイをサポートしています。
大規模言語モデル
Transformers

G
matrixportal
186
0
Fikri 3.1 8B Instruct
Fikriはトルコ語タスク専用にカスタマイズされた言語モデルで、Llama 3.1アーキテクチャを基に80億のパラメータを持っています。
大規模言語モデル
Safetensors
F
BrewInteractive
3,226
6
Cere Llama 3.1 8B Tr
Llama3.1 8B大規模言語モデルを基にトルコ語向けに最適化したファインチューニング版、トレーニングデータは高品質なトルコ語命令セットから取得
大規模言語モデル
Transformers Other

C
CerebrumTech
41
3
Cere Llama 3 8b Tr
Llama3 8b大規模言語モデルを基にトルコ語向けに最適化した微調整バージョンで、高品質なトルコ語命令セットから訓練データを取得
大規模言語モデル
Transformers Other

C
CerebrumTech
2,959
7
Sambalingo Turkish Base
SambaLingo-トルコ語-ベーシック版は、Llama-2-7bをベースに事前学習されたバイリンガル(トルコ語と英語)モデルで、Cultura-Xデータセットのトルコ語部分で420億トークンを訓練し、トルコ語に適応させています。
大規模言語モデル
Transformers Supports Multiple Languages

S
sambanovasystems
29
38
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98