Turkish Deepseek
DeepSeekアーキテクチャに基づき、トルコ語テキストで訓練された言語モデルで、マルチヘッド潜在的注意(MLA)と専家混合(MoE)技術を含んでいます。
Downloads 106
Release Time : 5/30/2025
Model Overview
トルコ語に最適化された言語モデルで、先進的なMLAとMoE技術を採用し、トルコ語テキスト生成タスクに適しています。
Model Features
マルチヘッド潜在的注意(MLA)
圧縮されたキー値表現(ランク256)を採用し、独立した位置なしと位置符号化コンポーネントを組み合わせて、長いシーケンスの効率的なメモリ使用を実現します。
専家混合(MoE)
4つのルーティング専家と2つの共有専家を含み、各トークンが2つの専家を活性化し、疎な活性化によって計算量を削減します。
最適化されたトルコ語処理
トルコ語に特化して訓練され、トルコ語ウィキペディアデータを使用し、語彙表がトルコ語に最適化されています。
YaRNスケーリングの回転位置符号化
周波数スケーリングをサポートする回転位置埋め込みで、訓練長を超えるコンテキストを拡張できます。
Model Capabilities
トルコ語テキスト生成
長いシーケンス処理
効率的なメモリ使用
Use Cases
テキスト生成
トルコ語コンテンツ作成
トルコ語の記事、物語またはその他の創造的なコンテンツを生成します。
トルコ語対話システム
トルコ語のチャットボットまたは対話アシスタントを構築します。
教育
トルコ語学習支援
学習者がトルコ語の作文と文法を練習するのを支援します。
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98