MT Gemma 3 12B
M
MT Gemma 3 12B
zelk12によって開発
本プロジェクトでは、mergekitとDARE TIES方法を使用して、soob3123/amoral - gemma3 - 12B - v2とIlyaGusev/saiga_gemma3_12bの2つのモデルを統合し、より強力な言語処理能力を提供することを目的としています。
ダウンロード数 1,348
リリース時間 : 5/2/2025
モデル概要
複数の事前学習済み言語モデルの長所を統合することで、単一モデルが特定のシナリオで性能不足になる問題を解決し、より包括的な言語処理能力を提供します。
モデル特徴
モデル統合技術
DARE TIESという先進的な統合方法を採用し、複数のモデルの長所を結合します。
高性能処理
12BパラメータのGemma3アーキテクチャに基づき、強力な言語処理能力を提供します。
多モデルの長所統合
amoral - gemma3とsaiga_gemma3の2つのモデルの特性を統合します。
モデル能力
テキスト生成
言語理解
マルチモーダル処理
使用事例
自然言語処理
多言語テキスト生成
高品質の多言語テキストコンテンツを生成します。
複雑な言語理解
複雑な言語構造と意味を処理し理解します。
マルチモーダルアプリケーション
画像からテキストへの変換
画像内容を記述的なテキストに変換します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98