T0 S1 14B
T
T0 S1 14B
TomasLazによって開発
Qwen2.5-14B-InstructはQwen2.5アーキテクチャに基づく140億パラメータの命令ファインチューニング大規模言語モデルで、s1Kデータセットでファインチューニング最適化されています。
ダウンロード数 47
リリース時間 : 3/24/2025
モデル概要
このモデルは命令最適化された大規模言語モデルで、様々なテキスト生成タスクに適しており、複雑な自然言語命令を理解し実行できます。
モデル特徴
命令ファインチューニング最適化
s1Kデータセットで専門的にファインチューニングされ、命令の理解と実行能力が向上
大規模パラメータ
140億パラメータのモデル規模で、強力な言語理解と生成能力を備える
Qwen2.5アーキテクチャ採用
先進的なQwen2.5モデルアーキテクチャを採用し、優れた性能
モデル能力
自然言語理解
命令実行
テキスト生成
対話システム
質問応答システム
使用事例
インテリジェントアシスタント
バーチャルカスタマーサービス
自動カスタマーサービスシステム構築に使用、ユーザー問い合わせ処理
複雑な問題を理解し正確な回答を提供可能
コンテンツ作成
記事生成
命令に基づき様々なテキストコンテンツを自動生成
流暢で一貫性のあるテキストを生成
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98