42dot LLM SFT 1.3B
42dotが開発した13億パラメータのコマンドフォロー型大規模言語モデル、LLaMA 2アーキテクチャに基づく教師あり微調整バージョン
ダウンロード数 676
リリース時間 : 9/4/2023
モデル概要
これは教師あり微調整を施した大規模言語モデルで、自然言語の指示を理解し実行するために特別に設計されており、英語と韓国語をサポートしています。
モデル特徴
多言語サポート
英語と韓国語の同時処理をサポートし、クロスランゲージアプリケーションに適しています
コマンドフォロー能力
特別な微調整を経て、複雑な自然言語の指示を正確に理解し実行できます
効率的な推論
13億パラメータ規模でありながら、性能を維持しつつ比較的高効率な推論を実現
マルチターン対話
一貫性のあるマルチターン対話インタラクションをサポートし、コンテキストの一貫性を保持
モデル能力
自然言語理解
コマンドフォロー
テキスト生成
マルチターン対話
クロスランゲージ処理
使用事例
インテリジェントアシスタント
バーチャルカスタマーサービス
顧客の問い合わせ処理と自動化サポートの提供に使用
複雑なクエリを理解し関連する応答を生成可能
パーソナルアシスタント
ユーザーの日常タスクや情報検索を支援
マルチターンインタラクションと個別化応答をサポート
コンテンツ生成
クリエイティブライティング
ストーリー創作やコンテンツ構想を支援
一貫性があり創造的なテキストを生成可能
多言語コンテンツ
英語と韓国語の様々なテキストコンテンツを生成
言語スタイルと文化的適応性を維持
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98