Godot Dodo 4x 60k Llama 7b
LLaMA-7Bをファインチューニングした命令追従モデルで、コード命令シナリオに特化して最適化されています
ダウンロード数 39
リリース時間 : 4/20/2023
モデル概要
これはMetaのLLaMA-7Bモデルをベースにファインチューニングされた命令追従モデルで、主にコード関連の命令タスクの理解と実行に使用されます。モデルは6万行の命令データでトレーニングされており、開発支援シナリオに特に適しています。
モデル特徴
コード命令最適化
コードの理解と生成タスクに特化してファインチューニングされており、プログラミング関連の命令追従で優れた性能を発揮します
効率的なファインチューニング
わずか6万行の命令データを使用して効率的にファインチューニングされており、元のモデルの汎用能力を維持しながら特定タスクの性能を向上させています
LLaMAベース
強力なLLaMA-7Bベースモデルを採用しており、優れた言語理解と生成能力を備えています
モデル能力
コード理解
命令追従
テキスト生成
プログラミング支援
使用事例
開発支援
コード解説
自然言語の命令に基づいてコードの機能を説明します
コードの意図を正確に理解し、解説を提供します
プログラミング教育
プログラミング学習者がプログラミング概念を理解するのを支援します
初心者向けのコード例と解説を提供します
自動化ツール
スクリプト生成
ユーザーの要求に基づいて簡単なスクリプトを生成します
実行可能な機能的なコードスニペットを生成します
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98