Speechless Coder Ds 6.7b
speechless-coder-ds-6.7bは、deepseek-ai/deepseek-coder-6.7bをベースに微調整された大規模言語モデルで、コード生成とプログラミング支援能力の向上に特化しています。
ダウンロード数 771
リリース時間 : 12/30/2023
モデル概要
このモデルは特定のデータセットで微調整され、コード生成、プログラミング問題解決、アルゴリズム実装能力を強化することを目的としており、主に開発者に対してスマートなプログラミング支援を提供します。
モデル特徴
強化されたコード生成能力
Magicoderデータセットでの微調整により、コード生成の品質と精度が大幅に向上します。
多言語プログラミングサポート
複数の主流プログラミング言語のコード生成と理解をサポートします。
長文脈処理
8192トークンの文脈ウィンドウで、複雑なプログラミングタスクの処理に適しています。
量子化サポート
4、5、8ビットのGGUFモデルを提供し、CPU+GPUによる推論を容易にします。
モデル能力
コード生成
プログラミング問題解答
アルゴリズム実装
コード解釈
プログラミング言語変換
使用事例
開発支援
データ構造実装
指示に基づいて特定のプログラミング言語でのデータ構造の実装コードを生成します。
例えば、C++のリンクリストの実装を生成
アルゴリズム解決策
プログラミング問題に対するアルゴリズム解決策とコード実装を提供します。
教育
プログラミング学習支援
学生がプログラミング概念を理解し学習するのを支援します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98