Xiyansql QwenCoder 3B 2504
Apache-2.0
XiYanSQL-QwenCoder-3B-2504はXGenerationLabがリリースした最新のSQL生成モデルで、ファインチューニングとGRPOトレーニングにより最適化され、複数のデータベース方言をサポートし、効率的で正確なSQL生成能力を備えています。
大規模言語モデル
Safetensors 複数言語対応
X
XGenerationLab
182
3
Sqlcoder 7b 2 GGUF
これはdefog/sqlcoder-7b-2モデルのGGUFフォーマット量子化バージョンで、主にSQLコード生成タスクに使用されます。
大規模言語モデル
S
MaziyarPanahi
346
10
Slim Sql 1b V0
Apache-2.0
SLIMシリーズ初のモデルで、自然言語プロンプトに基づいて単純なテーブル構造のデータ検索SQLクエリを生成するために設計されています
大規模言語モデル
Transformers

S
llmware
67
10
Sqlcoder GGUF
その他
SqlcoderはDefog.aiによって開発されたSQLコード生成に特化したモデルで、StarCoderアーキテクチャを基にしており、自然言語クエリをSQL文に変換できます。
大規模言語モデル 複数言語対応
S
TheBloke
510
18
Sql Gen Join
Bsd-3-clause
Salesforce/codegen-350M-multiを微調整したSQL生成モデルで、JOIN操作の生成に特化
大規模言語モデル
Transformers

S
Akaisora
70
1
Tapas Large Finetuned Wikisql Supervised
Apache-2.0
TAPASはBERTに似たTransformerモデルで、表形式の質問応答タスク用に設計されています。自己教師付き方式でウィキペディアの英語表コーパスで事前学習され、WikiSQLデータセットで微調整されています。
質問応答システム
Transformers 英語

T
google
80
6
Tapas Base Finetuned Wikisql Supervised
Apache-2.0
TAPASはBERTベースのTransformerモデルで、表質問応答タスク向けに設計されており、ウィキペディア英語表データで自己教師付き事前学習され、弱教師付き表解析をサポートします。
質問応答システム
Transformers 英語

T
google
737
9
Tapas Medium Finetuned Wikisql Supervised
Apache-2.0
TAPASはTransformerベースの表形式の質問応答モデルで、自己教師付き方式でウィキペディアの英語の表データで事前学習し、WikiSQLデータセットで教師付き微調整を行います。
質問応答システム
Transformers 英語

T
google
19
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98