# 小規模パラメータで効率的

Flower Calvin Abc
MIT
FlowerVLAはロボット操作タスク向けに事前学習された視覚-言語-動作モデルで、CALVIN ABCデータセットで訓練され、効率的なフローマッチングアーキテクチャを採用し、約10億パラメータのみです。
マルチモーダル融合 英語
F
mbreuss
20
3
Rumodernbert Small
Apache-2.0
ロシア版のモダンな単方向・双方向エンコーダーTransformerモデルで、約2兆のロシア語、英語、コードデータのトークンで事前学習され、最大8,192トークンのコンテキスト長をサポートします。
大規模言語モデル Transformers 複数言語対応
R
deepvk
619
14
Prem 1B SQL
Apache-2.0
Prem-1B-SQLはPrem AIが開発した10億パラメータのテキストからSQLへの変換モデルで、ローカル展開向けに設計されており、低スペックのGPUやCPUデバイスでの実行をサポートします。
大規模言語モデル Safetensors 英語
P
premai-io
521
35
Seaphi3 Medium
Apache-2.0
このモデルはunsloth/Phi-3-medium-4k-instructをイタリア語翻訳データセットSeacomSrl/rag-dataで微調整した言語モデルです
大規模言語モデル Transformers その他
S
SeacomSrl
5,133
4
Phi 1
MIT
Phi-1は13億パラメータのTransformerモデルで、Python基礎プログラミング向けに設計されており、HumanEvalベンチマークで50%以上の精度を達成
大規模言語モデル Transformers 複数言語対応
P
microsoft
7,907
211
Open Cabrita3b GGUF
Apache-2.0
Open Cabrita 3Bはポルトガル語に最適化されたオープンソースの大規模言語モデルで、LLaMAアーキテクチャを基に、外国語と英語モデルの性能差を縮めることを目的としています。
大規模言語モデル その他
O
lucianosb
352
6
Tiny Starcoder Py
Openrail
これは1億6400万パラメータを持つPythonコード生成モデルで、StarCoderアーキテクチャに基づき、Pythonコード生成タスクに特化して最適化されています。
大規模言語モデル Transformers
T
bigcode
1,886
74
Chinese Electra 180g Base Generator
Apache-2.0
180Gの中国語データで訓練されたELECTRAモデルで、パラメータ数は少ないが性能に優れ、中国語自然言語処理タスクに適しています
大規模言語モデル Transformers 中国語
C
hfl
28
0
Mt5 Multitask Qa Qg Turkish
Apache-2.0
これはmT5-smallモデルをベースにしたマルチタスクシステムで、トルコ語向けに特別に設計されており、回答抽出、質問生成、質問応答の3つのタスクを実行できます。
質問応答システム その他
M
ozcangundes
114
9
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase