Flower Calvin Abc
MIT
FlowerVLAはロボット操作タスク向けに事前学習された視覚-言語-動作モデルで、CALVIN ABCデータセットで訓練され、効率的なフローマッチングアーキテクチャを採用し、約10億パラメータのみです。
マルチモーダル融合 英語
F
mbreuss
20
3
Rumodernbert Small
Apache-2.0
ロシア版のモダンな単方向・双方向エンコーダーTransformerモデルで、約2兆のロシア語、英語、コードデータのトークンで事前学習され、最大8,192トークンのコンテキスト長をサポートします。
大規模言語モデル
Transformers 複数言語対応

R
deepvk
619
14
Prem 1B SQL
Apache-2.0
Prem-1B-SQLはPrem AIが開発した10億パラメータのテキストからSQLへの変換モデルで、ローカル展開向けに設計されており、低スペックのGPUやCPUデバイスでの実行をサポートします。
大規模言語モデル
Safetensors 英語
P
premai-io
521
35
Seaphi3 Medium
Apache-2.0
このモデルはunsloth/Phi-3-medium-4k-instructをイタリア語翻訳データセットSeacomSrl/rag-dataで微調整した言語モデルです
大規模言語モデル
Transformers その他

S
SeacomSrl
5,133
4
Phi 1
MIT
Phi-1は13億パラメータのTransformerモデルで、Python基礎プログラミング向けに設計されており、HumanEvalベンチマークで50%以上の精度を達成
大規模言語モデル
Transformers 複数言語対応

P
microsoft
7,907
211
Open Cabrita3b GGUF
Apache-2.0
Open Cabrita 3Bはポルトガル語に最適化されたオープンソースの大規模言語モデルで、LLaMAアーキテクチャを基に、外国語と英語モデルの性能差を縮めることを目的としています。
大規模言語モデル その他
O
lucianosb
352
6
Tiny Starcoder Py
Openrail
これは1億6400万パラメータを持つPythonコード生成モデルで、StarCoderアーキテクチャに基づき、Pythonコード生成タスクに特化して最適化されています。
大規模言語モデル
Transformers

T
bigcode
1,886
74
Chinese Electra 180g Base Generator
Apache-2.0
180Gの中国語データで訓練されたELECTRAモデルで、パラメータ数は少ないが性能に優れ、中国語自然言語処理タスクに適しています
大規模言語モデル
Transformers 中国語

C
hfl
28
0
Mt5 Multitask Qa Qg Turkish
Apache-2.0
これはmT5-smallモデルをベースにしたマルチタスクシステムで、トルコ語向けに特別に設計されており、回答抽出、質問生成、質問応答の3つのタスクを実行できます。
質問応答システム その他
M
ozcangundes
114
9
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98