Llm Jp 3.1 1.8b Instruct4
Apache-2.0
日本国立情報学研究所によって開発された大規模言語モデルで、LLM-jp-3をベースに構築され、指令事前学習技術を通じて指令に従う能力が大幅に向上しています。
大規模言語モデル
Transformers 複数言語対応

L
llm-jp
165
3
Proofgpt V0.1 6.7B
MIT
ProofGPT-v0.1 はGPT-NeoXアーキテクチャを基にした67億パラメータの言語モデルで、proof-pileデータセットから訓練されました。
大規模言語モデル
Transformers 英語

P
hoskinson-center
168
10
Olmo 2 0425 1B SFT
Apache-2.0
OLMo 2 1B SFTはOLMo-2-0425-1Bモデルの教師ありファインチューニング版で、Tulu 3データセットで訓練され、様々なタスクで最先端の性能を実現することを目的としています。
大規模言語モデル
Transformers 英語

O
allenai
1,759
2
Gams 27B Instruct
GaMS-27B-Instructは、グーグルのGemma 2シリーズをベースに改良された多言語大規模言語モデルで、特にスロベニア語などのバルカン半島の言語に最適化されています。
大規模言語モデル
Safetensors
G
cjvt
4,492
1
Gams 9B Instruct GGUF
GaMS-9B-InstructはGoogle Gemma 2シリーズを基に開発されたスロベニア語大規模言語モデルで、スロベニア語、英語、および一部の南スラブ語族の言語をサポートしています。
大規模言語モデル 複数言語対応
G
tknez
81
2
F5 TTS Vietnamese 100h
F5-TTSを微調整したコンパクト版で、150時間のベトナム語音声データでトレーニングされており、研究用途のみに限定されます。
音声合成 その他
F
hynt
123
14
Llama 3.2 3B NuminaQA
Apache-2.0
FineMath-Llama-3Bをファインチューニングした3BパラメータのQAモデルで、Numia-1.5 QAデータセットでトレーニング
大規模言語モデル
Transformers

L
lkevinzc
330
3
Herald Translator
Apache-2.0
Heraldは自然言語でアノテーションされたLean 4データセットで、主に自然言語処理と形式的検証の分野の研究に使用されます。
大規模言語モデル
Transformers

H
FrenzyMath
1,837
1
C4ai Command R7b 12 2024 Abliterated GGUF
これはc4ai-command-r7b-12-2024-abliteratedモデルの量子化バージョンで、llama.cppを使用して量子化されており、複数の量子化タイプをサポートし、さまざまなハードウェア環境に適しています。
大規模言語モデル 複数言語対応
C
bartowski
867
13
VARCO VISION 14B HF
VARCO-VISION-14Bは強力な英韓視覚言語モデルで、画像とテキスト入力をサポートし、テキスト出力を生成します。位置特定、参照、OCR機能を備えています。
画像生成テキスト
Transformers 複数言語対応

V
NCSOFT
449
24
Llavaguard V1.2 0.5B OV
LlavaGuardは視覚言語モデルに基づくセキュリティ評価の守護者で、主に画像コンテンツの安全分類と違反検出に使用されます。
画像生成テキスト
L
AIML-TUDA
239
2
Llavaguard V1.2 7B OV Hf
LlavaGuardは視覚言語モデルに基づくセキュリティ評価システムで、画像コンテンツの安全分類とコンプライアンスチェックに使用されます。
画像生成テキスト
L
AIML-TUDA
1,148
5
Llavaguard V1.2 7B OV
LlavaGuardは視覚言語モデルに基づくセキュリティ評価システムで、主に画像コンテンツの安全分類とコンプライアンスチェックに使用されます。
画像生成テキスト
L
AIML-TUDA
193
2
Moirai Moe 1.0 R Small
PyTorchベースの時系列予測事前学習モデルで、様々な時系列データ分析タスクに適用可能
気候モデル
M
Salesforce
130.92k
8
Moirai Moe 1.0 R Base
これは事前学習された時系列予測モデルで、時系列データの分析と予測タスクに特化しています。
気候モデル
Safetensors
M
Salesforce
374.41k
9
Llama 3.1 SauerkrautLM 70b Instruct AWQ
Apache-2.0
Wisperlamaは、DFGが資金提供するWispermedグループの博士課程学生チームによって開発されたテキスト生成モデルで、Llama-3.1アーキテクチャをベースに最適化されています。
大規模言語モデル
Safetensors 複数言語対応
L
WisPerMed
136
5
Tucano 2b4
Apache-2.0
Tucano-2b4は、ポルトガル語に特化して原生事前学習を行った大規模言語モデルで、トランスフォーマーアーキテクチャに基づき、2000億トークンのGigaVerboデータセットで学習されました。
大規模言語モデル
Transformers その他

T
TucanoBR
1,478
4
Llammlein 1B
その他
これはTinyllamaコードフレームワークをベースに、RedPajama V2ドイツ語コーパスを使用してゼロからトレーニングされたドイツ語Tinyllama 1B言語モデルです。
大規模言語モデル
Transformers ドイツ語

L
LSX-UniWue
304
14
Plamo 100b
その他
Preferred Elements社が英日バイリンガルのオープンソースデータセットを基に訓練した千億パラメータモデルで、商用と非商用の両方のライセンスを提供します。
大規模言語モデル
Transformers 複数言語対応

P
pfnet
178
18
Cambrian 8b
Apache-2.0
カンブリア紀は、視覚を中核に設計されたオープンソースのマルチモーダルLLM(大規模言語モデル)です。
テキスト生成画像
Transformers

C
nyu-visionx
565
63
Moirai 1.1 R Large
Moirai-1.1-RはSalesforceが開発した時系列予測の基盤モデルで、低頻度データの予測性能が大幅に向上しています。
気候モデル
Transformers

M
Salesforce
14.11k
26
Moirai 1.1 R Base
Moirai-1.0-Rモデルの全面アップグレード版で、Monashナレッジベースの40データセットにおいて顕著な進歩を達成、特に低頻度データシナリオに最適化されています。
気候モデル
Transformers

M
Salesforce
26.77k
7
Moirai 1.1 R Small
Moirai-1.1-RはSalesforceがリリースした時系列予測の基盤モデルで、低頻度データ(年次データや四半期データなど)において優れた性能を発揮し、前世代モデルと比べて約20%の性能向上を実現しました。
気候モデル
Transformers

M
Salesforce
14.61k
6
Brahmai Clip V0.1
MIT
ViT-L/14とマスクドセルフアテンションTransformerを基にしたCLIPモデルで、ゼロショット画像分類研究用
テキスト生成画像
Transformers 英語

B
brahmairesearch
12.53k
0
Latxa 7b V1.2
LatxaはLLaMA-2アーキテクチャに基づくバスク語大規模言語モデルで、低リソース言語向けに設計されており、42億トークンのバスク語コーパスで訓練されています
大規模言語モデル
Transformers 複数言語対応

L
HiTZ
875
5
Llavaguard 7B
LlavaGuardは視覚言語モデルに基づくデータセットセキュリティ評価と保証フレームワークで、主にコンテンツセキュリティ評価に使用されます。
画像生成テキスト
Transformers

L
AIML-TUDA
64
10
Llama 3 8B SFR SFT R
LLaMA-3-8Bをベースとした教師あり微調整モデルで、Salesforceによって開発され、強化学習ヒューマンフィードバック(RLHF)ワークフローの教師あり微調整段階で使用されます。
大規模言語モデル
Transformers

L
Salesforce
22
8
Llamantino 3 ANITA 8B Inst DPO ITA
LLaMAntino-3-ANITAはMeta Llama 3をベースに構築された多言語(英語+イタリア語)大規模言語モデルで、イタリア語NLPタスクに最適化されています。
大規模言語モデル
Transformers 複数言語対応

L
swap-uniba
6,401
25
Minerva 1B Base V1.0
Apache-2.0
Minerva-1B-base-v1.0はSapienza NLPがFAIRおよびCINECAと共同開発した10億パラメータのイタリア語・英語バイリンガル大規模言語モデルで、2000億トークン(イタリア語1000億、英語1000億)で学習されています
大規模言語モデル
Transformers 複数言語対応

M
sapienzanlp
551
28
Dictalm2.0 Instruct
Apache-2.0
DictaLM-2.0ベースの命令ファインチューニング大規模言語モデル、ヘブライ語と英語のチャットシナリオに最適化
大規模言語モデル
Transformers 複数言語対応

D
dicta-il
9,977
22
Cner Base
CNERモデルはDeBERTa-v3-baseアーキテクチャに基づく固有表現認識モデルで、きめ細かいラベル付きの概念と固有表現を統合的に識別・分類できます。
シーケンスラベリング
Transformers 英語

C
Babelscape
20.66k
6
Dictabert Sentiment
ヘブライ語専用に設計された最先端言語モデル、BERTアーキテクチャに基づく感情分析モデル
テキスト分類
Transformers その他

D
dicta-il
1,242
1
Qra 1b
Apache-2.0
Qraはポーランド国立情報処理研究所とグダニスク工科大学が共同開発したポーランド語最適化大規模言語モデルシリーズで、TinyLlama-1.1Bを初期化し900億のポーランド語トークンで訓練
大規模言語モデル
Transformers

Q
OPI-PG
246
20
Llava V1.6 Vicuna 7b Gguf
Apache-2.0
LLaVAはオープンソースのマルチモーダルチャットボットで、マルチモーダル命令追従データでLLMをファインチューニングしてトレーニングされています。このバージョンはGGUF量子化バージョンで、複数の量子化オプションを提供しています。
テキスト生成画像
L
cjpais
493
5
Llava V1.6 34b
Apache-2.0
LLaVAはオープンソースのマルチモーダルチャットボットで、大規模言語モデルのファインチューニングにより訓練され、画像とテキストのインタラクションをサポートします。
テキスト生成画像
L
liuhaotian
9,033
351
TURNA
その他
TURNAはUL2フレームワークに基づくトルコ語言語モデルで、理解と生成タスクに適しており、複数のトルコ語タスクで優れた性能を発揮します。
大規模言語モデル
Transformers その他

T
boun-tabi-LMG
187
75
UNA TheBeagle 7b V1
TheBeagleはThe Bagelデータセットでトレーニングされた70億パラメータモデルで、DPO(直接選好最適化)とUNA(統一ニューラルアーキテクチャ)技術を採用し、マルチタスクで優れた性能を発揮します。
大規模言語モデル
Transformers

U
fblgit
88
37
Teenytinyllama 460m
Apache-2.0
TeenyTinyLlama-460mはブラジルポルトガル語に最適化されたオープンソースの小型言語モデルで、460Mパラメータ規模、Transformerアーキテクチャに基づいて事前訓練されています。
大規模言語モデル その他
T
nicholasKluge
289
11
Phi 2 Arxiv Physics Instruct
Apache-2.0
Phi-2アーキテクチャに基づく物理学分野のQAモデルで、arXiv物理学論文の内容に特化して指令ファインチューニングされています
大規模言語モデル
Transformers 英語

P
AlgorithmicResearchGroup
15
3
Llamantino 2 7b Hf ITA
LLaMA 2ベースのイタリア語適応大規模言語モデル、イタリア語テキスト生成タスクに特化
大規模言語モデル
Transformers その他

L
swap-uniba
4,696
7
- 1
- 2
- 3
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98