Malikafinal
その他
FLUX.1-devベースのLoRAモデルで、写真レベルのリアリズムを持つマリカキャラクターポートレートを生成
画像生成 英語
M
codermert
26
1
Stockllm
FinSeer StockLLM は、金融時系列予測のために設計されたオープンソースの10億パラメータ大規模言語モデルで、検索拡張生成(RAG)フレームワークを採用しています。
大規模言語モデル
Transformers 英語

S
TheFinAI
29
1
Flux Imatrix
その他
ggufライブラリに基づいて実装されたテキストから画像への変換モデルで、複数の量子化タイプをサポートし、画像生成タスクに適しています。
テキスト生成画像
F
Eviation
5,055
2
FLUX.1 Canny Dev GGUF
その他
FLUX.1-Canny-devはStable Diffusion技術に基づくテキストから画像を生成するモデルで、高品質な画像生成に特化しています。
テキスト生成画像 英語
F
gaianet
53
3
Base ZhEn
このモデルは画像の内容をテキスト説明に変換するために使用され、非商用目的に適しています。
文字認識
B
MixTex
50
0
Blue Pencil Flux1
その他
FLUX.1-dev は実験的なテキスト画像生成モデルで、現在開発段階にあり、プロンプトへの反応が鈍かったり予期せぬ動作をする可能性があります。
テキスト生成画像
B
bluepen5805
1,213
20
Ko Ocgn Ep1
このモデルはクリエイティブ・コモンズ表示-非営利4.0国際ライセンスに準拠しており、非商用目的の知識共有に適しています。
大規模言語モデル
Transformers

K
maywell
1,769
1
42dot LLM SFT 1.3B
42dotが開発した13億パラメータのコマンドフォロー型大規模言語モデル、LLaMA 2アーキテクチャに基づく教師あり微調整バージョン
大規模言語モデル
Transformers 複数言語対応

4
42dot
676
37
Platypus2 70B Instruct
Platypus2-70B-instructはLLaMA 2アーキテクチャに基づく大規模言語モデルで、garage-bAIndとupstageAIのモデルを統合したもので、命令追従と論理的推論タスクに特化しています。
大規模言語モデル
Transformers 英語

P
garage-bAInd
1,332
175
Shikra 7b Delta V1
このモデルはクリエイティブ・コモンズ表示-非営利4.0国際ライセンスの下で公開されており、非商用目的での使用が可能で、原作者の表示が必要です。
大規模言語モデル
Transformers

S
shikras
9,819
8
Stable Vicuna 13b Delta
StableVicuna-13BはVicuna-13B v0モデルを基に、人間のフィードバックによる強化学習(RLHF)と近接方策最適化(PPO)を用いて、様々な対話および命令データセットで微調整されたモデルです。
大規模言語モデル
Transformers 英語

S
CarperAI
31
455
KLAID LJP Base
KLUE RoBERTa-baseをベースに構築された韓国の法律人工知能データセット分類モデルで、法律関連の分類タスクに使用されます。
テキスト分類
Transformers 韓国語

K
lawcompany
419
3
Iwslt Asr Wav2vec Large 4500h
Wav2Vec2アーキテクチャに基づく大規模英語自動音声認識モデルで、4500時間の多ソース音声データで微調整され、言語モデルを用いたデコードをサポートします。
音声認識
Transformers 英語

I
nguyenvulebinh
27
2
English Pert Base
PERTはBERTに基づく事前学習言語モデルで、英語テキスト処理タスクをサポートします。
大規模言語モデル
Transformers 英語

E
hfl
37
6
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98