So100 Finetune Marker
Apache-2.0
LeRobotフレームワークを基にトレーニングされたロボット戦略モデルで、特定のタスク実行に使用されます。
マルチモーダル融合
Safetensors
S
Ziang-Li
135
0
Llama Baseline V3 A
このモデルはTransformersライブラリをベースとしたモデルで、具体的な用途や機能についてはさらに情報が必要です。
大規模言語モデル
Transformers

L
Hyper-AI-Computer
140
1
Title Creator
このモデルはtransformersライブラリをベースとしたモデルで、具体的な用途や機能はさらなる情報確認が必要です。
大規模言語モデル
Transformers

T
InsafQ
22
1
Blip2 Flan Lora Finetuned Six Epoch
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

B
efeozdilek
19
0
Custom Response Generator
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

C
Leo66277
21
1
Movie Sentiment Model
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

M
KeonBlackwell
90
2
My Llama3.1 8B With Lora Eniad Assistant
このモデルはtransformersライブラリに基づくモデルで、具体的な機能や用途はさらなる情報が必要です。
大規模言語モデル
Transformers

M
ahmed-ouka
90
1
Bitnet R1 Qwen 32b
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能についてはさらなる情報確認が必要です。
大規模言語モデル
Transformers

B
codys12
221
10
Turn Detector Qwen2.5
このモデルはTransformersアーキテクチャに基づくモデルで、具体的な機能と用途は追加情報が必要です。
大規模言語モデル
Transformers

T
jeradf
56
1
Mimo 7B RL
MIT
MiMo-7B-RLはMiMo-7B-SFTモデルを基に強化学習で訓練されたモデルで、数学とコード推論タスクで優れた性能を発揮し、OpenAI o1-miniに匹敵する性能を持っています。
大規模言語モデル
Transformers

M
XiaomiMiMo
11.79k
252
AMRBART Large V2
MIT
AMRBARTは事前学習された意味解析器で、文を抽象意味グラフ(AMR)に変換できます。最新バージョンv2はよりシンプルで、高速で、強力です。
知識グラフ
Transformers 英語

A
xfbai
49
2
Kogptv3 Contextbasedv4
このモデルはtransformersライブラリに基づくモデルで、具体的な機能と用途は追加情報が必要です。
大規模言語モデル
Transformers

K
KingKDB
90
2
774M Export
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能はさらなる情報確認が必要です。
大規模言語モデル
Transformers

7
karpathy
25
2
T5 Grammar Corrector
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

T
Harshathemonster
70
1
Audio Emotion Detector Large
このモデルはTransformersライブラリをベースとしたモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

A
aicinema69
18
1
Scarlet
このモデルはTransformersライブラリに基づいており、具体的な機能は明確に説明されていません
大規模言語モデル
Transformers

S
agasta
426
0
Mt5 Swahili Finetuned
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能についてはさらに情報の確認が必要です。
大規模言語モデル
Transformers

M
tanya17
14
1
Gemma 3 12b Expert Tuning 150steps Merged
このモデルはTransformersアーキテクチャに基づいており、具体的な用途と機能についてはさらなる情報が必要です。
大規模言語モデル
Transformers

G
mattshumer
15
1
M2m100 En Sa Translation
このモデルはTransformersライブラリに基づくモデルで、具体的な用途と機能はさらなる情報確認が必要です。
大規模言語モデル
Transformers

M
SweUmaVarsh
116
1
CLAMP 4mer 500bp Pretrain
Hugging Face Transformersライブラリに基づく事前学習モデル
大規模言語モデル
Transformers

C
chikit2077
21
1
Blip2 Opt 2.7b V3 Emotion Llm
このモデルはtransformersライブラリに基づくモデルで、具体的な機能と用途はさらに確認が必要です。
大規模言語モデル
Transformers

B
Duckq
21
0
T5 Small Title Ft
Apache-2.0
T5 Small は Google がリリースした T5(Text-to-Text Transfer Transformer)モデルの小型バージョンで、さまざまな自然言語処理タスクに適しています。
テキスト生成
Transformers 英語

T
swarup3204
25
0
Distilbert Base German Lang Level Class
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能は明確に説明されていません。
大規模言語モデル
Transformers

D
iro-malta07
56
1
Linq Embed Mistral Bnb 4bit
Linq-Embed-MistralはMistralアーキテクチャに基づく埋め込みモデルで、テキスト分類、検索、クラスタリングタスクに特化しており、複数のMTEBベンチマークで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

L
ashercn97
147
1
CLAMP 6mer 1500bp Pretrain
このモデルはtransformersライブラリに基づくモデルで、具体的な機能や用途はさらなる情報確認が必要です。
大規模言語モデル
Transformers

C
chikit2077
59
1
Gemma 3 27b It Uncensored
このモデルはtransformersライブラリに基づくモデルで、具体的な機能と用途はさらなる情報確認が必要です。
大規模言語モデル
Transformers

G
braindao
57
2
Gemma 3 4b It Uncensored
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能についてはさらに情報の確認が必要です。
大規模言語モデル
Transformers

G
braindao
38
2
Model Detrv1
このモデルはTransformersライブラリに基づくモデルで、具体的な機能は明確に説明されていません。
大規模言語モデル
Transformers

M
nadirzn
16
0
Llama 4 Scout 17B 16E Instruct Fbgemm Unfused
このモデルはTransformersライブラリに基づいて構築されており、具体的な機能や用途については追加情報が必要です。
大規模言語モデル
Transformers

L
hugging-quants
22
1
Task Assigner Model
このモデルはTransformersライブラリをベースとしたモデルで、具体的な用途や機能についてはさらに情報が必要です。
大規模言語モデル
Transformers

T
sathyasrig
37
1
Albert Base V1 Stackoverflow Prediction
このモデルはtransformersライブラリに基づくモデルで、具体的な機能と用途はさらなる情報確認が必要です。
大規模言語モデル
Transformers

A
notshivain1
77
1
Llama 3.3 70B IT SFT1
Llama FactoryはTransformersライブラリに基づくモデルで、テキスト生成やその他の自然言語処理タスクに使用される可能性があります。
大規模言語モデル
Transformers

L
infrahb
158
1
Nllb 200 600M Finetuned VN
このモデルはtransformersライブラリに基づくモデルで、具体的な機能や用途はさらなる情報が必要です。
大規模言語モデル
Transformers

N
phuckhangne
112
1
Mtmme Merge Gemma 2 9B NuSLERP W0.7 0.3
SLERP手法を用いて融合されたGemma-2Bの変種モデルで、2つの異なる重みのGemma-2Bモデルバージョンを組み合わせています。
大規模言語モデル
Transformers

M
zelk12
16
2
Openclip ViT G FARE2
MIT
このモデルはTransformersアーキテクチャに基づくモデルで、具体的な用途と機能はさらなる情報確認が必要です。
大規模言語モデル
Transformers

O
RCLIP
25
0
Blip 2 For Image Rec Chatbot
このモデルはTransformersライブラリに基づくモデルであり、具体的な用途や機能についてはさらなる情報の確認が必要です。
大規模言語モデル
Transformers

B
Sid068
22
0
SAM Road Pothole Segmentation
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報確認が必要です。
大規模言語モデル
Transformers その他

S
lee-910530
24
0
Harmon 1 5B
Harmonは革新的な統一マルチモーダル理解・生成フレームワークで、共有MARエンコーダーにより理解と生成の視覚表現を調和させ、テキストから画像生成やマルチモーダル理解タスクで優れた性能を発揮します。
テキスト生成画像
Safetensors 英語
H
wusize
281
2
Medicaledi 14b EDI Reasoning LongCOT
このモデルはTransformersライブラリをベースとしたモデルで、具体的な機能や用途は追加情報が必要です。
大規模言語モデル
Transformers

M
Shaleen123
22
2
Bert Fake Review Detection
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能についてはさらに情報の確認が必要です。
大規模言語モデル
Transformers

B
SravaniNirati
178
1
- 1
- 2
- 3
- 4
- 5
- 6
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98