Openclip ViT H 14 FARE2
MIT
Transformersライブラリに基づくロバストな画像エンコーダーモデル、画像特徴抽出タスクに特化
大規模言語モデル
Transformers

O
RCLIP
24
0
Trellis Normal V0 1
MIT
TRELLISの改良版で、2D画像を3Dモデルに変換することをサポートし、特に法線条件付け処理に対応しています。
3Dビジョン 英語
T
Stable-X
19.31k
10
Triposr
MIT
TripoSRはStability AIとTripo AIが共同開発した高速フィードフォワード式3D生成モデルで、単一画像から迅速に3Dモデルを生成できます。
3Dビジョン
T
TrianC0de
21
0
Autoencoder
MIT
これはMITライセンスで公開されたスペイン語画像間処理モデルです。
画像生成 スペイン語
A
Aaronsep
29
0
DRP
MIT
DRPはロボット運動計画に特化したモデルで、5Mチェックポイントで7kサイクル(約7Mステップ)のトレーニングを実施
タンパク質モデル 英語
D
jimyoung6709
7,980
1
Matryoshka Diffusion Models
MIT
diffusersライブラリに基づくテキストから画像生成モデルで、ネストされた拡散構造を採用して高品質な画像生成を実現します。
テキスト生成画像 複数言語対応
M
tolgacangoz
183
4
Moralbert Predict Fairness In Text
MIT
PyTorchに基づくテキスト分類モデルで、テキスト分類関連のタスクに使用できます。
テキスト分類
Safetensors
M
vjosap
3,547
1
Negclip
MIT
オープンクリップは、微調整なしで画像を分類できるゼロショット画像分類モデルです。
画像分類
N
Nano1337
92
0
Llama 2 7b 80k
MIT
このプロジェクトの情報が不足しているため、具体的な紹介を提供できません。
大規模言語モデル
Transformers

L
yaofu
1,813
13
Saul 7B Instruct V1
MIT
法律分野に特化した大規模命令言語モデル、Mistral-7Bを基に継続事前学習
大規模言語モデル
Transformers 英語

S
Equall
6,253
86
Deepseek Math 7b Instruct
その他
DeepSeekMathは数学分野に特化したモデルで、商用利用をサポートし、MITライセンスに準拠しています。
大規模言語モデル
Transformers

D
deepseek-ai
26.24k
124
Skintelligent Acne
MIT
にきびの重症度を評価する画像分類モデルで、にきびなしから極重度にきびまでの6段階分類をサポート
画像分類
Transformers 英語

S
imfarzanansari
484
13
Self Rag Critic
MIT
MITライセンスで公開されたモデルで、詳細情報は追加が必要です
大規模言語モデル
Transformers

S
selfrag
86
12
Ptt5 Small Portuguese Keyword Extractor V2
MIT
これはポルトガル語をサポートするモデルです。具体的な機能と用途は明確に説明されていません。
大規模言語モデル
Transformers その他

P
cnmoro
26
1
Caption Gen
MIT
MITライセンスに基づく画像キャプション生成モデルで、英語をサポートし、画像内容を記述テキストに変換することに特化しています。
画像生成テキスト
Transformers

C
captioner
23
0
Tiny Doc Qa Vision Encoder Decoder
MIT
MITライセンスに基づく文書質問応答モデルで、主にテスト目的で使用されます。
質問応答システム
Transformers

T
fxmarty
41.08k
16
Scincl Wol
MIT
SciDocsの漏洩データを使用せずにトレーニングされた科学文献埋め込みモデル
大規模言語モデル
Transformers

S
malteos
127
0
Cross En It Roberta Sentence Transformer
MIT
英語とイタリア語をサポートする文埋め込みモデルで、文のベクトル表現を生成するために使用されます。
テキスト埋め込み
Transformers 複数言語対応

C
T-Systems-onsite
16
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98