774M Export
このモデルはtransformersライブラリに基づくモデルで、具体的な用途と機能はさらなる情報確認が必要です。
大規模言語モデル
Transformers

7
karpathy
25
2
Qwen2.5 Smooth Coder 14B Instruct
Apache-2.0
これはQwen2.5-14Bアーキテクチャに基づくマルチモデル融合の結果で、Model Stock融合手法を用いており、22の異なるソースからの14Bパラメータ規模のモデルを統合しています。
大規模言語モデル
Transformers

Q
spacematt
38
2
Linq Embed Mistral Bnb 4bit
Linq-Embed-MistralはMistralアーキテクチャに基づく埋め込みモデルで、テキスト分類、検索、クラスタリングタスクに特化しており、複数のMTEBベンチマークで優れた性能を発揮します。
テキスト埋め込み
Transformers 英語

L
ashercn97
147
1
Custommodel Tripadvisor Finetuned
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途についてはさらに情報を追加する必要があります。
大規模言語モデル
Transformers

C
AndrewLi403
37
1
Alphatable 1.5B
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能は明記されていません。
大規模言語モデル
Transformers

A
jan-hq
72
2
Mistral 7B Summarizer SFT GGUF
MIT
Mistral 7Bアーキテクチャに基づくテキスト要約モデルで、LoRA技術を用いて微調整の効率と性能を最適化しています。
テキスト生成 英語
M
SURESHBEEKHANI
65
0
Kljrklqejr 23 11 24
MIT
OMEGA LabsとBittensorが共同開発した任意から任意への変換モデルで、人工汎用知能分野に焦点を当てています。
大規模言語モデル その他
K
iekei
0
0
Kljrklqejr 23 11 23
MIT
OMEGA LabsとBittensorが共同開発したAny-to-Anyモデルで、複数のタスク変換をサポート
大規模言語モデル その他
K
iekei
0
0
Minicpm Embedding
MiniCPM-Embedding は MiniCPM-2B-sft-bf16 ベースモデルを基に開発された埋め込みモデルで、検索タスクに特化し、中国語と英語の二言語をサポートします。
テキスト埋め込み
Transformers 複数言語対応

M
openbmb
315
245
Ruri Reranker Large
Apache-2.0
瑠璃リランカーは日本語汎用リランキングモデルで、Sentence Transformersアーキテクチャに基づき、日本語テキストの関連性順位付けタスクに特化しています。
テキスト埋め込み 日本語
R
cl-nagoya
2,538
11
KAIROS Ast Fake Audio Detection Unsupervised
このモデルはTransformersライブラリに基づくモデルで、具体的な用途や機能はさらなる情報が必要です。
大規模言語モデル
Transformers

K
012shin
41
3
Resnet50 Facial Emotion Recognition
Apache-2.0
これはApache-2.0ライセンスで公開されたAIモデルで、具体的な機能は実際のモデルタイプによって決定されます
大規模言語モデル
Transformers

R
KhaldiAbderrhmane
50
3
RMBG
Apache-2.0
Apache-2.0ライセンスに基づくオープンソースモデル。具体的な機能と用途については完全なドキュメントを参照してください
大規模言語モデル
Transformers

R
ModelsLab
144
0
Mamba 1.4b Instruct Hf
このモデルの情報が不足しており、具体的な紹介を提供できません
大規模言語モデル
Transformers

M
scottsus
60
1
Decilm 7B Instagram Post Generation
このモデルはtransformersライブラリに基づくモデルで、具体的な用途や機能については追加情報が必要です。
大規模言語モデル
Transformers

D
jjgerbo
16
1
Bge Base En V1.5 Onnx Q
Apache-2.0
BAAI/bge-base-en-v1.5はTransformerアーキテクチャに基づく英文テキスト埋め込みモデルで、主に文の類似度計算とテキスト分類タスクに使用されます。
テキスト埋め込み
Transformers

B
Qdrant
47.21k
1
Flan Dialogue Summary Checkpoint
MIT
大規模言語モデル
Transformers

F
truocpham
69
5
Deberta V3 Base Zeroshot V1.1 All 33
MIT
DeBERTa-v3ベースのゼロショット分類モデルで、33のデータセットと387のカテゴリに対応した汎用テキスト分類タスクをサポート
テキスト分類
Transformers 英語

D
MoritzLaurer
7,152
28
Udop Test
このモデルはTransformersライブラリを基にしたモデルで、具体的な機能や用途は追加情報が必要です。
大規模言語モデル
Transformers

U
nielsr
121
0
Mmlw E5 Base
Apache-2.0
mmlw-e5-baseは、文類似度タスクに特化した文変換器ベースの特徴抽出モデルで、ポーランド語をサポートしています。
テキスト埋め込み
Transformers その他

M
sdadas
37
1
Valencearousalvam
モデル情報なし
大規模言語モデル
Transformers

V
MoroQ007
17
0
Polylm 1.7b
Apache-2.0
これはApache-2.0ライセンスに基づくオープンソースモデルで、具体的な機能は実際のモデルによって決定されます
大規模言語モデル
Transformers

P
DAMO-NLP-MT
112
11
Unichart Chart2text Statista 960
Gpl-3.0
GPL-3.0ライセンスで公開された汎用人工知能モデルで、具体的な機能は実際のモデルによって異なります
大規模言語モデル
Transformers

U
ahmed-masry
122
1
Multilingual Minilm Amazon Massive Intent
MIT
Microsoft Multilingual-MiniLMモデルをMASSIVEデータセットでファインチューニングした意図分類モデルで、多言語理解をサポート
テキスト分類
Transformers 複数言語対応

M
cartesinus
32
5
Unixcoder Base Unimodal
Apache-2.0
これはApache-2.0ライセンスで提供されるオープンソースモデルで、具体的な機能や適用分野はさらに確認が必要です
大規模言語モデル
Transformers

U
microsoft
23
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98