Bitnet R1 Llama 8b
これはHugging Face Hubでホストされているtransformersモデルです。具体的な機能や用途については、さらに情報を追加する必要があります
大規模言語モデル
Transformers

B
codys12
188
4
Image Captioning
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はさらに情報を追加する必要があります
大規模言語モデル
Transformers

I
eduardo-bolognini
319
1
Deepseek R1 Distill Qwen 14B Uncensored
MIT
transformersライブラリに基づく蒸留モデルで、DeepSeek-AIによって開発され、Qwen-14Bモデルを基に知識蒸留を行って得られたものです。
大規模言語モデル
Transformers

D
thirdeyeai
304
5
Kpfbert Nli 1
これはHugging Face Hubでホストされているtransformersモデルで、具体的な機能や用途はさらに情報を追加する必要があります
大規模言語モデル
Transformers

K
eeeyounglee
23
1
Cue Detr
MIT
このモデルはMITライセンスのもとで公開されており、具体的な情報は現在不明です。
大規模言語モデル
Transformers

C
disco-eth
6,095
0
Accent Classifier
これはHugging Face Hubでホストされている🤗 transformersモデルカードで、システムによって自動生成されました。
大規模言語モデル
Transformers

A
ylacombe
131
4
Dart V2 Vectors
Apache-2.0
これはHugging Face Hubでホストされている🤗 transformersモデルカードです。このカードは自動生成された内容です。
大規模言語モデル
Transformers

D
p1atdev
71
1
Mini Synatra SFT
Mini_Synatra_SFT は Mini_synatra_7b_02 モデルを基にした韓国語テキスト生成モデルで、ChatML フォーマットの命令インタラクションをサポートしています。
大規模言語モデル
Transformers 韓国語

M
maywell
1,851
3
Claire 7B 0.1 GGUF
Claire 7B 0.1はOpenLLM Franceが開発したフランス語大規模言語モデルで、Falconアーキテクチャに基づき、フランス語テキスト生成タスクに特化しています。
大規模言語モデル フランス語
C
TheBloke
1,029
7
Airportsecurity
大規模言語モデル
Transformers

A
Guy2
23
0
Stanford Dogs Google Vit Large Patch32 384
MIT
大規模言語モデル
Transformers

S
ep44
48
1
Roberta Ca V2 Qa Squac Ca Catalanqa
これはクリエイティブ・コモンズライセンスであり、ユーザーが作品を共有・改作することを許可しますが、帰属表示を行い、派生作品を同一方式で共有する必要があります。
大規模言語モデル
Transformers

R
crodri
23
0
Trajectory Transformer Halfcheetah Medium V2
MIT
大規模言語モデル
Transformers

T
CarlCochet
90
0
Wav2vec2 Base Pemlsb La
AGPL-3.0ライセンスに基づくオープンソースモデル。具体的な機能は実際のモデルによって異なります
大規模言語モデル
Transformers

W
lsb
46
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98