Derm Foundation
その他
Derm Foundationは、皮膚病学アプリケーションにおける皮膚画像分析のAI開発を加速させるための機械学習モデルです。
画像分類 英語
D
google
1,011
44
Tinybert L 4 H 312 V2
TinyBERTは華為技術(ファーウェイ)のNoah's Ark Labが開発した軽量BERTモデルで、知識蒸留技術を用いてモデルサイズを圧縮しながら高い性能を維持しています。
大規模言語モデル
T
nreimers
5,166
1
Distilbert Base En Fr Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量化バージョンで、英語とフランス語の2つの言語を専門に扱い、元のモデルの表現能力と精度を維持しています。
大規模言語モデル
Transformers 複数言語対応

D
Geotrend
4,916
1
Bert Base Uncased Sparse 85 Unstructured Pruneofa
Apache-2.0
これはスパースな事前学習モデルで、様々な言語タスクにファインチューニング可能であり、重みプルーニングにより計算コストを削減します。
大規模言語モデル
Transformers 英語

B
Intel
15
0
Distilbert Base En El Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量版で、英語とギリシャ語をサポートし、元のモデルの意味表現能力を保持しています。
大規模言語モデル
Transformers その他

D
Geotrend
23
0
Roberta Base Pf Imdb
これはroberta-baseモデルをベースに訓練されたアダプターで、IMDB映画レビューの感情分析タスクに特化しています。
テキスト分類 英語
R
AdapterHub
41
0
Distilbert Base En Vi Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの小型バージョンで、英語とベトナム語に特化しており、元のモデルの精度を維持しています。
大規模言語モデル
Transformers その他

D
Geotrend
30
1
Distilbert Base En Bg Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの小型版で、英語とブルガリア語に特化して最適化され、元のモデルの精度を維持しています。
大規模言語モデル
Transformers その他

D
Geotrend
21
0
Distilbert Base En Fr De No Da Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量バージョンで、英語、フランス語、ドイツ語、ノルウェー語、デンマーク語の処理をサポートし、元の精度を保持しています。
大規模言語モデル
Transformers その他

D
Geotrend
43
0
Distilbert Base En Uk Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量化バージョンで、英語とウクライナ語に特化して最適化され、元のモデルの精度を維持しています。
大規模言語モデル
Transformers その他

D
Geotrend
168
1
Distilbert Base En Nl Cased
Apache-2.0
これはdistilbert-base-multilingual-casedの軽量化バージョンで、英語とオランダ語に特化して最適化され、元のモデルの精度を維持しています。
大規模言語モデル
Transformers その他

D
Geotrend
81
0
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98