Medra27b GGUF
Apache-2.0
Medra27B量子化モデルは、nicoboss/Medra27B基礎モデルに基づいて静的量子化を行った成果物で、医療関連分野のテキスト生成、要約生成、診断推論などのタスクに適用できます。
大規模言語モデル
Transformers 複数言語対応

M
mradermacher
235
0
Medra4b I1 GGUF
Apache-2.0
Medra4bは医療データセットで微調整された多言語(英語とルーマニア語)テキスト生成モデルで、医療分野の応用に特化しています。
大規模言語モデル
Transformers 複数言語対応

M
mradermacher
289
0
Medra4b GGUF
Apache-2.0
Medra4bは医療分野に特化した量子化言語モデルで、英語とルーマニア語をサポートし、テキスト生成と要約タスクに焦点を当てています。
大規模言語モデル
Transformers 複数言語対応

M
mradermacher
152
0
Medgemma 27b Text It Bf16
その他
MedGemma-27B-Text-IT-BF16は、MLX形式に変換された大規模言語モデルで、医療健康分野のテキスト処理タスクに特化しています。
大規模言語モデル
M
mlx-community
146
1
Medgemma 27b Text It 8bit
その他
MedGemmaはGoogleが開発した医療分野の大規模言語モデルで、臨床推論と医療テキスト生成タスクに特化しています。
大規模言語モデル
M
mlx-community
129
2
Medgemma 27b Text It 4bit
その他
MedGemma-27B-Text-IT-4bitはGoogleのMedGemma-27B-Text-ITモデルを変換したMLXフォーマットモデルで、医療および臨床推論タスクに最適化されています。
大規模言語モデル
M
mlx-community
193
3
Google.medgemma 27b Text It GGUF
MedGemma-27B-Text-ITはGoogleが開発した大規模言語モデルで、医療分野のテキスト生成タスクに特化しています。
大規模言語モデル
G
DevQuasar
593
1
Medgemma 4b Pt
その他
MedGemmaはGemma 3を最適化した医療マルチモーダルモデルで、医療テキストと画像理解のために設計されており、4Bと27Bの2つのバージョンがあります。
画像生成テキスト
Transformers

M
google
1,054
73
Llama 3.1 8b Medusa V1.01
Llama 3.1アーキテクチャに基づく8Bパラメータの言語モデルで、mergekitを使って複数の専門モデルをマージして作成され、テキスト生成タスクで優れた性能を発揮します。
大規模言語モデル
Transformers

L
Nexesenex
95
3
Probemedicalyonseimailab.medllama3 V20 GGUF
medllama3-v20は医療分野に特化したテキスト生成モデルで、Llama3アーキテクチャを基に開発され、高品質な医療テキスト生成能力を提供します。
大規模言語モデル
P
DevQuasar
227
5
Radllama 7b
RadLLaMA-7bはスタンフォードAIMIチームが開発した放射学領域向けの基礎言語モデルで、LLaMA2アーキテクチャを基にしています。
大規模言語モデル
Transformers

R
StanfordAIMI
82.89k
2
Meditron 7b Chat
epfl-llm/meditron-7bをベースにAlpacaデータセットを使用してSFTトレーニングを行ったファインチューニング版で、医学分野のQ&Aタスクに特化
大規模言語モデル
Transformers 英語

M
malhajar
245
9
Clinicalt5 PET Impression
これはPET検査所見の要約に特化したファインチューニング版Clinical-T5モデルで、PET検査所見に基づいて個別化された臨床印象を自動生成できます。
大規模言語モデル
Transformers 英語

C
xtie
17
0
PEGASUS PET Impression
PETレポート所見部分の要約生成に特化したファインチューニング版PEGASUSモデルで、正確かつ個性的な全身PETレポート印象を生成可能。
テキスト生成
Transformers 英語

P
xtie
16
0
Biobart Radiology Summarization
BioBartベースのシーケンス・ツー・シーケンスモデルで、放射学的所見を印象にまとめるために使用され、70,000件の放射学レポートでトレーニングされています。
テキスト生成
Transformers 英語

B
hamzamalik11
28
0
GPT 2 Covid News Articles
Apache-2.0
このモデルはGPT2をさらに事前学習したもので、COVID-19関連のニュース記事を通じて特定のコンテキストを組み込んでおり、COVID-19関連のコンテンツ生成に適しています。
大規模言語モデル
Transformers 英語

G
arun-shankar
62
4
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98