Clinical ModernBERT
臨床モダンBERTは、バイオメディカルおよび臨床テキストを処理するために設計されたエンコーダーベースのTransformerモデルで、最大8,192トークンの長いコンテキストをサポートします。
ダウンロード数 1,469
リリース時間 : 3/27/2025
モデル概要
このモデルは、バイオメディカル文献の微妙な文法を捉え、臨床叙述の複雑な意味を理解する、意味的に豊かな表現を生成することを目的としています。検索拡張生成、細粒度テキスト分類、ドメイン固有のエンティティ抽出などのタスクに適しています。
モデル特徴
拡張コンテキスト長
8,192トークンのシーケンスを処理でき、長距離依存関係と完全なドキュメントコンテキストをキャプチャします。
GeGLU活性化関数
GeGLU活性化関数を使用し、情報の流れを制御することで非線形表現とモデルの安定性を強化します。
回転位置エンコーディング
RoPEを使用して相対位置情報をエンコードし、特に拡張コンテキストに対して堅牢な位置データ処理を提供します。
フラッシュアテンション
フラッシュアテンションを使用してセルフアテンションをブロック計算し、メモリオーバーヘッドを二次からほぼ線形に削減し、長いシーケンスを効率的に処理します。
モデル能力
バイオメディカルテキスト理解
臨床叙述意味解析
長文処理
マスク言語モデリング
使用事例
医療ケア
臨床情報検索
臨床に関連する医学文献や記録を検索するために使用されます。
電子健康記録分析
電子健康記録中の臨床叙述を分析し、キー情報を抽出します。
臨床意思決定支援システム
テキストベースの分析サポートを提供し、臨床意思決定を支援します。
バイオメディカル研究
根拠に基づく医学文献検索
バイオメディカル文献を検索・分析し、根拠に基づく医学研究をサポートします。
バイオメディカルエンティティ抽出
バイオメディカルテキストから特定のエンティティ(薬物名、疾患コードなど)を抽出します。
おすすめAIモデル
Qwen2.5 VL 7B Abliterated Caption It I1 GGUF
Apache-2.0
Qwen2.5-VL-7B-Abliterated-Caption-itの量子化バージョンで、多言語画像記述タスクをサポートします。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
167
1
Nunchaku Flux.1 Dev Colossus
その他
Colossus Project FluxのNunchaku量子化バージョンで、テキストプロンプトに基づいて高品質な画像を生成することを目的としています。このモデルは、推論効率を最適化しながら、性能損失を最小限に抑えます。
画像生成 英語
N
nunchaku-tech
235
3
Qwen2.5 VL 7B Abliterated Caption It GGUF
Apache-2.0
これはQwen2.5-VL-7Bモデルに基づく静的量子化バージョンで、画像記述生成タスクに特化し、複数の言語をサポートしています。
画像生成テキスト
Transformers 複数言語対応

Q
mradermacher
133
1
Olmocr 7B 0725 FP8
Apache-2.0
olmOCR-7B-0725-FP8は、Qwen2.5-VL-7B-Instructモデルをベースに、olmOCR-mix-0225データセットで微調整した後、FP8バージョンに量子化した文書OCRモデルです。
画像生成テキスト
Transformers 英語

O
allenai
881
3
Lucy 128k GGUF
Apache-2.0
Lucy-128kはQwen3 - 1.7Bをベースに開発された、プロキシ型ネットワーク検索と軽量ブラウジングに特化したモデルで、モバイルデバイスでも効率的に動作します。
大規模言語モデル
Transformers 英語

L
Mungert
263
2