Llama 3.1 8b Dolermed R1 V1.01
L
Llama 3.1 8b Dolermed R1 V1.01
Nexesenexによって開発
これはLlama-3.1アーキテクチャをベースとした80億パラメータの言語モデルで、mergekitツールを使用して複数の専門領域のLlama-3.1バリアントモデルを統合しています。
ダウンロード数 50
リリース時間 : 2/28/2025
モデル概要
このモデルは医療、汎用対話、深層推論の3つの領域のLlama-3.1バリアントを融合し、マルチドメインの総合能力を提供することを目的としています。
モデル特徴
マルチドメイン融合
医療、汎用対話、深層推論の3つの専門領域のモデル能力を統合
高性能ベース
Dolphin3.0-Llama3.1をベースモデルとして使用し、強力な汎用言語理解能力を備えています
標準化処理
bfloat16データ型と標準化処理を採用し、モデル品質を確保
モデル能力
医療テキスト理解と生成
マルチターン対話処理
複雑な問題推論
マルチドメイン知識QA
指示追従
使用事例
医療健康
医療相談支援
患者の症状説明を理解し、初期アドバイスを提供
医療情報取得効率の向上
カスタマーサービス
インテリジェントカスタマーサポート
顧客の相談や問題解決を処理
24/7自動化カスタマーサポート
教育
学習アシスタント
学生の質問に答え、学習リソースの提案を提供
個別化学習サポート
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98