🚀 JPharmatron-7B
JPharmatron-7Bは、医薬品のアプリケーションや研究に特化した70億パラメータの大規模言語モデルです。
🚀 クイックスタート
JPharmatron-7Bは、医薬品分野の文書作成や研究に最適化された大規模言語モデルです。以下に、このモデルの詳細を説明します。
✨ 主な機能
- 日本語と英語の医薬品データセットを用いて継続的に事前学習されています。
- Qwen2.5-7Bをベースに開発され、チャット機能が強化されています。
- 医薬品の文書作成や研究に適した性能を備えています。
📦 インストール
このドキュメントには具体的なインストール手順が記載されていないため、このセクションをスキップします。
📚 ドキュメント
モデルの詳細
モデルの説明
JPharmatron-7Bは、Qwen2.5-7Bをベースに、日本語と英語のデータセットから88億トークンを用いて継続的に事前学習されています。JPharmatron-7B-baseモデルと比較して、Qwen2.5-7B-Instructのチャットベクトルを取得することで、チャット機能が強化されています。
プロパティ |
詳細 |
開発元 |
EQUES Inc. |
資金提供元 |
GENIAC Project |
モデルタイプ |
Causal decoder-only |
言語 |
日本語、英語 |
ライセンス |
CC-BY-SA-4.0 |
モデルのソース
モデルの用途
このモデルは、医薬品の文書作成や研究に使用することを想定しています。医療用途やその他のリスクの高い用途での使用は検証されていません。
評価
我々は、JPharmatron-7Bを同規模の他の汎用/ドメイン特化モデルと比較して評価しました。
テストデータ
JPharmaBenchと2つの既存のベンチマーク(JMMLU (pharma) とIgakuQA)を使用しました。
評価結果
JPharmatron-7Bは、Meditron3-Qwen2.5-7BやLlama3.1-Swallow-8B-Instruct-v0.3と比較して、5つのベンチマークすべてで最高のスコアを達成しました。

引用
@misc{sukeda_japanese_2025,
title = {A {Japanese} {Language} {Model} and {Three} {New} {Evaluation} {Benchmarks} for {Pharmaceutical} {NLP}},
url = {http://arxiv.org/abs/2505.16661},
doi = {10.48550/arXiv.2505.16661},
abstract = {We present a Japanese domain-specific language model for the pharmaceutical field, developed through continual pretraining on 2 billion Japanese pharmaceutical tokens and 8 billion English biomedical tokens. To enable rigorous evaluation, we introduce three new benchmarks: YakugakuQA, based on national pharmacist licensing exams; NayoseQA, which tests cross-lingual synonym and terminology normalization; and SogoCheck, a novel task designed to assess consistency reasoning between paired statements. We evaluate our model against both open-source medical LLMs and commercial models, including GPT-4o. Results show that our domain-specific model outperforms existing open models and achieves competitive performance with commercial ones, particularly on terminology-heavy and knowledge-based tasks. Interestingly, even GPT-4o performs poorly on SogoCheck, suggesting that cross-sentence consistency reasoning remains an open challenge. Our benchmark suite offers a broader diagnostic lens for pharmaceutical NLP, covering factual recall, lexical variation, and logical consistency. This work demonstrates the feasibility of building practical, secure, and cost-effective language models for Japanese domain-specific applications, and provides reusable evaluation resources for future research in pharmaceutical and healthcare NLP. Our model, codes, and datasets are released at https://github.com/EQUES-Inc/pharma-LLM-eval.},
urldate = {2025-05-30},
publisher = {arXiv},
author = {Sukeda, Issey and Fujii, Takuro and Buma, Kosei and Sasaki, Shunsuke and Ono, Shinnosuke},
month = may,
year = {2025},
note = {arXiv:2505.16661 [cs]},
annote = {Comment: 15 pages, 9 tables, 5 figures}
}
その他の情報
詳細については、プレプリントを参照してください: A Japanese Language Model and Three New Evaluation Benchmarks for Pharmaceutical NLP。
モデルカードの作成者
@shinnosukeono