🚀 医療用チャットボット
このチャットボットは研究目的で設計されており、実際の医療現場での使用を意図していません。正確で有益な応答を提供するように訓練されていますが、専門的な医療アドバイス、診断、または治療の代替品ではありません。
🚀 クイックスタート
このチャットボットを使用するには、以下のコードを実行します。
import torch
from transformers import GPT2LMHeadModel, GPT2Tokenizer
path = "Mohammed-Altaf/Medical-ChatBot"
device = "cuda" if torch.cuda.is_available() else "cpu"
tokenizer = GPT2Tokenizer.from_pretrained(path)
model = GPT2LMHeadModel.from_pretrained(path).to(device)
prompt_input = (
"The conversation between human and AI assistant.\n"
"[|Human|] {input}\n"
"[|AI|]"
)
sentence = prompt_input.format_map({'input': "what is parkinson's disease?"})
inputs = tokenizer(sentence, return_tensors="pt").to(device)
with torch.no_grad():
beam_output = model.generate(**inputs,
min_new_tokens=1,
max_length=512,
num_beams=3,
repetition_penalty=1.2,
early_stopping=True,
eos_token_id=198
)
print(tokenizer.decode(beam_output[0], skip_special_tokens=True))
💻 使用例
基本的な使用法
以下は、チャットボットに質問を投げかけて応答を得る基本的なコード例です。
import torch
from transformers import GPT2LMHeadModel, GPT2Tokenizer
path = "Mohammed-Altaf/Medical-ChatBot"
device = "cuda" if torch.cuda.is_available() else "cpu"
tokenizer = GPT2Tokenizer.from_pretrained(path)
model = GPT2LMHeadModel.from_pretrained(path).to(device)
prompt_input = (
"The conversation between human and AI assistant.\n"
"[|Human|] {input}\n"
"[|AI|]"
)
sentence = prompt_input.format_map({'input': "what is parkinson's disease?"})
inputs = tokenizer(sentence, return_tensors="pt").to(device)
with torch.no_grad():
beam_output = model.generate(**inputs,
min_new_tokens=1,
max_length=512,
num_beams=3,
repetition_penalty=1.2,
early_stopping=True,
eos_token_id=198
)
print(tokenizer.decode(beam_output[0], skip_special_tokens=True))
高度な使用法
ここでは、異なる質問をチャットボットに投げかける例を示します。
import torch
from transformers import GPT2LMHeadModel, GPT2Tokenizer
path = "Mohammed-Altaf/Medical-ChatBot"
device = "cuda" if torch.cuda.is_available() else "cpu"
tokenizer = GPT2Tokenizer.from_pretrained(path)
model = GPT2LMHeadModel.from_pretrained(path).to(device)
prompt_input = (
"The conversation between human and AI assistant.\n"
"[|Human|] {input}\n"
"[|AI|]"
)
sentence = prompt_input.format_map({'input': "what type of honey is best for a bad covid cough?"})
inputs = tokenizer(sentence, return_tensors="pt").to(device)
with torch.no_grad():
beam_output = model.generate(**inputs,
min_new_tokens=1,
max_length=512,
num_beams=3,
repetition_penalty=1.2,
early_stopping=True,
eos_token_id=198
)
print(tokenizer.decode(beam_output[0], skip_special_tokens=True))
出力例
The conversation between human and AI assistant.
[|Human|] what is parkinson's disease?
[|AI|] Parkinson's disease is a neurodegenerative disorder that affects movement. It is caused by the loss of dopamine-producing cells in the brain.
The conversation between human and AI assistant.
[|Human|] what type of honey is best for a bad covid cough?
[|AI|] Manuka honey has been shown to have anti-inflammatory and antibacterial properties that can help alleviate symptoms of a bad covid cough.
📄 ライセンス
このプロジェクトはMITライセンスの下で公開されています。
📦 データセットとライブラリ
属性 |
詳細 |
データセット |
Mohammed-Altaf/medical-instruction-120k |
ライブラリ名 |
transformers |
⚠️ 重要提示
このチャットボットは研究目的でのみ設計されており、実際の医療現場での使用を意図していません。チャットボットから提供される情報は医療上の決定を下すために使用しないでください。あらゆる健康上の懸念は、許可を得た医療提供者に相談してください。