Llama2 7b WhoIsHarryPotter
L
Llama2 7b WhoIsHarryPotter
Developed by microsoft
このモデルは微調整技術により、大規模言語モデルから『ハリー・ポッター』シリーズの知識を選択的に忘却する能力を実現しつつ、他の性能を維持しています。
Downloads 520
Release Time : 10/3/2023
Model Overview
本モデルは大規模言語モデルの忘却技術の概念実証であり、再訓練なしでLLMから特定の訓練データ(『ハリー・ポッター』シリーズの内容)を消去可能で、標準ベンチマークテストではオリジナルモデルとほぼ同等の性能を示します。
Model Features
選択的知識忘却
再訓練不要でモデルから特定分野の知識(『ハリー・ポッター』シリーズ)を消去可能
性能維持
標準ベンチマークテストでオリジナルモデルとほぼ同等の性能を維持、対象知識のみ消去
効率的な微調整
知識消去に必要なのはわずか0.5時間の訓練時間(A100 GPU4台)と400万トークン
Model Capabilities
テキスト生成
選択的知識忘却
対話システム
Use Cases
研究応用
忘却技術研究
大規模言語モデルの知識忘却技術のテストと検証に使用
『ハリー・ポッター』シリーズ関連知識の95%以上の消去に成功
モデル安全性研究
モデルから機密または不適切なコンテンツを削除する方法の研究
Featured Recommended AI Models
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers Supports Multiple Languages

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers English

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム Chinese
R
uer
2,694
98