Mistral Trismegistus 7B
M
Mistral Trismegistus 7B
tekniumによって開発
ミトラ三聖賢7Bモデルは、神秘学、占い、スピリチュアル分野に特化したプロフェッショナルレベルの大規模言語モデルで、Mistral-7Bアーキテクチャを基盤とし、GPT-4で生成された合成データを使用して命令微調整されています。
ダウンロード数 54
リリース時間 : 10/7/2023
モデル概要
このモデルは、神秘学、占い、スピリチュアル分野に興味を持つユーザーに高品質なQ&Aとインタラクティブな体験を提供することを目的としており、幅広い神秘学タスクと知識体系をカバーしています。
モデル特徴
プロフェッショナルレベルの占い専門家
約1万件の高品質で深い神秘学とスピリチュアル分野の命令データを含み、プロフェッショナルレベルのQ&Aとインタラクティブ体験を提供します。
超高速レスポンス
70億パラメータのMistralモデルでトレーニングされ、推論速度が最適化されており、CPU上でも高速に動作します。
過剰なポジティブ表現を排除
モデルは様々な占いタスクと知識を網羅し、創造性を犠牲にする過剰なポジティブ表現の追求から解放されています。
モデル能力
神秘的な器物に関する質問に回答
催眠術師の役割を演じる
神秘学とスピリチュアル分野のコンテンツを生成
占いタスクを実行
使用事例
神秘学とスピリチュアル分野
神秘的な器物に関する質問に回答
ユーザーは神秘的な器物の歴史、用途、象徴的な意味などについて質問できます。
モデルは詳細な説明と背景知識を提供します。
催眠術師の役割を演じる
モデルは催眠術師の会話スタイルを模倣し、催眠誘導や関連するアドバイスを提供できます。
ユーザーは没入型の催眠体験やアドバイスを得られます。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98