Anathema V14 LLaMa 70B
A
Anathema V14 LLaMa 70B
TareksLabによって開発
これはSCE統合手法を使用して複数の70BパラメータLlama-3.1バリアントを統合した高性能言語モデルです
ダウンロード数 17
リリース時間 : 4/11/2025
モデル概要
mergekitツールを使用して6つの異なる70BパラメータLlama-3.1バリアントモデルを統合し、SCE論文の先進的な統合技術を採用して、モデルの性能と汎化能力を向上させることを目的としています
モデル特徴
マルチモデル統合
6つの高性能Llama-3.1バリアントモデルの長所を統合
SCE統合技術
Selective Component Ensemble(SCE)という先進的な統合手法を採用し、各モデルの最良のコンポーネントを保持
大規模パラメータ
70Bパラメータ規模が強力な言語理解と生成能力を提供
モデル能力
テキスト生成
質問応答システム
コード生成
対話システム
テキスト要約
指示追従
使用事例
コンテンツ作成
クリエイティブライティング
小説、詩などの創造的なテキストを生成
高品質で一貫性のある創造的コンテンツ
技術文書
技術文書や説明を自動生成
構造が明確な技術コンテンツ
インテリジェントアシスタント
対話システム
インテリジェントチャットボットを構築
自然で流暢な対話体験
教育
学習支援
学生の質問に答え、学習アドバイスを提供
正確な教育関連の回答
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98