Falcon3 MoE 2x7B Insruct
F
Falcon3 MoE 2x7B Insruct
ehristoforuによって開発
Falcon3 7B-ITと7B-ITの混合エキスパートモデルで、134億のパラメータを持ち、英語、フランス語、スペイン語、ポルトガル語の4言語をサポートし、最大32Kのコンテキスト長に対応しています。
ダウンロード数 273
リリース時間 : 12/22/2024
モデル概要
Falcon3-7B-Instructは、Falcon3(Llamaアーキテクチャ)をベースにした命令最適化言語モデルで、推論、言語理解、命令遵守、コードおよび数学タスクにおいて優れた性能を発揮します。
モデル特徴
混合エキスパートモデル
2つの7B-ITモデルの利点を組み合わせ、モデル性能を向上させています。
多言語サポート
英語、フランス語、スペイン語、ポルトガル語の4言語をサポートしています。
長文コンテキスト処理
最大32Kのコンテキスト長に対応し、長文タスクの処理に適しています。
命令最適化
命令遵守タスクに最適化されており、ユーザーインタラクション体験を向上させます。
モデル能力
テキスト生成
言語理解
命令遵守
コード生成
数学的推論
使用事例
自然言語処理
チャットボット
多言語チャットボットを構築し、スムーズな会話体験を提供します。
コードアシスタント
開発者がコードスニペットを生成したり、プログラミング問題を解決するのを支援します。
教育
数学問題解答
数学問題を解答し、詳細な推論プロセスを提供します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98