Falcon H1 0.5B Base
Falcon-H1はTIIによって開発されたハイブリッドTransformers + Mambaアーキテクチャのデコーダ専用因果モデルで、英語NLPタスクに焦点を当て、優れた性能を発揮します。
ダウンロード数 485
リリース時間 : 5/1/2025
モデル概要
Falcon-H1は、TransformersとMambaの利点を組み合わせた効率的なハイブリッドアーキテクチャ言語モデルで、さまざまな自然言語処理タスクに適しています。
モデル特徴
ハイブリッドアーキテクチャ
TransformersとMambaアーキテクチャの利点を組み合わせ、モデルの効率と性能を向上させます。
効率的な推論
transformers、vLLM、カスタムllama.cppブランチなど、さまざまな推論方法をサポートします。
優れた性能
複数のベンチマークテストで同類のモデルを上回る性能を示し、特に数学と科学的タスクで優れています。
モデル能力
テキスト生成
数学的推論
科学的質問応答
コード生成
使用事例
汎用NLP
質問応答システム
さまざまな分野の質問に答える知識質問応答システムの構築に使用されます。
MMLUやBBHなどのベンチマークテストで優れた成績を収めています
数学的応用
数学問題解決
GSM8kやMATH lvl5などの複雑な数学問題を解決します。
GSM8kで60.2%の精度を達成しました
コード生成
プログラミング支援
コードを生成および補完し、開発者の効率を向上させます。
HumanEvalで35.98%の精度を達成しました
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98