R

Reka Edge

Reka AI がエッジコンピューティング向けに設計した軽量モデルで、リソースが限られたエッジデバイス向けに最適化されています。効率的なモデルアーキテクチャを採用しており、限られた計算リソースで信頼性の高い AI サービスを提供できます。IoT デバイス、モバイルアプリケーション、ローカルデプロイが必要なシナリオに特に適しています。Edge バージョンは低遅延、低消費電力、高効率を重視し、エッジ AI アプリケーションに実用的なソリューションを提供します。
インテリジェンス(比較的弱い)
速度(比較的遅い)
入力サポートモダリティ
はい
推論モデルかどうか
128,000
コンテキストウィンドウ
-
最大出力トークン
-
知識カットオフ

価格設定

- /M tokens
入力
- /M tokens
出力
¥0.72 /M tokens
混合価格

クイック簡易比較

入力

出力

Reka Flash (Feb '24)
Reka Flash (Sep '24)
Reka Edge

基本パラメータ

Reka Edge技術パラメータ
パラメータ数
未発表
コンテキスト長
128.00k tokens
トレーニングデータカットオフ
オープンソースカテゴリ
Proprietary
マルチモーダルサポート
テキストのみ
スループット
リリース日
2024-02-12
応答速度
85.0,807 tokens/s

ベンチマークスコア

以下はReka Edgeの様々な標準ベンチマークテストでのパフォーマンスです。これらのテストは、異なるタスクやドメインにおけるモデルの能力を評価します。
インテリジェンス指数
32.98
大規模言語モデルインテリジェンスレベル
コーディング指数
-
コーディングタスクにおけるAIモデルのパフォーマンス指標
数学指数
-
数学的問題の解決、数学的推論、または数学関連タスクの実行における能力指標
MMLU Pro
-
大規模マルチタスクマルチモーダル理解 - テキスト、画像、音声、ビデオの理解をテスト
GPQA
-
大学院物理学問題評価 - ダイヤモンド科学レベルの問題で高度な物理学知識をテスト
HLE
-
Hugging Face Open LLMリーダーボードにおけるモデルの包括的な平均スコア
LiveCodeBench
-
実世界のコード作成とプログラミングコンテスト問題解決における大規模言語モデルの能力を評価する特定の評価
SciCode
-
科学計算または特定の科学分野のコード生成におけるモデルの能力
HumanEval
40.9
特定のHumanEvalベンチマークテストセットでAIモデルが達成したスコア
Math 500スコア
21.6
最初の500の大規模でよく知られた数学ベンチマークテストのスコア
AIMEスコア
-
高難度の数学競技問題(特にAIMEレベル)を解決するAIモデルの能力を測定する指標
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase