Intellect 2
I
Intellect 2
cortexsoによって開発
INTELLECT-2はPrime Intellectによって公開された320億パラメータの大規模言語モデルで、Qwen2アーキテクチャに基づいて構築され、数学、コーディング、論理推論タスクに特化しています。
ダウンロード数 1,430
リリース時間 : 5/12/2025
モデル概要
INTELLECT-2は、検証可能な数学とコーディングタスクに特化した大規模言語モデルで、一般的なテキスト生成タスクにも適しています。分散型強化学習によってトレーニングされ、GRPO(一般化強化戦略最適化)技術を採用しています。
モデル特徴
分散型強化学習トレーニング
世界中から寄贈されたGPUリソースを利用して分散型強化学習トレーニングを行う
GRPO最適化技術
一般化強化戦略最適化(GRPO)技術を採用し、検証可能な報酬に基づいてトレーニングを行う
非同期分散型RLトレーニング
非同期分散型強化学習トレーニングを導入し、トレーニング効率を向上させる
安定性強化技術
安定性を強化する技術を採用し、モデルのトレーニングと推論の信頼性を向上させる
モデル能力
数学推論
コード生成
論理推論
テキスト生成
使用事例
プログラミング支援
コード生成
自然言語の説明に基づいてコードを生成する
コードデバッグ
コード内のエラーを特定して修正するのを支援する
数学アプリケーション
数学問題の解決
複雑な数学問題を解決し、証明を行う
数学推論
論理的に厳密な数学推論を行う
一般的なテキスト処理
コンテンツ生成
様々なタイプのテキストコンテンツを生成する
テキスト要約
長いテキストを要約する
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98