YOYO O1 32B
YOYO-O1-32Bはオープンソースコミュニティのトップクラス32B推論モデルとコードモデルを融合した多機能大規模言語モデルで、SCE融合技術を用いて構築されています。
ダウンロード数 25
リリース時間 : 3/18/2025
モデル概要
このモデルは複数の32B規模のオープンソースモデルを組み合わせ、特に推論とコード生成能力を強化しており、複雑なタスク処理やプログラミング支援に適しています。
モデル特徴
マルチモデル融合
SCE融合技術で複数のトップクラス32Bモデルを統合し、各モデルの強みをバランス
強化されたコード能力
Qwen2.5-Coder-32Bをベースに、コード生成と理解能力を特別に最適化
高性能推論
Light-R1などの推論最適化モデルを融合し、複雑な論理処理能力を向上
量子化サポート
静的量子化とインテリジェントマトリックス量子化バージョンを提供し、異なるハードウェア展開を容易に
モデル能力
テキスト生成
コード生成と補完
論理的推論
技術文書処理
マルチターン対話
使用事例
プログラミング支援
コード自動生成
自然言語記述に基づいて実行可能コードを生成
開発効率向上、反復コーディング作業削減
コード解説とデバッグ
既存コードを分析解説し、最適化提案を提供
開発者が複雑なコードロジックを理解する支援
技術QA
複雑問題解答
技術分野の複雑な質問に回答
専門的で正確な技術ソリューションを提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98