Minicpm O 2 6 Int4
MiniCPM-o 2.6のint4量子化バージョンで、GPUのVRAM使用量を大幅に削減し、マルチモーダル処理能力をサポートします。
ダウンロード数 4,249
リリース時間 : 1/13/2025
モデル概要
これは視覚、音声、ライブストリームをサポートするマルチモーダル大規模言語モデルで、特にモバイル端末での実行能力を最適化し、GPT-4oレベルのマルチモーダル処理能力を備えています。
モデル特徴
モバイル端末実行最適化
特にモバイル端末で実行可能なGPT-4oレベルのマルチモーダルモデルに最適化
マルチモーダルサポート
視覚、音声、ライブストリームなど様々なモーダルの入出力をサポート
低VRAM使用量
int4量子化バージョンによりGPUのVRAM要求を約9GBに大幅削減
リアルタイム処理能力
ライブ配信やリアルタイム音声対話処理をサポート
モデル能力
視覚処理
光学文字認識
複数画像処理
動画分析
カスタムコード実行
音声処理
音声クローン
ライブストリーム処理
リアルタイム音声対話
自動音声認識
テキスト読み上げ
使用事例
マルチメディア処理
リアルタイムライブ分析
ライブ動画ストリームに対してリアルタイムで内容分析とインタラクションを行う
低遅延でのライブ内容理解と応答を実現
クロスモーダルコンテンツ生成
画像に基づいて説明文を生成したり、テキストに基づいて音声を生成する
異なるモーダル間のコンテンツ変換と生成を実現
モバイルアプリケーション
モバイル端末インテリジェントアシスタント
モバイルデバイス上で動作するマルチモーダルインテリジェントアシスタント
視覚、音声などの総合的なインタラクション能力を提供
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98