Wr30a Deep 7B 0711 I1 GGUF
これはprithivMLmods/WR30a-Deep-7B-0711モデルの量子化バージョンで、多言語をサポートし、テキスト生成、画像キャプション生成などのさまざまなタスクに適しています。
ダウンロード数 262
リリース時間 : 7/12/2025
モデル概要
WR30a-Deep-7B-0711の量子化バージョンで、さまざまなサイズと品質の量子化オプションを提供し、さまざまな視覚言語タスクに適しています。
モデル特徴
多言語サポート
英語と中国語の2つの言語の処理と生成をサポートします。
マルチタスク能力
テキスト生成、画像キャプション生成、OCRなどのさまざまな視覚言語タスクに適用できます。
複数の量子化バージョン
2GBから6.4GBまでのさまざまな量子化バージョンを提供し、さまざまなシナリオのニーズを満たします。
効率的な推論
量子化バージョンはモデルサイズと推論速度を最適化し、リソースが限られた環境に適しています。
モデル能力
テキスト生成
画像キャプション生成
光学文字認識
スマート文字認識
視覚理解
画像からテキストへの変換
使用事例
コンテンツ生成
自動画像記述
画像に正確な文字記述を生成します。
多言語テキスト生成
英語または中国語の首尾一貫したテキストを生成します。
ドキュメント処理
ドキュメントOCR
スキャンされたドキュメントまたは画像から文字を抽出します。
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98