A

Asagi 14B

由MIL-UT開發
Asagi-14B是一個大規模的日語視覺與語言模型(VLM),在廣泛的日語數據集上進行了訓練,整合了多樣化的數據來源。
下載量 83
發布時間 : 1/9/2025

模型概述

Asagi-14B是一個結合視覺編碼器和大語言模型的視覺與語言模型,主要用於圖像文本到文本的任務,支持日語。

模型特點

多模態能力
結合視覺編碼器和語言模型,能夠理解和生成基於圖像的文本描述。
日語優化
專門針對日語進行了訓練和優化,適用於日語場景下的視覺與語言任務。
數據合成
訓練數據大部分通過模型合成,避免了使用限制性許可的LLM輸出。

模型能力

圖像描述生成
視覺問答
多模態推理
日語文本生成

使用案例

圖像理解與描述
場景識別
識別圖像中的場景並生成詳細描述。
例如,識別出照片拍攝於東京的某個著名地點,並描述其細節。
物體識別
識別圖像中的物體並生成描述。
例如,識別出圖像中的建築、自然景觀等。
視覺問答
圖像內容問答
回答關於圖像內容的詳細問題。
例如,回答圖像拍攝地點、圖像中的物體等。
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase