Liquid V1 7B
模型概述
Liquid 是一種創新的多模態大語言模型(MLLM),僅使用單一的大語言模型(LLM)就實現了視覺與文本的無縫融合,無需依賴外部預訓練的視覺嵌入。
模型特點
單一模型多模態融合
僅使用單一的大語言模型(LLM)實現視覺與文本的無縫融合,無需依賴外部預訓練的視覺嵌入。
自迴歸生成範式
通過將圖像標記化為離散代碼,並在共享的特徵空間中學習這些代碼嵌入與文本標記。
多規模變體
提供六種參數規模的預訓練版本(0.5B 至 32B)和基於 GEMMA 的 7B 指令調優版本。
理解與生成相互促進
探索了多模態混合模型的擴展規律,發現理解任務與生成任務之間相互促進的現象。
模型能力
文本生成
圖像生成
視覺理解
多模態融合
使用案例
內容創作
多模態內容生成
根據文本描述生成圖像,或根據圖像生成描述文本。
實現文本與圖像之間的無縫轉換。
教育
交互式學習工具
通過多模態交互幫助學生理解複雜概念。
提升學習體驗和理解效果。
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98