L

Longclip SAE ViT L 14

由 zer0int 开发
基于稀疏自编码器(SAE)微调的Long-CLIP模型,支持长文本输入,优化了文本-图像对齐能力
下载量 290
发布时间 : 12/19/2024

模型简介

该模型是对Long-CLIP ViT-L/14的微调版本,通过稀疏自编码器技术增强了处理长文本提示的能力,特别适合与腾讯混元视频系统配合使用

模型特点

长文本支持
突破原始CLIP 77个token的限制,有效处理更长的文本输入
稀疏自编码器微调
通过SAE技术优化模型表示能力,提升文本-图像对齐效果
腾讯混元视频兼容
特别优化与HunyuanVideo系统的配合使用效果
对抗性训练
基于对抗性排版攻击数据集训练,增强鲁棒性

模型能力

长文本图像生成引导
零样本图像分类
跨模态检索
文本-图像对齐

使用案例

创意内容生成
复杂场景图像生成
根据包含多个细节的长文本提示生成对应图像
可处理69个token的复杂场景描述
非典型概念可视化
将抽象或非常规概念转化为视觉表现
保持优秀的一致性和提示跟随能力
影视制作辅助
分镜设计
根据详细技术描述生成视觉参考
准确理解摄影参数和艺术风格
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase