Co

CogView4-6B

多模态大模型

CogView4-6B

发布时间: 2025-03-04

模型参数(Parameters)
60.0
最高上下文长度(Context Length)
32K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

32K tokens

最长输出结果
暂无数据
模型类型

多模态大模型

发布时间

2025-03-04

模型预文件大小

12.73GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

API接口信息

接口速度(满分5分)
暂无数据
接口价格
输入价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据
输出价格:
  • 文本: 暂无数据
  • 图片: 暂无数据
  • 音频: 暂无数据
  • 视频: 暂无数据
  • Embedding: 暂无数据

输入支持的模态

文本

输入不支持

图片

输入不支持

视频

输入不支持

音频

输入不支持

Embedding(向量)

输入不支持

输出支持的模态

文本

输出不支持

图片

输出不支持

视频

输出不支持

音频

输出不支持

Embedding(向量)

输出不支持

CogView4-6B模型在各大评测榜单的评分

发布机构

模型介绍

该模型更加详细介绍参考DataLearnerAI的官方博客: https://www.datalearner.com/blog/1051741086171429 




作为智谱AI「2025开源年」的首发成果,CogView4-6B首次在开源领域实现原生汉字生成能力,以Apache 2.0协议重塑多模态生成生态。该模型在DPG-Bench基准测试中以85.13综合得分登顶开源文生图模型榜首,同时突破传统模型的中文处理瓶颈,标志着中文场景文本-图像生成技术迈入新纪元。

核心技术创新

  1. 跨语言语义理解架构双语编码器革新:采用GLM-4编码器替代传统T5架构,通过中英双语图文联合训练,实现跨语言语义空间映射。汉字生成突破:在开源模型中首次实现汉字自然嵌入,广告海报、古诗意境等场景的文本渲染准确率提升87%(F1 Score 0.6168 vs 基线0.2880)。
  2. 动态生成范式分辨率自适应:通过二维旋转位置编码(2D RoPE)与线性动态噪声规划,支持512-2048px任意分辨率生成,训练效率提升30%。超长文本处理:突破传统512 token限制,在200-300 token平均长度场景下减少50%冗余,支持复杂叙事结构(如四格漫画分镜生成)。
  3. 混合训练体系四阶段渐进式训练:基础分辨率建模(512×512)泛分辨率泛化(动态宽高比)高质量数据微调人类偏好对齐(审美优化)模态适配优化:为文本/图像设计独立LayerNorm层,实现跨模态特征解耦。

关键性能指标

评估体系指标优势对比模型表现
DPG-Bench综合得分85.13(开源SOTA)SD3-Medium 84.08 / DALL-E 3 83.50
中文生成F1 Score 0.6168(行业基准2.1倍提升)Kolors 0.2880
推理效率2048×2048分辨率显存占用14GB(优化后)传统方案>40GB
生态开放性首个Apache 2.0协议图像生成模型主流模型多为非商用协议

行业应用价值

  1. 中文创意产业广告设计:精准渲染含中文品牌标识的营销素材影视制作:基于古诗文生成分镜(如"野径云俱黑,江船火独明"意境构建)游戏开发:支持超长剧本的多角色场景批量生成
  2. 技术扩展性即将推出ControlNet插件实现精准控制生成配套微调工具包支持垂直领域适配

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat
Back to Top