简介:摘要:为了提升文本生成图像模型生成图像的质量,提出了利用语义和空间信息来增加全局和局部注意力的空间自注意力生成对抗网络模型。生成网络的输入除了句子文本特征和随机向量之外,还加入了单词级特征作为约束条件,为了让生成图像的整体布局更加清晰,引入了空间自注意力模块,利用其保留了语义标注的空间信息,使生成器在生成图像时更加关注图像的整体布局,规范了对象的整体位置,对生成器起正向优化作用。通过训练 SEAGAN模型最终模型能够通过文本描述生成具有细粒度的清晰的镜架图像,为项目减少了眼镜设计和拍摄图像中的成本,生成的镜框图像也达到了商品所需的清晰度,这也证明了模型在工业领域中的有效性。