MoA:用于图片合成的混合注意力架构 可实现风格参考和人物融合
在最新的研究中,提出了一种名为注意力混合模式的新架构,旨在个性化文本到图像扩散模型,可以实现风格参考和人物融合的效果。受大型语言模型中使用的专家混合机制的启发,MoA通过将生成工作负载分配给两个注意力路径来实现给定主题和背景的分离生成。这些应用展示了MoA在个性化图像生成领域的潜在价值和广泛适用性。
CustomNet:图片合成界的颠覆者,SD商品图融合有救了!
清华大学和东京大学共同发布了一项名为CustomNet的技术,该技术旨在更好地将指定物品的图片融合到新生成的图片中,并确保原物品的样式和纹理细节得以还原。这项技术给SD商品图融合带来了一线生机。这对于多种应用,如广告、创意设计和虚拟世界创建都具有潜力。