我们通常会发布将 2D 转换为 3D 的 AI 模型,但这一次,让我们看看不同的东西。来自 KAUST、伦敦大学学院和 Adobe 的研究人员提出了 LooseControl,这是一个奇怪的模型,允许对基于扩散的图像生成进行广义深度调节。

它使用 ControlNet(一种用于控制扩散模型的流行神经网络)创建基于 3D 布局的 2D 图像。简单地说,你可以在任何你认为物体成为最终图片的地方设置3D盒子,改变它们的位置和大小,并输入文本提示,人工智能会根据你的设置生成一个图像。

“具体来说,我们允许场景边界控制,用于松散地指定仅具有边界条件的场景,以及用于指定目标对象的布局位置而不是对象的确切形状和外观的 3D 框控制。使用 LooseControl 和文本指南,用户可以通过仅指定场景边界和主要对象的位置来创建复杂的环境(例如,房间、街景等)。

本文还提供了两种编辑机制来改进结果。3D 框编辑允许您通过更改、添加或删除框来优化图像,同时保留图像的样式。同时,属性编辑会建议可能的编辑方向,以更改场景的特定方面。

创作者认为,LooseControl可以成为一种重要的设计工具,帮助用户轻松创建复杂的环境。

在这里找到这个项目,并且自己尝试一下

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注