这款由中国团队打造的产物,由Liblib在海外独立运营。其创始人陈冕曾任字节跳动剪映全球商业化负责人,此次带队推出Lovart,定位为“世界首个设计Agent”,旨在通过对话生成、画布批注、样式变体、3D建模等能力,将AI深度嵌入设计工作的每一个环节。 Lovart整体定位为“你的新设计伙伴”,不仅能理解用户的设计意图,还能完成从创意构思到交付3D资产的全过程,生成形式覆盖图像、视频与3D模型。 本次核心更新是“ChatCanvas”智能画布。用户可在画布任意区域圈选并输入“Comment”,用于表达修改意见或设计需求,系统会自动识别目标对象、理解具体意图,并支持批量执行调整操作。这一处理机制支持一次性对二十个区域提出修改意见,系统能够统一理解、统一更新,极大降低设计沟通成本。 为了确保用户始终能清楚AI的设计逻辑,Lovart会在每一步关键决策前主动与用户沟通确认,不仅是“做出来”,更是“说清楚为什么这样做”。整个使用过程信息链条清晰,用户不会被“黑箱操作”蒙蔽,而是像在和一位有逻辑的设计师协作。 Lovart整合了目前主流的SOTA模型:在图像生成方面,调用了OpenAI的GPT-Image-1、Recraft V3与Flux;视频生成接入了Veo 3、Kling和Runway Gen-4;3D模型生成则集成了Tripo等方案,用户可选Auto模式,无需关心模型选择,系统会自动按任务匹配最合适的模型。 不仅如此,Lovart还支持“多线程任务并行”的Chat Frame机制,用户在一个项目中可自由切换多个创意分支,不同任务互不干扰,始终保持上下文独立、逻辑清晰。 整套系统不仅仅是“听指令”,更会主动给出建议。比如用户输入一个模糊的修改意图时,它会自动提供结构化的提示词推荐,并通过Tab键补全,引导用户高效表达想法。 正如Lovart初始成员、核心工程师Takumi在官方视频中所描述的那样:“Just like working with the real designer you point at images to visualize feedback.(就像与真正的设计师合作那样一样,您可以通过查看图像来直观感受反馈。)” ChatCanvas让用户可以像和真实设计师一样,对画面进行操作,给意见、看修改、再细化,整个交互过程简洁而直观。 注册完成后,系统赠送了300积分,用于后续与AI交互。智东西抛出的第一个Prompt是:“设计一组潮玩,可以参考流体熊、玲娜贝儿、哪吒和LABUBU等IP的突出元素,风格为像素风。” 选定图像后,系统开始逐张解析其风格特征,包括造型结构、配色逻辑与角色气质,并查找图片将输入的“像素风”进行具体学习。 随后进入正题,Lovart给出一套详尽的设计规划。方案包括创意定位、角色设定、视觉语言、配件玩法、包装策略乃至营销思路等内容,甚至起好了名字——“嘴霸机械兔”。 此外,Lovart还附上了一份适用于3D像素建模工具(如Blender与MagicVoxel)的Prompt参考,以及开发时间线与成本预估。从内容密度来看,这已经不只是“设计初稿”,而更像是“开箱即用”的产物方案书。 收到初步设计稿后,Lovart主动询问用户是否需要进一步定制,比如是否希望提供角色三视图、设计姿态与表情,或生成多个配色方案。 ChatCanvas就展现出高度协同力:系统识别出具体区域后,按下Tab还可直接调用预设优化表达;修改前,它还会多次次确认理解是否准确,引导用户给出清晰且明确的指令;确认无误后,用户点击“Run All”,批量执行全部修改指令,一次性更新图像。 新版本颜色更加柔和清新,生成速度和准确度都在可接受范围内,关键是改动过程完全无需跳出画布,无需重新指令,真正实现了“所见即所得”。 系统则自动创建了基础形态的展示图,同时还给出了一套产物化建议:8+1款盲盒结构(基础款+隐藏款)、12处可动关节设计、AR互动(扫码后可替换不同皮肤滤镜)等。 整个过程中,无需手动切换场景或重新描述上下文,AI始终保持“记得住之前你说过什么”,体验很像和一位风格稳定、逻辑清晰的设计师共事。 在正式体验之外,也有不少用户已在社区中玩出了新的花样。比如,有人用Lovart设计了一组品牌广告视频:特斯拉的汽车从散开的包装盒中“开箱而出”。 尤其是ChatCanvas所代表的交互形式的转变——从“一步一指令”转向“持续上下文”,让设计不再是任务堆叠,而变成一场结构清晰、有记忆的创意对话。


