现在的AI越来越厉害了,那能不能让AI来赋能企业品牌呢?
本周我们重点来研究一下
如何让角色跟品牌IP保持高度一致性
如何让角色从画布外走进来并定格住
视频创意脑洞发散
之前我们为烘焙品牌爱立颂开发过一款「一举高粽」粽子礼盒,为考生送去祝福。
转眼一年过去,又到考试时,我们想做一支祝福考生的小短片,送个好彩头。
思路是延续「一举高粽」这样的谐音梗,做一系列的片段,并将我们的品牌IP融入进去,形成专属感。
比如「一举高粽」就是艾迪鹅高高举起粽子,「一举夺葵」就是艾迪鹅扛着向日葵。
当时不在电脑前,便打开DeepSeek的APP,在手机上做了一番思路扩散。
在和DeepSeek经历一番友好交流后,确定了9个词作为核心创意。
接下来就该进入生成图片阶段了。
高度一致性的系列形象
用艾迪鹅的形象出图很是挑战,因为它是一只很不像企鹅的企鹅,大多数AI工具做我们这个IP的内容都会直接生成一个常规的企鹅,或者按照常理脸和肚子的白毛是连在一起的,就没法用。
所以需要有很强调教能力的工具,基于效果、效率、成本等因素考虑,依然选择用ChatGPT来完成生图的任务。
之前我们用过ChatGPT的来延展艾迪鹅IP形象动作。
所以可以直接在同一个对话下面开始本次任务,而不用重新让AI学习IP形象的特征。
最自然的语言,很简单的描述,这个输出的效果让人不得不服。
对于一些细节,可以在提示词里固定一句话来做限定。比如艾迪鹅头上的两撮毛,脚下的运动鞋。
ChatGPT的上下文联系能力很强,以至于经常会把前面出现过的元素杂糅在一起。
即便它这么理解了,但依然不太管用。
所以在生图阶段,出图确实很快,但大多数时间可能用在让它删东西上了。
再和ChatGPT经历一番友好交流后,终于搞定了9张关键画面。
接下来就该进入生成视频阶段了。
特殊定格的首尾帧动效
关于视频动效,秦老师的想法是:
也就是说,前面生成的图片其实是每个视频片段的结尾,而大多数视频生成工具都是将一张图片作为初始。
可灵的首尾帧功能倒是可以只用尾帧生成,但是角色的动作比较尴尬。
到这里,我突然意识到,为什么不直接生成一个空镜的首帧图片呢?
于是再次回到ChatGPT,抹掉每张图中的IP形象。
牛!
你可能会发现,两张图的背景还是有一点误差,但这点误差在后面视频生成阶段却是一个加分项。
搞定每张场景的空镜图后,再次尝试可灵的首尾帧(彼时能用首尾帧、且便捷的工具并不多)。
emmm...动作依旧不够自然,且有早期的AI补帧带来的像素粘黏问题,很影响观感(可灵的首尾帧暂时还不支持高版本模型)。
正当要妥协的时候,突然获知即梦3.0首尾帧连夜上线了。
赶紧去刷新了一下自己的后台。
我终于有一次在即梦的灰测里面了,而且还是在这么关键的时刻!
测试之后,立马不困了
像素粘黏控制地非常好,而且便宜、速度快,于是我立马给它充了值,并连夜把视频给弄了出来。
前面有提到,空镜和定帧图有一定的误差,而这恰好可以让镜头运动时更加自然。
其他片段
前面通过ChatGPT和即梦的配合,完成了9组核心片段的制作。
定格的文字画面和文字动效,就是用老手艺PPT完成了。
虽然用AI(比如即梦)同样可以把字加上去,但我一直认为工具的目的是解决问题,而不是噱头,一切为了高效服务。
像这样的效果和操作,对于设计师来讲,人工肯定更为方便了。
最后的剪辑就在剪映中快速操作了,至此完工。
因为时间的关系,来不及做很细致的打磨,生成图片和生成视频基本是抽个两三次就可以用了。
但也可以从侧面看到,AI的稳定性越来越好了,相信很快每个人都能在AI的辅助下实现「动画梦」「电影梦」了~
结束后,又想着如果让AI把这9个片段连起来效果怎么样,尝试了其中一些片段。
这种大场景的变化不可避免会有一些细节上的瑕疵,但从整体看效果已经遥遥领先了,而且因为只是快速测试,所以最多就抽了两次卡。
不得不说,当下首尾帧的能力,即梦牛B!
领取专属 10元无门槛券
私享最新 技术干货