![](http://image.uc.cn/s/wemedia/s/upload/2024/7e0fc8480fca204d4dced9bc473c7711.jpg)
最近,Midjourney团队为大家带来了一项令人兴奋的新特性——“角色参考”(Character Reference)功能。这项创新工具专为V6版的Midjourney Model和Niji Model设计,它能够帮助用户在创建角色图像时保持高度一致性,使生成的角色形象更具生动性和辨识度。
想体验这个功能?很简单!只需要在原有的指令后面加入“--cref URL”,这里的URL是你想要参考的角色图片链接。同时,还可以利用“--cw”参数调整参考强度,数值范围从0至100,灵活设定你希望多大程度上借鉴参考图。
当你设定“--cw 100”时(这是默认强度哦),系统会全面考虑角色的脸部、发型及服装样式;而如果设成“--cw 0”,则只针对脸部特征进行参考,这时候更适合用来改变角色的服装或发型搭配。
角色一致性功能最适合应用在Midjourney平台自己生成的角色图像上,这样效果最佳。对于真实人物的照片,由于AI处理可能产生一定程度的变形,所以使用时要格外注意。这项技术就像普通的图像提示一样运作,不过它更聚焦于角色的整体特征呈现,而不是细节复刻。因此,诸如微小的酒窝、雀斑或是衣服上具体的图案等超精细元素,当前的技术尚不能完全复制。
进阶玩法也相当有趣,如果你有多张参考图片,可以用“--cref URL1 URL2”的形式把它们一起加入,就像是混合多种图像或风格提示一样,来综合塑造角色形象。
而在Web Alpha版界面里,操作更是直观便捷。只要将图片直接拖拽或粘贴到imagine工具栏,就能看到三种图标选项,分别对应图像提示、风格参考和角色参考。如果需要一张图同时作为多种用途,只需按住Shift键进行多选。
以Discord中的一次实例演示为例:
首先,我们有一幅由Midjourney创作的上半身亚洲美女形象,指令中包含了丰富的描述元素,如报纸背景、蓝粉挑染的亮丽发色、吊带无袖衫配上牛仔夹克和蕾丝装饰,以及采用现实主义画风和艺术家萨金特的色调等等。
接下来,通过U按钮选定该图像,并添加“--cref URL”参数来观察效果。分别展示了“--cw 100”和“--cw 0”的两种情况对比,前者全方位参照了参考图像,后者则主要参考脸部特征。
在Web Alpha测试平台上,同样可以轻松尝试这一功能。用户只需上传初始图片,然后指定其作为角色参照,随后根据需求调整相关参数。即使在演示过程中,虽然未能捕捉到指令中提及的红色头发细节,但整体角色的一致性依然得到了很好的维持。
最后再次强调,目前Midjourney V6版本仍处于Alpha测试阶段,包括角色一致性在内的各项功能可能还会有所优化和改进。不过大家敬请期待,我们很快就会推出正式的V6 Beta版,届时更多精彩的图像生成体验等待着您去探索!