最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

“史上最强视觉生成模型”,现在属于快手。

一基双子的可灵AI基础模型——文/图生图的可图、文/图生视频的可灵,都重磅升级到2.0版本。

  • 可图2.0,对比MidJourney 7.0,胜负比「(good+same) / (same+bad)」超300%,对比FLUX超过150%;
  • 可灵2.0,文生视频对比Sora胜负比超360%,图生视频对比谷歌Veo2胜负比超180%。

新版本当中,两款模型的语义遵循能力和美学能力均大幅提升,还新增了图像编辑、风格转绘等一系列新功能。

并且一如既往坚持不搞期货,发布会一结束,两款模型及新功能就立即上线可用。

模型发布后,也引发国内外广泛讨论,就连马斯克也在X上连夜关注了可灵AI官方账号。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

实测可图全新升级

在过去,MidJourney生图+可灵图生视频是一种常用的创作工作流。

但随着可图的全新升级,创作者们可以告别MidJourney,在可灵AI的平台内完成这一系列操作了。

相比前一代模型,可图2.0基础模型的第一个亮点,就是语义遵循能力大幅提升,具体又可以分为三个方面——

复杂元素响应更精准、镜头语言设计更合理、画面细节表现更丰富。

话不多说,直接看案例:

这组提示词设置了“现实”中的少女样貌和镜子中老年形象的反差,这样的场景是一种艺术设计,在真实世界中并不存在。

即便如此,可图2.0还是按照提示词中的要求完成了创作,构图、颜色等设置也都满足提示词要求。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

相比之下,前一代生成的图片,除了确实有一位少女和一个镜子之外,和提示词几乎没有什么关联。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

再看第二组。

这个设定看似简单,但实际上想要让准确呈现人或物体的数量,一直以来都不是一件容易的事。

但可图2.0的作品当中,人物的数量,以及人和人之间的关系,都完美契合了提示词的要求。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

而前一代产品,四张图无一例外地出现了6个甚至更多的人物,性别和年龄设定就更随意了。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

内容和细节之外,可图2.0对提示词中的构图、光线和景别设定的响应,也变得更加精准

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

在翻译行业里,能否做到“信、达、雅”是衡量结果质量的常用标准,放到AI绘图当中,这套标准也同样适用。

因为AI绘图,也可以看作是从文本到视觉信息的一种“翻译”。

如果说对指令的遵循体现了“信”和“达”,那么可图2.0的“电影美学表现”,就是在向着“雅”的层次迈进。

来看实测效果。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

可以看出,可图2.0在勾勒电影质感时,运用了更高级的色彩及光影,使得情绪表达更具感染力。

另外可图2.0也进行了多风格化响应,支持近百种风格,无论是古典还是现代、写实还是夸张、实拍还是动漫都能搞定,包括GPT-4o带火的吉卜力风也能生成。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

不仅模型,可图这次更新也增加了两大全新功能——风格转绘和图片编辑

下面的这12张图,就是由同一张图片,搭配不同风格提示词,使用可图转绘而成的。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

而图片编辑具体包括了局部重绘和扩图两个方面。

有了局部重绘,不仅可以对现实中的图像进行修改,当得到一张风格特别好但细节有瑕疵的图片时,也不用再从头开始“抽卡”了。

比如想要把前面展示的年夜饭照片中小男孩手里的魔方换成螃蟹,就可以框选或涂抹目标区域,然后提出修改要求,就可以等待成果了。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

生成的结果是这样,完成了选中部分的重绘要求,同时未选择的部分没有任何变动。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

在扩图功能中,既可以把自己的想法交给可图实现,也可以什么也不说,给定一个比例,让可图自行发挥想象。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

扩图结果,无提示词

当然,可图2.0的局部重绘和扩图并不局限于上面的传统用法,创作者可以充分发挥想象力,创造出别具一格的作品。

这里就用一个例子抛砖引玉,更多的玩法就交给创作者们自行探索了~

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

在可图模型和功能全面上新的背后,是可灵大模型团队做出的一系列技术创新。

首先是利用全新升级的文本表征处理链路,精准建模预训练文本到视觉表征的映射,这正是可图2.0语义遵循能力提升的关键。

可图2.0还采用了自适配图像Caption构建策略,显着提升了各阶段的学习效率。

此外,可灵大模型团队还在探索后训练阶段的Scaling Law,对数据体系和多样性进行了全面升级,并应用全新提示词工程和去噪策略,从而提升模型的表现力。

超越文本,AI创作的新方式

可图的升级,既是为了更好满足图像创作者的需求,也是为了给视频创作者提供更好的素材获取途径。

发布会上,快手副总裁、可灵AI负责人张迪介绍,在使用可灵生成视频的用户当中,有85%使用的是图生视频。

但其中涉及到的图片素材,不一定是拍摄或手绘而成,也可能包括生成结果。

相比于完全由文字生成视频,图片能够体现出文本无法精准描述的细节,从而让视频生成模型对目标的把控更加清晰。

因此,这种“曲线救国”的方式,可以降低视频生成结果的不确定性,减少试错成本,因此受到了用户的青睐。

这样看来,可灵AI团队不断打磨图像生成模型的目的,就显而易见了。

当然除了可图,视频生成模型可灵也进行了升级,针对之前指令遵循不好、动态效果不佳、美感缺乏的问题做出了全面升级。

可灵2.0对比谷歌Veo2的胜负比为205%,对比Sora的胜负比达367%,在文字相关性、画面质量、动态质量等维度上显着超越对手。

模型与产品升级之外,快手也在探索一种人与AI之间的新型交互方式。

快手高级副总裁盖坤表示,文字在表达影像信息时是不完备的,我们需要探索新的方式,才能让人真正精准地表达出心中所想。

所以在本次发布会上,可灵AI正式发布AI视频生成的全新交互理念——多模态视觉语言(Multi-modal Visual Language,MVL)。

MVL让用户能够结合图像参考、视频片段等多模态信息,将脑海中包含身份、外观、风格、场景、动作、表情、运镜在内的多维度复杂创意,直接高效地传达给AI。

基于MVL这一全新交互方式,可灵2.0大师版全面升级了视频及图像创作可控生成与编辑能力,上线了全新的多模态视频编辑功能。

加上之前已有的提示词优化、音效生成、对口型等一系列功能,快手已经初步构建出了从创意到视觉呈现的完整创作链路

这不仅让专业创作者能够精准还原脑海中的艺术构思,更让普通用户通过“所见即所得”的交互逻辑释放创作潜能。

让每个人都能用AI讲出好故事

发布会上,盖坤再一次讲到了可灵的愿景——让每个人都能用AI讲出好故事。

自去年6月发布以来,可灵AI已累计完成超20次迭代,累计生成1.68亿段视频和3.44亿张图片素材。

在这一过程当中,可灵AI一直坚守初心,不断提升模型基础质量和模型效果,并引入更多创新功能,以满足用户的多样化需求。

包括可图和可灵2.0版本升级,以及MVL的提出,同样是在扫清“用AI讲好故事”的道路上的障碍。

可灵越来越完备的产品体系和工作链路,正在让AI创作变得愈加触手可得。

甚至为了帮助不懂提示词的纯小白用户完成创作,可灵还在Web和APP当中接入了经过专门为设计提示词而调整的DeepSeek模型,进一步降低了AI视频创作的门槛。

可灵的表现也获得了大佬的认可,比如马斯克早在去年八月就曾评论一则由可灵AI制作的内容,称“AI娱乐产业正飞速发展”。

最强视觉生成模型获马斯克连夜关注,吉卜力风格转绘不需要GPT了

到现在马斯克连夜关注官方账号,进一步说明可灵已经彻底打造出了国际口碑。

总之,快手正在用技术让影像创作回归本真——专业者能精准雕琢每个光影细节,普通人也可凭直觉编织动人故事。

当技术逐渐溶解专业壁垒,那些曾遥不可及的艺术表达,终将成为每个人记录世界的本能,让每个平凡瞬间都自带美学重量。

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/6481.html

(0)
人脑网的头像人脑网
上一篇 2025年4月18日 上午10:35
下一篇 2025年4月18日 上午10:35

相关推荐

  • 腾势登陆欧洲开启国际化新篇章,米兰设计周上演科技与美学盛宴

    4月7-12日,意大利米兰见证了中国豪华新能源汽车品牌的历史性时刻。 腾势以”超凡科技,驱动豪华”为主题,在2025米兰设计周主会场布雷拉设计区举办品牌发布会,正式宣告进军欧洲市场。 作为Fuorisalone设计展官方合作伙伴,腾势携智能豪华旗舰车型Z9GT惊艳亮相,以科技定义豪华出行。 比亚迪集团执行副总裁李柯、首席科学家廉玉波、…

    2025年4月16日
    1700
  • 粉笔CTO:大模型打破教育「不可能三角」,因材施教真正成为可能

    2025,当大模型来到应用爆发之年,越来越多的垂直行业当中,开始涌现出AI落地的经典实践案例。 教育领域中,专注于职业教育培训的粉笔,就是其中之一。 就在第三届AIGC产业峰会现场,粉笔CTO陈建华坦言: 并且这种可能性,正在粉笔的亲身实践中逐渐成为可以量化观察的实例。 为了完整体现陈建华的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给…

    2025年4月18日
    1300
  • 微软1bit LLM新研究:原生4bit激活值量化

    微软又有“1 bit LLM”新成果了—— 发布BitNet v2框架,为1 bit LLM实现了原生4 bit激活值量化,由此可充分利用新一代GPU(如GB200)对4 bit计算的原生支持能力。 同时减少内存带宽&提升计算效率 之前,微软持续研究BitNet b1.58,把LLM的权重量化到1.58-bit,显着降低延迟、内存占用等推理成本。 然…

    2025年4月29日
    700
  • 北京队再上大分:新AI一句话搞开发,代码实时可见 | 免费可用

    什么?! 现在随便一个完全不懂编程的人,都可以开发完整网站了??? 你没看错,现在搞开发啊,真的就是一句话的事儿 例如你想做一个fashion一点的电商网站,那么你只需要来上一句: 然后啊,这个AI就开始思考你需求的意图了。 但毕竟咱们Prompt过于简单了,于是乎,这个AI还贴心地基于需求,给出了诸多细节选项,包括: 响应式设计,适配不同设备 商品分类和搜…

    2025年4月15日
    2100
  • 首份空间智能研究报告来了!一文全面获得空间智能要素、玩家图谱

    AI的未来,绝不仅限于聊天机器人和数字世界。 物理世界的AI推进,已经开始。而且定义正在被包括李飞飞在内的大牛明确—— 空间智能。 空间智能是什么?包含哪些应用领域?如何系统性地看待空间智能?随着技术的不断进步,虚实融合边界持续消融,空间智能的阶段性成果、当前的认知和格局,正在愈发清晰。 在大量桌面研究、调研访问、数据分析之后,为了更好把握空间智能现状和未来…

    2025年4月26日
    400

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信