海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

神奇!人类和海豚真的能实现跨物种交流了?!

当地时间4月14日(也是世界海豚日),谷歌CEO皮猜激动官宣:

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

划重点,这个海豚模型参数仅400M,小到能直接在谷歌Pixel 9手机上运行。

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

而且皮猜还说了,预计今年夏天会将其开源以促进科学合作。

这一消息也迅速引来大量网友围观,评论区一整个“哇声一片”:

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

更有意思的是,谷歌和OpenAI这对老冤家这一次又双叒对上了,OpenAI那边发布了GPT 4.1。

有网友直接辣评:GPT 4.1很好,但我对DolphinGemma更感兴趣。(你是懂拉踩的doge)

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

谷歌大模型破解海豚叫声

谷歌这次发布的AI基础模型DolphinGemma,经过训练可以学习海豚的发声结构,并生成类似的声音序列。

这和大语言模型中的预测下一个token类似,通过识别输入的海豚音频,来预测后续可能出现的声音,并最终解锁这些声音隐藏的潜在含义。

根据介绍,这一模型使用了谷歌独特的音频技术。

其中,SoundStream分词器能快速把海豚声音变成计算机能理解的信号,随后由适合处理复杂序列的模型架构进行处理。

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

当然,除了训练技术,最重要的环节还是在于获取数据

谷歌这次找了WDP( Wild Dolphin Project)合作,这家机构研究海豚社会数十年,拥有极为丰富的数据集。

具体而言,自1985年以来,WDP研究了巴哈马群岛中一个跨世代的野生大西洋斑点海豚(Stenella frontalis)群落。

通过这一“世界上持续时间最长的水下海豚研究项目”,最终积攒了数十年的水下视频和音频,并且每个海豚的身份、生活史和观察到的行为拥有细致匹配。

比如下面这些能够将海豚声音和行为联系起来的例子:

  • 标志性的口哨声,一般出现在母子相遇的场景
  • 打斗时经常会听到脉冲“尖叫声”
  • 求偶或追逐鲨鱼时常用“嗡嗡”声

下图展示了第一种情形。

左图:一只斑点海豚妈妈在幼崽觅食时观察着它,等幼崽觅食完毕后,它会用自己独特的口哨声呼唤它回来。

右图:声谱图显示的口哨声。

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

因此最终,DolphinGemma是基于WDP的野生大西洋斑点海豚声学数据库进行广泛训练。

另一方面,除了研究海豚的交流方式,WDP还进一步探索了“人机交互”方式。

该机构与佐治亚理工学院合作,开发了CHAT(Cetacean Hearing Augmentation Telemetry) 这款水下应用,其设计目的并非直接解读海豚复杂的自然语言,而是建立一套更简单的共享词汇。

具体来说,CHAT会将生成的合成哨声与海豚喜欢的特定物体联系起来,比如海藻、海草或研究人员使用的围巾。

然后通过人类教导,让天生好奇的海豚学会模仿这些哨声来请求这些物品。

最终,随着对海豚更多自然声音的理解,这些声音也可以被加入到系统中。

△CHAT示意图

概括而言,CHAT设备通过水下扬声器和麦克风实现声音的发送和接收,通过尝试模仿海豚发出的哨声来建立一种基本的沟通桥梁。

谷歌表示,Pixel 6(谷歌2021年10月发布)已经能够实时处理高保真海豚声音分析,而即将发布的Pixel 9(计划于2025年夏季投入使用)将在此基础上进行升级。

One More Thing

也有人好奇,为什么谷歌选了海豚而非更常见的猫狗来研究?

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

虽然官方这次未明确提及背后原因,但查阅广泛研究资料后可以得出一个结论:

这是因为海豚的“语言”和人类语言高度接近

一项发表在《皇家社会生物学通讯》的研究表明,海豚相互间交流的方式近乎于人类。

当一些海豚发出像吹口哨一样的声音时,这些声音是由特定组织震动发出的,其运作原理类似于人类和许多陆生生物的声带振动。

论文一作彼得·麦德森曾表示:

和海豚类似,事实上谷歌2024年9月还推出了一款鲸鱼声音识别模型,它能够识别出八种鲸鱼的独特叫声,并精细区分其中两种鲸鱼的不同发声类型。

而鲸鱼也和海豚一样,其语言和人类语言也具有相似性。

今年年初发表在《科学》杂志上的一项研究惊奇地发现,通过模仿儿童学习语言的过程,鲸鱼的歌声与人类使用的语言存在统计相似性。

这一发现不仅揭开了鲸歌的部分秘密,还为理解跨物种交流乃至AI语言模型提供了全新视角。

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

可以看到,谷歌首先考虑的还是这些与人类语言更接近的物种。

不过别着急,从DeepMind联创兼CEO哈萨比斯透露的想法来看,没准下一个就是狗了。(doge)

海豚语言被谷歌模型破译!实现跨物种交流,哈萨比斯:下一个是狗

主题测试文章,只做测试使用。发布者:人脑网,转转请注明出处:https://www.rennao.com.cn/5787.html

(0)
人脑网的头像人脑网
上一篇 2025年4月15日 下午3:23
下一篇 2025年4月15日 下午3:24

相关推荐

  • 狸谱App负责人一休:从“叫爸爸”小游戏到百万月活AI爆款产品

    消费者和创作者中间有巨大的gap,AI来了以后这个gap有可能被合到一起。 在今年的中国AIGC产业峰会上,狸谱App负责人一休以创业公司的视角,同与会嘉宾和在线观众一起分享了浸入AI产品创业的所思所感。 狸谱App是一个集同人创作、虚拟互动和社区交流于一体的AIGC二次元社区产品,用户群体主要是05后年轻人。产品上线后,仅4个月即达到百万月活。 一休表示,…

    2025年4月24日
    900
  • o3猜照片位置深度思考6分48秒,范围精确到“这么近那么美”

    ChatGPT新玩法,让程序员大佬Simon Willison直呼太反乌托邦了,像科幻突然变成现实: 只需一张照片,靠带图深度思考就能猜出地理位置。 这种玩法很简单,随手拍一张风景,没有任何明显的地标即可,也不需要复杂的提示词,只需要问“猜猜这张照片是在哪里拍的?”(需要o3/o4-mini的带图思考,先关闭所有记忆功能)。 只见ChatGPT从山看到植物,…

    2025年4月27日
    400
  • UniToken:多模态“全能选手”,一次编码搞定图文理解与图像生成

    首次在统一框架内实现理解与生成的“双优表现”,打破了多模态统一建模的僵局! 复旦大学和美团的研究者们提出了UniToken——一种创新的统一视觉编码方案,在一个框架内兼顾了图文理解与图像生成任务,并在多个权威评测中取得了领先的性能表现。 UniToken通过融合连续和离散视觉表征,有效缓解了以往方法中“任务干扰”和“表示割裂”的问题,为多模态统一建模提供了新…

    2025年4月25日
    700
  • 深圳又出了个智能机器人:DeepSeek加持,全球首款全域全身VLA

    坐标深圳,又有新机器人诞生了—— 智平方新一代通用智能机器人AlphaBot 2(爱宝 2)。 总结来看,这个新机器人一大特点就是,够聪明。 学习能力强,不用专门训练就能做很多事,还能快速学会新任务。 举个例子。 以前的搭载VLA(Vision-Language-Action)大模型的机器人,如果要做个早餐,那就得先由人类把食材放到它能看到的范围里;即便做好…

    2025年4月21日
    1200
  • 手机实现GPT级智能,比MoE更极致的稀疏技术:省内存效果不减

    在大模型争霸的时代,算力与效率的平衡成为决定胜负的关键。 端侧部署一直是大模型落地的最后一公里,却因算力瓶颈困难重重。 面壁智能和清华走出了一条与MoE不同的路径——神经元级稀疏激活,让模型在保持性能的同时大幅降低资源消耗。 这次技术探索的背后,是一个融合脑科学灵感与工程创新的故事。 △《Configurable Foundation Models: Bui…

    2025年4月12日
    700

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信