梅州隔热条设备 谷歌祭出Transformer杀手,8年次大突破!掌门人划出AGI死线

2025-12-22 18:59:53 161

塑料管材设备

  新智元报道  梅州隔热条设备

  编辑:KingHZ 桃子

  【新智元导读】谷歌DeepMind掌门人断言,2030年AGI至!不过,在此之前,还差1-2个‘Transformer级’核爆突破。恰在NeurIPS大会上,谷歌甩出下一代Transformer强继任者——Titans架构。

  2025年即将进入尾声,下一年AI将走向何方?

  近,谷歌DeepMind CEO Hassabis在一场访谈中,对未来12个月的‘关键趋势’做出重磅预测。

  划!!!主要有以下五大核心点——

多模态融彻底打通

类人的视觉智能

语言+深度融

世界模型成为主流

智能体达到可靠应用水平

  Hassabis强调,我们应尽快Scaling现有的AI系统,至少它们会成为终AGI的‘关键部件’。

  甚至,它可能会成为那个终的AGI系统。

  不过话说回来,我们至少还需要1-2个像Transformer、AlphaGo这样级别的突破才可以。

  八年前,谷歌Transformer奠基之作出世,彻底改变了AI界。

  如今,谷歌另一个有潜力成为Transformer的全新架构——Titans,正式在NeurIPS 2025亮相。

  它融了‘RNN速响应+Transformer强大能’,集两者之大成。

  即便在200万token上下文中,Titans召回率和准确率高。博客一出,在全网掀起了海啸级地震。

  正如Hassabis所言,‘颠覆’AGI已近在眼前!

  DeepMind掌门人:2030年,AGI至

  今年早些时候,Hassabis就曾预测,具备或越人类能力的AGI,可能会在2030年之前实现。

  在周四的公开对话中,Hassabis再度强调:

  AGI很可能是人类历史上具颠覆的时刻之一,如今它正在加速逼近。

  若要我给出一个时间,人类距离实现AGI仅剩下5到10年。

  在谈及未来愿景时,Hassabis的声音饱含憧憬:

  我一直以来大的梦想、也是我奋斗一生的目标,是实现‘丰饶时代’的理想社会。 

  一个人类面临的大问题都已被解决的世界。

  比如,免费的、可再生的清洁能源,也许人类解决了核聚变,或者造出了更优的电池、太阳能材料、半导体,在材料科学上取得突破;人类也攻克了许多疾病。

IT之家注意到,华为 WATCH D2 全球创运动与血压研究,支持用户主动开展有氧运动场景的血压测量和支持运动心血管风险评估。

结IT之家此前报道,华为 MateBook Fold 非凡大师鸿蒙折叠电脑于今年 5 月发布,重量为 1.16kg,薄至 7.3mm 上时只有 13 英寸大小,展开后则可以呈现 18 英寸“全球大折叠屏”。

苹果 iPhone 17 搭载强劲能芯片,运行流畅,支持5G网络,带来更快的下载与连接体验。256GB大容量存储,轻松容纳照片、与应用。经典黑外观,质感出众,彰显简约品味。支持移动、联通、电信三网全网通,双卡双待设计,满足多号需求,出行更便捷。iOS系统安全智能,与苹果生态无缝协作,让使用更高。无论是拍照、办公还是娱乐,iPhone 17 都能从容应对,是您理想的智能手机之选。

苹果 iPhone 16 5G手机,256GB黑版,搭载全新A18芯片,采用二代3纳米工艺,CPU能提升30%,GPU提速40%,神经引擎速度翻倍,能更高。配备6.1英寸视网膜XDR显示屏,提供出视觉体验。影像系统升级,搭载48MP Fusion主摄,融4800万与1200万像素优势,输出2400万像素高清照片,支持杜比视界4K 60拍摄。新增1200万像素广角镜头,支持微距摄影与空间音频录制。创新拍照按钮搭配Taptic Engine触觉反馈,操作更直观。支持卫星通信与Apple Intelligence智能功能,带来全方位智慧体验。

  那样一来,人类将进入一个全新的时代,一个后稀缺时代,人类很可能繁荣发展,走向星空,将意识播撒到银河系。

  但即使是那种乌托邦式的图景,也伴随着一些问题:如果这些技术能解决所有难题,那么我们人类存在的目的又是什么?还会剩下什么问题让我们去解决?

  作为一个科学家,Hassabis为此感到担忧,甚至对科学方法本身也是如此。这是其一。

  而通往AGI的道路注定不会一帆风顺。

  Hassabis指出,恶人和错误使用AI的风险真实存在,甚至‘灾难后果’已开始显现。

  比如,对能源或供水系统的网络攻击,这些都已经是显而易见的攻击目标。 

  也许,目前还没用上非常先进的AI,但这种事基本已经在发生了。

  AI带来严重的后果,可能是灭级风险。他强调,没人确切知道人类灭亡概率P(doom),但直言:

  这个风险不是零。只要不是零,那就须认真对待梅州隔热条设备,投入资源应对。

  对Gemini 3探索不足10%

  Hassabis认为,被低估的能力是Gemini能够‘观看’并回答相关概念问题。

  他举例说,曾询问Gemini电影《搏击俱乐部》中的一个场景:

  ‘打架前摘下了戒指,这个动作有什么象征意义?’

  Gemini回答,隔热条PA66生产设备这代表主角脱离日常生活的象征,是对社会规范的拒,是一种‘放弃身份’的宣言。

  Gemini的这类‘抽象理解’能力出乎他的意料。Hassabis认为Gemini已经具备某种‘元认知’。

  还有另一个例子是Gemini Live功能。他认为,多模态AI的潜力,远比大多数人今天所理解的要大得多。

  每次DeepMind推出新版模型时,Hassabis都会有种强烈的遗憾感:自己可能连这个系统的十分之一都没来得及深入测试,就已经要投入下一个版本的研发了。

  而用户们往往会比Gemini开发人员更快地发掘新功能,把模型用到连他们都没想到的地方。

  核心的观点

  Hassabis核心的观点可能是AGI的实现路径问题。

  他认为,我们距离真正的AGI还有大约5到10年的时间。

  DeepMind对AGI的定义要求很高:要称得上‘通用’,AI系统须具备人类的所有认知能力,其中包括‘创造力’和‘发明能力’。

  现在的LLM在某些域已经非常惊艳,堪比博士水平,甚至能拿奥林匹克金牌;但在另外一些域,它们仍然存在明显缺陷,呈现出‘参差不齐’的智力表现。

  真正的AGI应当拥有‘各项能力均衡发展’的稳定智能。

  这包括当前模型所缺失的几个关键能力:持续学习(continual learning)、在线学习(online learning)、长期规划和多步推理。

  目前,大语言模型完全不具备这些能力。

  他承认存在一种可能,即规模扩展‘可能就是AGI系统的全部’,尽管他认为这种情况可能较小。

  这需要我们须将规模扩展推向对限。

  退一步说,规模扩展至少会成为终AGI的‘关键构件’。

  Hassabis相信,它们未来会具备这些能力,但我们可能还需要一两个重大技术突破。

  而谷歌似乎已经有了Transformer级的重大突破。

  强‘Transformer’出世

  几天前,NeurIPS大会上一场对谈中,谷歌席科学家Jeff Dean和AI教父Hinton同框。

  关于LLM和研究路线,Hinton当场提出了一个尖锐的问题——

  谷歌是否后悔发表Transformer论文?

  Jeff Dean给出了干脆的回应:‘不后悔!这项研究对世界产生了重大的影响’。

  几乎同一时间,谷歌放出了全新的架构Titans,成为Transformer的强继任者!

  此外,还有一个全新的MIRAS框架。

  两者的结,可以让 AI模型在运行过程中动态更新核心记忆,跑得更快,也能处理长规模的上下文。

  众所周知,Transformer大瓶颈在于,上下文无限扩展,会导致计算成本飙升。

  除了业界迭代的RNN、Mamba-2等架构,谷歌也提出了新一代解决方案——

  如上所述,Titans+MIRAS,就是一套把RNN速度和Transformer准确,结起来的架构与理论思路。

  Titans是具体的模型架构(工具),而MIRAS 是用于泛化这些方法的理论框架(蓝图)。

  它们起来,实现了一种‘测试时’记忆的能力。

  在运行时,模型不再只是把信息压成一段静态状态,而是在数据不断输入时主动学习,即时更新自己的参数。

  这个关键机制,可以让模型立刻把新的、具体的信息加入到核心知识里。

  值得一提的是,清华姚班校友钟沛林参与了两项工作。他博士毕业于哥伦比亚大学,2021年起加入谷歌任研究科学家。

  Titans:即时掌握新上下文

  一个高的学习系统,需要既立又互相关联的‘记忆模块’。

  这一机制,就像人脑会将短期记忆和长期记忆区分开来一样。

电话:0316--3233399

  为此,Titans引入了一种全新的神经长期记忆模块,本质上是一个深层神经网络(一个多层感知机MLP)。

  它拥有更强的表达能力,在不丢失关键信息的同时,总结海量内容。

  有了Titans,LLM不只是记笔记,而是在真正理解并串联整个故事。

  更重要的是,Titans并非被动存储数据,而会主动学习如何识别并保留贯穿整个输入的重要关系和概念主题。

  衡量这一能力的核心指标之一,谷歌将其称之为‘惊奇度’(surprise metric)。

  假设遇到‘高惊奇’度的信息时,会被优先写入长期记忆。而且,会随着不断学习,自适应管理权重,主动遗忘不再需要的信息。

  MIRAS:统一视角,序列建模

  序列建模的每一次重大突破,本质上都在使用同一种底层机制:高度复杂的联想记忆模块。

  MIRAS到之处和实用价值在于,它看待AI建模的方式——

  把各种架构视为解决同一个核心问题的‘不同手段’。 

  如何在融新信息与旧记忆的同时,不让关键概念被遗忘。

  MIRAS通过四个关键设计维度,来定义序列模型:

记忆架构(Memory architecture):承担信息存储的结构,例如向量、矩阵,或像Titans深层多层感知机。

注意偏置(Attentional bias):模型内部优化的学习目标,决定优先关注哪些信息。

保留门(Retention gate):一种记忆正则化机制。MIRAS将传统‘遗忘机制’重新解释为正则化形式,用于在学习新知识与保留旧知识之间取得平衡。

记忆算法(Memory algorithm):用于更新记忆状态的优化算法。

  序列模型

 

  越注意力

  几乎所有现行成功的序列模型,在处理偏置和保留机制时,都依赖于均方误差(MSE) 或点积相似度。这种依赖导致模型对异常值(outliers)过于敏感,并限制了其表达能力。

  MIRAS突破了这一局限。

  借鉴优化理论与统计学文献,它构建了一个生成式框架,开拓了更丰富的设计空间。

  基于MIRAS,谷歌构建了三款特的无注意力(Attention-free)模型:

YAAD

MONETA

MEMORA

  在语言建模和常识推理任务中,Titans架构在同等规模下,优于先进的线循环模型(如Mamba-2和Gated DeltaNet)以及Transformer++基线模型。

  新颖的MIRAS变体(MONETA、YAAD、MEMORA)相比这些基线模型也提升了能,验证了探索稳健的非MSE优化机制的优势。

  重要的是,这些模型保持了高的并行化训练和快速的线推理速度。

  这些新架构显著的优势在于其处理长上下文的能力。

  这在BABILong基准测试中得到突出体现,该任务需要对分布在长文档中的事实进行推理。

  在BABILong基准上,Titans以更少的参数量,表现优于包括GPT-4等大型模型在内的所有基线模型。

  Titans进一步展示了可有扩展到过200万token上下文窗口的能力。

  有Reddit网友预测,或许我们在明天,就可以看到采用Titans架构的Gemini 4。

  正如网友所言,这可能是谷歌继Transformer之后,个重大突破!

  在架构层面,Titans+MIRAS补上了‘记忆与持续学习’。

  而在多模态能力层面,Gemini显露‘元认知’的边缘形态。

  也许,AGI正加速到来。

海量资讯、解读,尽在财经APP

责任编辑:韦子蓉 梅州隔热条设备

关于我们

热点资讯