麻花传媒91mv在线观看

EN
www.dcsz.com.cn

美国may18_XXXXXL56e10惭别迟补等机构揭秘为什么础滨要学会借助工具而非死记硬背

这项由苏黎世联邦理工学院的Sam Houliston、法国IRISA实验室的Ambroise Odonnat,以及Meta公司FAIR部门的Charles Arnal和Vivien Cabannes共同完成的研究,发表于2025年8月29日,有兴趣深入了解的读者可以通过论文标题"Provable Benefits of In-Tool Learning for Large Language Models"搜索获取完整论文。这项研究首次从理论层面证明了为什么让AI学会使用工具比让它死记硬背更有效。 想象一下人类学习的两种方式:一种是把所有知识都背下来装在脑子里,另一种是学会查字典、用搜索引擎、问专家。显然,后者更灵活也更实用。这项研究就是要证明,对于大语言模型来说,学会使用外部工具(比如数据库、API接口)比把所有信息都压缩到模型参数里要高效得多。 研究团队通过严格的数学证明和大量实验,揭示了一个令人意外的发现:纯靠"背诵"的AI模型在记忆能力上存在根本性限制,而学会使用工具的AI却能实现无限扩展的知识获取能力。这个发现不仅改变了我们对AI学习方式的理解,更为未来AI系统的发展指明了方向。 传统的大语言模型就像一个拼命背书的学生,试图把所有知识都塞进自己的"大脑"里。研究团队将这种方式称为"权重内学习",因为所有信息都存储在模型的参数权重中。相对应地,他们提出了"工具内学习"的概念,让AI学会在需要时查阅外部资源。 为了让这个对比更加清晰,研究者们设计了一个简单而巧妙的实验。他们创建了一个虚拟的人物传记数据库,里面包含各种虚构人物的生日、出生地、职业等信息。然后让两组AI模型学习回答对于这些人物的问题。 第一组采用"背诵模式":当用户问"肯尼·麦克罗伊什么时候出生的?"时,模型必须直接从记忆中给出答案"肯尼·麦克罗伊出生于1988年5月19日"。 第二组采用"查阅模式":面对同样问题时,模型会说"为了回答这个问题,我需要查询数据库",然后发出格式化的查询指令,获得数据库返回的信息后,再组织语言给出最终答案。 研究团队首先从理论角度分析了"背诵模式"的根本缺陷。他们通过严格的数学推导证明了一个令人震惊的结论:任何试图通过参数记忆信息的模型,其记忆容量都受到参数数量的严格限制。 这个限制有多严格呢?研究显示,如果一个模型有P个参数,每个参数用b位来表示,那么这个模型最多只能记住P×b/c个独立的事实,其中c是一个常数。换句话说,记忆容量和模型大小呈线性关系。 用一个生活化的比喻来理解:如果把AI模型比作一个图书馆,那么"背诵模式"就像把所有书的内容都印在图书馆的墙上。墙面积是固定的,能印的字数也就有上限。当需要存储的信息超过这个上限时,要么扩建图书馆(增加参数),要么就得覆盖掉一些旧信息。 更糟糕的是,实验表明大多数语言模型的有效存储容量大约只有每个参数2比特,远低于理论上限。这意味着一个拥有70亿参数的大模型,实际上只能可靠地记住大约140亿比特的独立信息,相当于约1.75GB的纯文本内容。 与"背诵模式"的天花板形成鲜明对比,研究团队证明了"工具学习"模式在理论上没有记忆上限。他们构造了一个精巧的数学模型,证明只需要一个参数数量与属性种类数平方成正比的小型transformer模型,就能学会查询任意大小的外部数据库。 这个证明过程颇具技巧性。研究者们将查询过程分解为几个基本步骤:识别用户问题中的属性类型(比如询问的是生日还是出生地),提取人名,构造标准化的数据库查询语句,然后将返回结果整理成自然语言回答。他们证明了一个8层的transformer就足以完成所有这些操作,而且所需参数数量不依赖于数据库的大小。 回到图书馆的比喻:工具学习就像教会图书管理员使用索引系统。不需要把所有书的内容都印在墙上,只要掌握查找方法,就能快速定位任何信息。图书馆可以不断扩容,而管理员的技能不需要相应增加。 实验结果完美验证了理论预测。在控制实验中,当数据库包含1000个以下的事实时,两种学习模式的表现相当。但随着数据量增长,"背诵模式"很快遇到瓶颈,所需参数数量呈线性增长。而"工具模式"在达到某个临界点后,参数需求趋于稳定,展现出明显的扩展优势。 实验中最令人惊讶的发现是,AI在学习使用工具的过程中经历了一个质的飞跃。初始阶段,即使是"工具模式"的AI也倾向于记忆具体的问答对。但当训练数据达到一定规模后,模型突然"开窍"了,开始真正理解查询的逻辑。 这个转变点通常出现在大约1000个事实的时候。在此之前,模型在面对训练中没见过的数据库时表现很差,甚至不如随机猜测。但跨过这个临界点后,它们的表现急剧提升,即使面对完全陌生的数据库也能正确执行查询。 研究团队将这种现象比作"顿悟效应"。就像学习数学时,学生起初只能记住具体题目的答案,但某一刻突然理解了解题方法,从此面对任何同类问题都游刃有余。这种从记忆具体案例到掌握通用规则的转变,体现了真正智能学习的特征。 为了验证理论发现在实际应用中的有效性,研究团队对多个主流语言模型进行了微调实验,包括SmolLM 2系列(1.35亿到17亿参数)和Llama 3.1/3.2系列(10亿到80亿参数)。 实验设置非常贴近实际应用场景:让这些预训练好的模型学习500到50000个新的事实信息,然后测试它们的记忆效果和原有能力的保持情况。测试标准包括事实回忆准确率、通用语言理解能力(使用HellaSwag基准测试),以及模型输出分布相对原始版本的变化程度。 结果再次印证了理论预测。采用"背诵式"微调的模型虽然能够记住新事实,但付出了沉重代价:通用语言能力明显下降,特别是小型模型的表现衰减更为严重。80亿参数的Llama模型在记忆50000个事实后,HellaSwag得分从原来的60%下降到50%左右。 相比之下,学会工具使用的模型几乎完美保持了原有能力。即使面对大规模的事实学习任务,它们的通用语言理解得分基本没有变化。这种"鱼与熊掌兼得"的效果,清楚地展示了工具学习的实用价值。 除了记忆容量和能力保持方面的优势,工具学习在训练效率上也表现出色。实验数据显示,模型掌握工具使用技能的速度非常快,通常在20个训练步骤内就能学会基本的查询格式。 这种快速学习能力的原因在于,工具使用本质上是一种结构化的语言生成任务。模型只需要学会几种固定的查询模板,然后学会从用户问题中提取关键信息填入模板即可。相比于记忆成千上万个具体事实,掌握这些通用模式要容易得多。 而且,一旦掌握了工具使用技能,模型的表现就相对稳定。不像背诵模式那样需要反复强化记忆,工具技能一旦形成就能持久保持。这种"一次学会,终身受益"的特点,使得工具学习在长期维护成本上也更具优势。 研究的另一个重要发现涉及现实世界中事实之间的相关性。在理论分析中,研究者假设所有事实都是独立的,但实际情况往往不是如此。比如,来自同一个家族的人可能有相似的出生地,从事相同职业的人可能有相关的工作经历。 为了探索这种相关性对记忆能力的影响,研究团队设计了一个巧妙的实验。他们引入了一个"相关性参数"α,当α等于1时,同姓氏的人拥有完全相同的属性;当α等于0时,所有属性都是随机分配的。 实验结果显示,随着事实间相关性的增加,"背诵模式"所需的参数数量显著减少。这个发现符合直觉:当信息有规律可循时,模型可以学会这些规律,而不是死记硬背每个细节。 这个发现对实际应用有重要启示。在真实世界中,知识往往具有内在结构和规律。比如,地理知识有空间关联,历史知识有时间脉络,科学知识有逻辑联系。理解和利用这些结构,可以让AI系统更高效地学习和存储知识。 这项研究的意义远不止于证明工具学习的优越性,它更为AI系统的设计哲学提供了新的思路。传统的做法是不断增大模型规模,试图用更多参数来容纳更多知识。但这种"大力出奇迹"的方法面临着明显的瓶颈:计算成本呈指数增长,而性能提升却日趋缓慢。 工具学习范式提供了一条截然不同的道路:与其把所有知识都塞进模型内部,不如教会模型如何高效地访问外部知识源。这种模块化的设计思路有几个明显优势: 首先是可扩展性。外部知识库可以独立更新和扩展,无需重新训练整个模型。新增的信息立即可用,删除过时信息也不会影响模型的核心能力。 其次是可解释性。当模型通过明确的查询步骤获取信息时,其推理过程变得透明可追溯。用户可以清楚地看到模型从哪里获得了什么信息,如何得出最终答案。 第三是专业化分工。不同类型的知识可以存储在专门的数据库中,由专业的检索和处理系统管理。语言模型专注于理解、推理和表达,而具体的事实查询交给专门的工具处理。 研究团队不仅证明了工具学习在理论上的可行性,还详细描述了如何构造这样的系统。他们的方案基于transformer架构,但进行了精心的设计来支持结构化查询。 整个查询过程可以分为几个步骤:首先,模型需要从用户的自然语言问题中识别查询类型。比如,"肯尼什么时候出生的?"需要被识别为对于"出生日期"的查询。这需要模型能够理解问句的语法结构和语义内容。 接下来,模型需要提取关键的实体信息,也就是查询的对象。在上述例子中,"肯尼"就是需要查询的人名。这个步骤涉及命名实体识别和信息抽取技术。 第三步是构造标准化的查询语句。模型需要将提取的信息按照预定的格式组织成数据库能够理解的查询指令。比如,"FIND birth_date FOR Kenny McRoy"这样的结构化命令。 每一步都需要精确的设计和训练。研究团队证明了一个8层的transformer模型就足以完成所有这些操作,而且所需的参数数量主要取决于需要支持的查询类型数量,而不是数据库的大小。 为了确保实验结果的可靠性,研究团队在实验设计上花费了大量心思。他们构造了一个完全人工的测试环境,使用虚构的人名和随机生成的属性值,避免了模型可能已有的先验知识干扰。 数据库包含四种基本属性:出生地、出生日期、当前地址和职业。这些属性分别有7、16800、213和100种可能的取值。这种设计既保证了足够的复杂性,又使得统计分析成为可能。 在训练过程中,两种模式的模型使用完全相同的硬件资源、优化器设置和训练时间。唯一的区别在于训练数据的格式:背诵模式的训练样本直接包含问题和答案,而工具模式的样本包含问题、查询步骤、数据库返回结果和最终答案。 实验结果呈现出几个有趣的模式。在小规模数据集上(少于1000个事实),两种学习模式的表现相当。这符合预期,因为此时背诵模式还没有遇到严重的容量限制。 但随着数据规模增长,差异开始显现。背诵模式所需的参数数量几乎呈线性增长,遵循研究团队推导的理论公式。每增加1000个事实,大约需要增加8000个参数才能维持95%的回忆准确率。 工具模式在达到某个临界点后表现出截然不同的行为。参数需求趋于平稳,表明模型已经掌握了查询的通用方法,不再需要额外的参数来处理更大的数据库。 更令人惊讶的是工具模式在跨数据库泛化能力上的表现。在临界点之前,模型在面对训练时未见过的数据库时表现很差。但跨过临界点后,这种泛化能力急剧提升,表明模型真正学会了查询的逻辑规则,而不是简单的模式匹配。 这项研究的发现对当前的AI发展趋势提出了深刻的反思。过去几年,AI领域的主要努力方向是不断增大模型规模,从GPT-1的1.17亿参数发展到GPT-4的预估万亿参数规模。这种"大力出奇迹"的方法确实带来了显著的性能提升,但也面临着越来越明显的边际效益递减问题。 研究结果表明,纯粹的参数堆叠可能并不是通向通用人工智能的最优路径。相反,教会AI系统如何高效利用外部资源可能更为重要。这种观点与人类智能的特点不谋而合:人类的大脑容量有限,但我们学会了使用书籍、计算机、互联网等工具来扩展认知能力。 现实中的一些成功案例也支持这种观点。搜索引擎增强的问答系统、检索增强生成(RAG)技术、以及各种AI助手的工具调用功能,都展示了外部资源对AI能力的放大效应。 尽管理论分析很有说服力,但将工具学习应用到实际系统中仍面临一系列技术挑战。首先是查询效率问题。每次需要外部信息时都要进行数据库查询,这可能显著增加响应延迟。特别是在需要多轮查询才能回答复杂问题时,累积的延迟可能影响用户体验。 其次是查询质量问题。自然语言问题到结构化查询的转换并非总是准确的。模型可能误解用户意图,生成错误的查询语句,或者无法处理复杂的查询逻辑。 第三是知识库维护问题。外部知识库需要持续更新和维护,确保信息的准确性和时效性。这涉及数据清洗、去重、版本控制等一系列工程问题。 研究团队提出了一些解决思路。对于效率问题,可以通过缓存机制、查询优化和并行处理来缓解。对于质量问题,可以引入查询验证、多轮交互和用户反馈机制。对于维护问题,可以采用自动化的数据更新流程和质量监控系统。 工具学习的概念不仅限于文本数据库查询。研究团队在论文中暗示了更广阔的应用前景。未来的AI系统可能学会使用各种类型的工具:计算器进行数学运算、图像识别系统处理视觉信息、语音合成系统生成音频内容、甚至控制机器人进行物理操作。 这种多工具协作的场景对AI系统提出了更高要求。系统不仅要知道何时使用什么工具,还要学会如何将不同工具的输出结果整合起来,形成连贯的最终答案。这涉及任务规划、资源调度、结果整合等复杂的推理过程。 另一个有趣的方向是可学习的工具。传统的工具(如数据库、API)通常是静态的,但未来的工具可能具备学习能力,能够根据使用模式和反馈不断优化自身性能。这种工具与AI系统的协同进化可能产生意想不到的智能涌现效应。 这项研究的发现对AI产业的发展策略也有重要启示。传统的AI公司竞争焦点主要集中在模型规模和训练数据量上,谁能训练出更大的模型,谁就占据优势。但工具学习范式可能改变这种竞争格局。 在新的范式下,AI系统的核心竞争力可能不再是参数数量,而是工具生态系统的丰富性和整合能力。能够提供更多高质量工具、更好的工具接口、更智能的工具调度策略的公司可能获得竞争优势。 这种变化也为中小公司提供了新的机会。与其在模型规模上与大公司正面竞争,不如专注于开发特定领域的专业工具,或者提供优质的工具整合服务。 对于用户而言,这种变化意味着AI服务的个性化程度可能大幅提升。不同用户可以根据自己的需求配置不同的工具组合,创造出高度定制化的AI助手。 说到底,这项研究揭示的不仅是AI技术发展的新方向,更是对智能本质的深刻洞察。真正的智能不在于记忆的容量,而在于学习和运用工具的能力。正如人类文明的进步不是靠大脑容量的增加,而是通过发明和使用越来越复杂的工具实现的。AI系统也应该走上这条道路,从单纯的"记忆机器"进化为真正的"智能助手"。 研究团队的工作为这种进化提供了坚实的理论基础和实践指导。虽然从理论到大规模应用还有很多技术细节需要完善,但方向已经明确。未来的AI系统将不再是孤立的"超级大脑",而是能够灵活调用各种专业工具的"智能协调员"。这种新型AI系统不仅在技术上更加高效,在经济上更加可持续,在伦理上也更加透明可控。对于整个人工智能领域来说,这无疑是一个激动人心的新开端。 A:工具内学习是让AI学会使用外部资源(如数据库、搜索引擎)来获取信息,而不是把所有知识都存储在模型参数中。就像人类查字典一样,AI遇到问题时会主动查询相关工具。传统方式则是让AI死记硬背所有信息,就像要求学生把整本字典都背下来一样。 A:研究证明了传统记忆方式存在严格的容量限制,模型能记住的事实数量受参数数量限制。而工具学习没有这个限制,一个小模型就能查询任意大小的数据库。而且工具学习不会影响模型原有能力,而传统方式在记忆新信息时会损害之前学到的技能。 A:目前这项技术还主要停留在研究阶段,但一些相似概念已经在实际应用中出现,比如ChatGPT的插件功能、搜索增强的问答系统等。研究团队提供了完整的代码和实现方案,为未来的实际部署奠定了理论基础。完全成熟的商业应用可能还需要一些时间来解决工程化问题。

美国may18_XXXXXL56e10
美国may18_XXXXXL56e10谈到在这场比赛中国家队的球员似乎存在态度问题,施魏因斯泰格表示:“我为德国队踢了121场比赛,从来没有出现过态度问题。当你听到国歌并穿上国家队球衣时,无论是友谊赛还是世界杯决赛,你都必须在场上全力以赴。”飓风卡特里娜席卷新奥尔良,造成数千人死亡和无数人流离失所;马拉多纳正在第13频道主持节目《夜晚的10号》;特维斯(未被召入国家队)则在美洲电视台介绍他的乐队“Piola Vago”。美国may18_XXXXXL56e10抖阳回到快船与莱昂纳德作为案例,若最终阴阳合同被实锤,快船要被罚款、被没收1个首轮签、莱昂纳德将成为自由球员(即他与快船的相关合同都将作废)。亚马尔和居勒尔都是非常优秀的球员,他们各具特点也很有潜力。我们有幸拥有亚马尔,他给我们带来了许多喜悦。他是一个渴望不断成长和提高、充满雄心的年轻人。
20250924 ? 美国may18_XXXXXL56e10刘诗诗对生活和工作细节的关注会从各种方面流露,那些对细枝末节的体察、对人间烟火气的捕捉,都是作为演员的素材和创作活力的基石,也是她保持生命能量的关键。她的表达方式朴素恳切,谈生活谈日常,谈最细微的小事:“这些才是真正存在的东西,更扎实。”国产少女免费观看电视剧字幕具体而言,教师岗位的去留完全取决于课时数量。学校规定,教师每周的课时若不足12节,就会面临落聘的风险。一旦落聘,还得参与所谓的二次竞聘,去争抢功能室管理、教辅岗位等可以折合课时的工作。
美国may18_XXXXXL56e10
? 高永刚记者 李建波 摄
20250924 ? 美国may18_XXXXXL56e10在接受Flashscore采访时,斯卡洛尼表示:“让我们现在尽情享受梅西的比赛吧,尽可能地多看他踢球。至于未来会怎样,我们只能等等看。很明显,总有一天梅西会离开国家队,而我们则会继续前行。但是,当他决定不再来国家队报到时将是巨大的损失,这不仅包括了阿根廷足球,也包括了全世界的球迷,他们都希望看到他在球场上。总之,喜欢足球的人都希望他能在球场上,所以现在让我们好好享受吧。”乳头被男人吸过乳头会皲裂吗当她赶到学校,面对主任那毫无表情的脸和简短生硬的话语时,整个人当场就懵了。主任给出的理由简单到近乎残酷:高一新生的实际报到人数仅仅达到了计划人数的一半,学校不得不做出调整,将原本计划开设的八个班级砍到了四个。
美国may18_XXXXXL56e10
? 范建辉记者 李梅 摄
? 据统计,中国队四连胜战绩杀进四强,净胜145分,表现非常强势,也成为了夺冠热门之一,接下来半决赛跟新西兰队争夺决赛资格,新西兰队的实力并不强,中国队晋级决赛的希望很大。另外一场半决赛,澳大利亚队对阵日本队,日本队大概率要被淘汰。成片ppt网站大片
扫一扫在手机打开当前页