纯净基地 - 专注分享最好用的电脑系统

当前位置: 纯净基地 >  微软资讯 >  微软AI革新:训练成本减半,微小模型引领语言学习新纪元最新

微软AI革新:训练成本减半,微小模型引领语言学习新纪元最新

更新时间:2024-03-11 07:22:10作者:czlaby
微软研究人员采用儿童故事对微小语言模型进行训练,以探究神经网络学习模拟写作的过程。这一创新方法可能为大型模型的训练提供新思路。

今年以来,ChatGPT的推出引起了全球的广泛关注。这种基于自然语言处理的大型语言模型,其训练成本之高令人咋舌。微软研究人员为了解决这一难题,采用了一种新颖的训练方法:通过儿童故事来训练微小模型。

研究者们发现,这种训练方法使得微小模型能够迅速学会讲述连贯且符合语法的故事。这对于理解神经网络的内部机制具有重要意义。西雅图艾伦人工智能研究所的研究员钱德拉·巴加瓦图拉对此表示出了浓厚的兴趣。

神经网络,作为语言模型的核心,其结构灵感源自人脑。训练过程中,模型通过不断调整参数以提高生成文本与训练数据集的相似度,从而掌握单词预测的技能。这一过程中,模型需要学会多种不同的技能,如遵循语法规则和理解基本逻辑等。

然而,大型模型在训练时不仅学习了重要的规则,也学习了大量的无关信息。微软研究院的罗南·埃尔丹意识到,通过使用儿童故事,可以简化小型模型的训练过程,使其更易于管理。他利用大型语言模型生成的儿童故事,创建了一个训练数据集,以此来训练微小模型。

在训练过程中,埃尔丹和合作者李远志发现。层数较少但每层神经元较多的网络更擅长回答需要事实知识的问题,而层数较多且每层神经元较少的网络则更擅长追踪故事中的人物和情节。这一发现为未来大型模型的训练提供了新的视角。

这项研究的成功不仅在于为大型模型的训练提供了新的可能性,还在于为建立高质量的数据集提供了新的途径。微软的研究人员表示,合成训练数据的方法已经在十亿参数模型中显示出其有效性。

这一创新的研究方法预示着,即使是最简单的模型,我们仍有许多未知之处。未来,这项研究有望成为探索语言模型新领域的开端。

和讯自选股写手

风险提示:以上内容仅作为作者或者嘉宾的观点,不代表和讯的任何立场,不构成与和讯相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。和讯竭力但不能证实上述内容的真实性、准确性和原创性,对此和讯不做任何保证和承诺。

Copyright ©  2012-2024 纯净基地 版权声明 网站地图