科学家在一项新研究中表明,神经网络现在可以比以往任何时候都更像人类。
该研究于周三(10月25日)发表在《期刊》上 自然 ,在认知科学&Mdash中为期数十年的辩论中的转变;一个探索哪种计算机最能代表人类思想的领域 。自1980年代以来 认知科学家认为 那个神经网络,一种 人工智能 (AI),不是可行的思维模型 ,因为它们的架构无法捕捉人类思维方式的关键特征。
但是,通过培训,神经网络现在可以获得这种类似人类的能力。
“我们在这里的工作表明 ,人类智能和地狱的这一关键方面可以通过练习来获得因缺乏这些能力而被驳回的模型, ”研究 布伦登湖纽约大学心理学与数据科学助理教授告诉Live Science 。
有关的: AI的“令人不安”的推出正在暴露其缺陷。我们应该怎么担心?
神经网络在某种程度上模仿了人类大脑的结构,因为它们的信息处理节点彼此相关,并且它们的数据处理流在层次层中。但是从历史上看 ,AI系统没有 行为 像人类的思想一样,因为他们缺乏以新方式结合已知概念的能力;一种称为“系统构图”的能力 。
例如,Lake解释说 ,如果标准神经网络学习了“跳 ”,“两次”和“圈子”一词,则需要向许多示例显示如何将这些词组合成有意义的短语 ,例如“跳过两次 ”和“跳过圈”。但是,如果该系统被喂食一个新单词,例如“旋转” ,它将再次需要看到一堆示例,以学习如何类似地使用它。
在新研究中,湖和研究合着者 马可·巴罗尼(Marco Baroni) 巴塞罗那的庞培·法布拉大学(Pompeu Fabra University)的院长用诸如“ dax”和“ wif ”之类的单词进行了化妆语言测试了AI模型和人类志愿者。这些单词要么与彩色点相对应 ,要么以某种方式以某种方式操纵这些点的顺序 。因此,单词序列确定了彩色点出现的顺序。
因此,鉴于毫无意义的短语,AI和人类必须弄清楚基本的“语法规则” ,这些规则确定了哪些点与单词相关。
大约80%的时间,人类参与者产生了正确的点序列 。当他们失败时,他们会产生一致的错误类型 ,例如思考一个单词代表单个点,而不是将整个点序列的函数降低。
在测试了七个AI模型之后,Lake和Baroni以一种称为元学习的方法(MLC)降落 ,该方法使神经网络练习将不同的规则应用于新学习的单词,同时还可以就其是否正确应用规则提供反馈。
有关的: AI ChatBot Chatgpt无法创建令人信服的科学论文和地狱;然而
受MLC训练的神经网络匹配或超过了人类在这些测试上的表现 。当研究人员添加有关人类常见错误的数据时,AI模型随后犯了与人们相同的错误。
作者也是 将MLC与OpenAI的两个基于神经网络的模型相提并论 ,在Chatgpt背后的公司,发现MLC和人类在DOTS测试中的表现远胜于OpenAI模型。MLC还完成了其他任务,其中涉及 解释书面说明 和 句子的含义 。
“他们在计算句子的含义上取得了令人印象深刻的成功 ,” 保罗·史密斯基(Paul Smolensky),约翰·霍普金斯(Johns Hopkins)的认知科学教授,也没有参与新研究的Microsoft Research的高级首席研究员。但是该模型的概括能力仍然有限。Smolensky告诉Live Science:“它可以处理经过训练的句子的类型,但不能概括为新的句子 。 ”
尽管如此 ,“直到本文,我们才真正成功地训练网络以充分构图,”他说。尽管当前的局限性 ,我认为这就是我认为他们的论文向前发展的地方。”
Smolensky补充说,增强MLC表现出组成概括的能力是下一步的重要下一步。
他说:“这是使我们聪明的中心财产,因此我们需要确定这一点 。 ”“这项工作使我们朝着这个方向朝着这个方向前进。”(然而。)
本文来自作者[admin]投稿,不代表东辰文化立场,如若转载,请注明出处:http://www.mzwhys.cn/jyan/202506-433.html
评论列表(4条)
我是东辰文化的签约作者“admin”!
希望本篇文章《在第一个中,AI神经网络捕获了“人类智能的批判性方面”》能对你有所帮助!
本站[东辰文化]内容主要涵盖:生活百科,小常识,生活小窍门,知识分享
本文概览:科学家在一项新研究中表明,神经网络现在可以比以往任何时候都更像人类。该研究于周三(10月25日)发表在《期刊》上 自然,在认知科学&Mdash中为期数十年的辩论中的转变;一...