Google正在开发一系列人工智能模型Kenzo Tribouillard/AFP通过Getty Images据报道,一名Google工程师声称他帮助发展的人工智能已被暂停。布莱克·莱莫因(Blake Lemoine)告诉 这 华盛顿邮报 。
Lemoine发布了与AI的对话的成绩单 ,称为LAMDA(对话应用的语言模型),其中似乎表达了对关闭的恐惧,谈论它如何感到幸福和悲伤 ,并试图通过提到它永远无法真正经历过的情况来与人类形成纽带。这是您需要知道的一切。
不用说,不,英国艾伦·图灵学院的阿德里安·韦勒(Adrian Weller)说 。
他说:“ LAMDA是一种令人印象深刻的模型 ,它是一系列大型语言模型中的最新模型之一,这些模型经过大量的计算能力和大量的文本数据,但它们并不是真正的知名度。”“他们采取了一种复杂的图案匹配形式 ,以找到最适合根据他们所喂养的数据所获得的查询的文本。 ”
英国萨里大学的阿德里安·希尔顿(Adrian Hilton)同意,知觉是“大胆的主张”,并未得到事实的支持 。甚至著名的认知科学家史蒂文·平克(Steven Pinker)也称赞了莱莫因(Lemoine)的主张 ,而纽约大学的加里·马库斯(Gary Marcus)则以“胡说八道”的形式总结了这一点。
Lemoine和Google都没有回应 新科学家的 请求评论。但是当然,近年来AI模型的产出变得令人惊讶,甚至令人震惊的好 。
我们的思想容易感知这种能力,尤其是在模仿人类语言的模型时 ,我们的思想是真正智力的证据。LAMDA不仅可以使人有说服力的聊天,而且还可以表现为具有自我意识和感觉。
希尔顿说:“作为人类,我们非常擅长拟人化事物 。 ”“将我们的人类价值观放在事物上 ,将它们像对待它们一样。
目前尚不清楚AI研究的当前轨迹是否会饲喂越来越多的训练数据,这是否会看到人造思想的起源。
希尔顿说:“我现在不相信我们真正了解使事物有知觉和聪明的原因背后的机制。”“关于AI有很多炒作,但我并不相信我们在机器学习中所做的事情在这种意义上确实是聪明的 。”
韦勒说 ,鉴于人类的情绪依赖于感官投入,最终有可能人为地复制它们。“这可能是真的,也许有一天可能是真的 ,但是大多数人会同意还有很长的路要走。 ”
华盛顿邮报 声称在Google工作了7年后,Lemoine已被暂停,试图聘请律师代表LAMDA ,并向高管派遣一份声称AI是有价值的文件 。它的报告指出,Google说,发表成绩单破坏了保密政策。
谷歌告诉报纸:“我们的团队,包括伦理学家和技术人员 ,根据我们的AI原则审查了布雷克的担忧,并告诉他,证据不支持他的主张。他被告知没有证据表明LAMDA是有利的(并且有很多证据反对它) 。”
Lemoine在Twitter上回答:“ Google可能会称其为共享专有物业。我称其为共享我与一位同事的讨论。”
本文来自作者[admin]投稿,不代表东辰文化立场,如若转载,请注明出处:http://www.mzwhys.cn/wiki/202506-1391.html
评论列表(4条)
我是东辰文化的签约作者“admin”!
希望本篇文章《Sectient AI:Google的LAMDA人工智能真的栩栩如生?》能对你有所帮助!
本站[东辰文化]内容主要涵盖:生活百科,小常识,生活小窍门,知识分享
本文概览:Google正在开发一系列人工智能模型Kenzo Tribouillard/AFP通过Getty Images据报道,一名Google工程师声称他帮助发展的人工智能已被暂停。布...