现在不要太自大杰森·李/路透社对您的能力的信心通常是一件好事 - 只要您可以识别何时寻求帮助。当我们构建越来越智能的软件时,我们可能希望将相同的想法应用于机器 。一个探索机器人自身用途的实验可以帮助指导未来人工智能的建立方式。
加利福尼亚大学伯克利分校的迪伦·哈德菲尔德·梅尔(Dylan Hadfield-Menell)说 ,过度自信的人工智能会引起各种问题。以Facebook的新闻源算法为例 。这些旨在建议人们希望看到和分享的文章和帖子。然而,通过毫无疑问,他们最终用假新闻填充了一些人的供稿。
对于Hadfield-Menell和他的同事来说 ,答案是要进行寻求和接受人类监督的AI 。他说:“如果Facebook有这种想法,我们可能没有假新闻的问题。 ”
与其推动它认为Facebook用户希望看到的每篇文章,不如说是不确定其能力的算法更有可能延迟人类更好的判断。
伯克利团队设计了一种数学模型 ,以人类与机器人之间的相互作用,称为“离职游戏”,以探索计算机“自信”的想法 。
在这个理论游戏中 ,带有关闭开关的机器人有一个任务。然后,随时可以自由按下机器人的关闭开关,但机器人可以选择禁用其开关,以便该人无法将其关闭。
机器人高度“自信 ” ,他们正在做的事情是有用的,永远不会让人关闭它,因为他们试图最大程度地利用完成任务的时间。相比之下 ,即使它做得很好,但信心较低的机器人也总是会使人关闭它 。
然而,哈德菲尔德·梅尔(Hadfield-Menell)认为我们不应该让AI太不安全。例如 ,如果自动驾驶汽车驾驶年幼的孩子上学,则汽车不应允许孩子控制。在这种情况下,AI应该相信自己的能力超过了孩子的能力 ,无论情况如何,并拒绝让孩子关闭它 。
哈德菲尔德·梅尔说,最安全的机器人将在两个极端之间取得平衡。
牛津大学的Marta Kwiatkowska说 ,拒绝让人类将其关闭的AI可能听起来很牵强,但是对于任何与人类一起工作的机器人的人来说,这种考虑对于任何与人类一起工作都至关重要。
她说,诸如无人驾驶汽车和机器人消防员之类的机器将被要求做出有关人类安全的决定 ,因此,这些决定的道德框架至关重要 。
哈德菲尔德·梅尔(Hadfield-Menell)说,脱离开关游戏只是开始。他计划探索机器人在获得有关其自身用途的更多信息时的决策如何变化。例如 ,制造咖啡机器人可能会认为其任务在早晨更有用 。
最终,他希望他的研究能够导致AI更可预测,并做出更容易让人类理解的决策。他说:“如果您将机器人发送到现实世界中 ,那么您想对它的工作有一个很好的了解。”
参考: arxiv.org/abs/1611.08219v2
阅读更多: 给您的汽车良心:为什么无人驾驶汽车需要道德
本文来自作者[admin]投稿,不代表东辰文化立场,如若转载,请注明出处:http://www.mzwhys.cn/zlan/202506-1522.html
评论列表(4条)
我是东辰文化的签约作者“admin”!
希望本篇文章《如果机器人缺乏信心,将会更有用》能对你有所帮助!
本站[东辰文化]内容主要涵盖:生活百科,小常识,生活小窍门,知识分享
本文概览:现在不要太自大杰森·李/路透社对您的能力的信心通常是一件好事 - 只要您可以识别何时寻求帮助。当我们构建越来越智能的软件时,我们可能希望将相同的想法应用于机器。一个探索机器人自...