人工智能存在的问题

发布时间:2020-09-16 11:00:00
阅读量:44
作者:猎维人工智能培训
强大的人工智能就像众所周知的瓶中精灵。一个看似无辜的愿望,却可能会导致意想不到的后果。如果我们对于我们的意图表达地不够严谨,那么人工智能机器执行我们的命令就有可能会产生危险。

强大的人工智能就像众所周知的瓶中精灵。一个看似无辜的愿望,却可能会导致意想不到的后果。如果我们对于我们的意图表达地不够严谨,那么人工智能机器执行我们的命令就有可能会产生危险。这些机器的代码行将不可避免地缺乏细微差别,如果忘记说明警告,最终给人工智能系统的目标和激励可能与我们真正的偏好不符。

人工智能失调的问题比预期的要快得多

人工智能失调的问题比预期的要快得多

牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)在2003年提出了一个经典的思维实验来说明这个问题。博斯特罗姆设想了一个超级智能的机器人,其编程目标是制造回形针,机器人最终却将整个世界变成一个巨大的回形针工厂。

人工智能失调问题

这种情况可以被视为学术性的,这种担忧可能会在遥远的将来出现。但人工智能失调的问题比预期的要快得多。

问题的一个主要方面是,人类通常不知道给我们的人工智能系统设定什么目标,因为我们不知道我们真正想要什么。“如果你问街上的人,‘你想让你的自动车做什么?’斯坦福大学(Stanford University)专门研究人机交互的人工智能科学家多萨·萨迪格(Dorsa Sadigh)说:“他们会说‘避免碰撞’。”。但你要知道,这不仅仅是因为人们有很多偏好,超级安全的自动驾驶汽车速度太慢,刹车太频繁,会让乘客感到恶心。当程序员试图列出机器人汽车应该同时处理的所有目标和偏好时,列表最终不可避免地会不完整。

更多资讯