根据我与他人的对话,我注意到许多人在人工智能方面至少有一定程度的恐惧。在大多数情况下,这源于对AI的理解缺乏了解,或者过度依赖主流媒体对这些技术的看法。
负面新闻比正面新闻更受关注,这就是为什么许多新闻媒体通过关注消极或夸张的故事来最大限度地增加观众的原因,就像围绕人工智能的大部分报道一样。
几乎任何新的和复杂的东西都会在人类中造成混乱和恐惧。研究人员称之为“负面偏见”,指的是我们想要听到并记住坏消息的集体倾向。{291}
因为大多数人没有受过人工智能的教育,所以这个话题已成为负面故事的目标。例如,在2017年夏天,许多新闻媒体都刊登了有关Facebook人工智能实验的头条新闻。考虑雅虎新闻的一个标题运行示例:
“Facebook工程师恐慌,在机器人开发自己的语言后插上AI”
-
雅虎新闻
虽然这个标题肯定引起了人们的注意,但事实并非如此,因为这一事件并没有引起Facebook工程师的恐慌。相反,媒体改变了故事以产生更多流量并获得更多关注。
汤姆麦凯的一篇文章,名为“ 不,Facebook没有恐慌,关闭了一个危险的智能人工智能程序”,发表在Gizmodo网站上,解释了真正发生的事情。你可以在这里读这篇文章:
http://gizmodo.com/no-facebook-did-not-panic-and-shut-down-an-ai-program-1797414922
随着人工智能应用越来越普遍,我相信我们将来会继续看到这样的头条新闻。出于这个原因,通过夸大的头条新闻,关注消息来源以及进行自己的独立研究总是一个好主意。
围绕人工智能发展的最常见担忧之一是,最终我们将创造某种类型的超级人工智能,它们会伤害甚至杀死人类。
这种恐惧的一个原因是好莱坞对人工智能的过分描述,人工智能多年来一直是消极或可怕的,反复出现机器人摧毁其创造者的可怕图像。另一个原因是我们今天能够创造的人工智能技术比以往任何时候都更加逼真,因为它基本上可以看到,听到,理解,推理,在某些情况下可以走路,说话,甚至看起来像人。这可以为某些人想到这些机器可能做的事情而疯狂地铺平道路。
另一个可能煽动公众恐惧的因素可能是许多受人尊敬的科学家和人工智能研究人员在新闻中被人们看到可能引起关注的合理问题。其中一些着名专家,如斯蒂芬霍金和伊隆马斯克,曾公开警告说,如果我们不做相应的准备和计划,人工智能的发展可能对人类构成危险。分享这些担忧可能会加剧公众对人工智能的担忧,从而产生意想不到的后果。
已有数百名专家致力于解决公众恐惧问题,其中包括世界上最聪明的人工智能和其他科学领域的人才。还有一些组织,如生命未来研究所,在这方面实施了许多举措。我坚信,他们在努力消除公众无根据的恐惧方面做得很好。
下图显示了一些关于高级AI的最典型的担忧。该图像的内容最初来自生命未来研究所,是关于高级AI的神话和真理的重要表现。
图9.3.7关于高级AI的最高神话(生命未来研究所)。
在本书中,我们已经涵盖了日常生活的许多不同方面,这些方面将受到人工智能的积极影响。虽然仍有一些问题和挑战需要解决,但领先的专家已经在寻找解决方案。因此,不要担心大肆宣传媒体头条,而是开始考虑如何在现在和不久的将来在自己的生活中应用AI。