要点:
人工智能系统做出最终决定背后的执行逻辑。而这一问题,被科学家们称之为的“黑盒子问题”。人工智能在“深度学习”下导致,一旦产生负面的结果,它将很难被修复。除此以外,“黑盒子问题”也有道德层面的影响。 “黑盒子问题”的产生有不同的说法,也引起了公众的广泛注意。
科技正以前所未有的速度和规模发展,引发多个领域的变革,塑造了新的商业模式,甚至重塑了全新社会结构。我们一起,从科技创新中洞察社会转型和升级的机遇。
狂呼科技研究所聚焦科技创新对当今世界的影响,以独特、前瞻的科技视角,洞察科技时代下涌现的“创新革命”。
狂呼,以最具突破性的技术塑造我们的未来,为大众捕捉科技商业先机,探索当今人类社会面临的重大挑战。
联系我们// 相关文章
虽然人工智能可以完成许多连人类都无法做到的惊人事情,但在很多情况下,我们却不知道人工智能系统做出最终决定背后的执行逻辑。而这一问题,对我们尤为重要。这就是科学家们称之为的“黑盒子问题”。
问题的症结所在“举一反三”的学习理念是推动智能发展的最强大力量之一,无论你是在谈论人类还是人工智能。例如,想一想孩子们最初是如何学会识别字母表中的字母或不同动物。你只需向他们展示足够多的字母B或猫的例子,不久之后,他们就能识别出该字母或动物的任何实例。背后的基本理论其实很简单,大脑是一个发现搜索机器,当它接触到示例时,它可以识别猫性或B性所必须具备的要素,这些要素最终会合并整合在一起,使我们能够自动和无意识地对新接触的物体进行快速的分类。这对我们平日生活来说很容易,但要解释这一切的背后是如何运作几乎是很难回答。 “这是你知道的那些奇怪事情之一,但你不知道你是怎么知道的,也不知道你是从哪里学到的。”专门研究人工智能的电气和计算机工程研究人员说到。 “不是你忘记了,而是你忘记了哪些“输入”指令教会了你什么,而你剩下的只有具体做出的每一个判断。”
“深度学习”是最普遍的现代人工智能形式之一,其工作方式大致与人类相同,这在很大程度上是因为它受到了“人类智能”理论的启发。
事实上,“深度学习”算法的训练方式与我们教孩子的方式非常相似。你向系统输入你希望它能够识别的事物的相关正确示例,不久之后,它自己就会形成一个“神经网络”,用于对它以前从未经历过的事物进行一一分类。例如,在你的照片应用程序搜索栏中输入关键字“猫”, 或是你最喜欢的一只猫的名字,你就会看到“深度学习”下的人工智能快速搜索出你想要的准确内容。但可怕之处在于,就像我们的“人类智能”一样,我们同样不知道人工智能是如何通过“深度学习”从而得出结论,它像我们人类一样,也“忘记了”很久以前为其决策提供信息的所有“输入”指令,或者,更准确地说,它从来没有注意并跟踪任何“输入”指令。
“黑盒子问题”的产生有不同的说法,因此引起了公众的注意。首先,人工智能在“深度学习”下导致,一旦产生负面的结果,它将很难被修复。例如,一辆自动驾驶汽车在我们预测它会刹车时却意外撞到行人,那么系统的黑匣子性质意味着我们根本无法追踪人工智能系统的思考全过程,也无法了解它为什么会做出这个的错误决定。如果发生这种类型的事故,结果证明是因为感知系统失误而撞到行人,我们则会假设这是因为系统在特殊情况下遇到了一些新事物才导致了意外。然后,我们会尝试推测接下来它可能会发生的情况,以及出现不同问题时的解决方案,以便它下次能够更好地执行任务避免失误。
这种“意外性”问题使我们很难在安全方面完全信任人工智能的“深度学习”能力。除此以外,“黑盒子问题”也有道德层面的影响。
人工智能下的“深度学习”,现在经常用于对人类做出判断,范围从医疗、金融贷款、工作面试筛选等等。一定程度上,人工智能能减少我们人类世界中不需要的偏见。但是,当一个经过“深度学习”的人工智能拒绝了你的贷款或将你排除在第一轮工作面试之外却无法给予你合理解释时,也会让大多数人质疑到底人工智能是否“公平”。
对于“黑盒子问题”,我们又能做些什么?
目前我们能做的有以下两个方面。一是停止在高风险的应用中使用人工智能。例如,欧盟现在正在创建一个监管框架,它将潜在的应用程序按不同的风险类别进行分类。并且,禁止在危害可能性高的领域(如金融和刑事司法)使用人工智能系统。但,允许在聊天机器人、垃圾邮件过滤器、搜索和视频游戏等风险较低的应用程序中继续使用人工智能。
二是找到一种方法来监测“黑盒子”。所谓的“可解释的人工智能”在很大程度上仍是一个新兴领域,但计算机科学家对如何使人工智能的“深度学习”更加透明,目前有不同的方法模型。但我们本质上需要一种方法来弄清楚,到底是哪些场景下的哪些“输入”指令导致了人工智能做出不同结果的最终决定。它可能涉及寻找相关性的经典数据科学方法,或涉及更大的搜索网络,但无论哪种方式,都需要更多的数据和研究去支撑以了解它背后的执行逻辑,这是一个非常悬而未决的重要问题。
归根结底,人工智能应该在我们的生活中扮演什么角色?这个问题可能和我们在思考人类智能时有异曲同工之妙。
毫无疑问,人工智能有巨大的潜力,但当你进入金融、医疗保健或国防等领域时,它也许会变得无法想象的可怕。你意识到我们在使用人工智能帮助更高效、全面地解决问题时,它可能伴随着一定的风险并同时学会了我们的思维方式。如果我们可以让时光倒流30年,提前了解我们现在所知道关于人工智能的一切,我们还会不会让人工智能产生,并对人们产生影响?