当前位置: 首页 人工智能 人工智能的本质究竟是什么?

人工智能的本质究竟是什么?

HackerNoon CEO大卫•斯穆克(David Smooke)将人工智能定义为科技领域,并预计其未来将会有巨大发展。他指出,发展人工智能似乎可以用来研究如何进一步减轻一些基础任务的负担,如会议的安排与协调等。


那么,人工智能的现状究竟如何呢?


人工智能的性能取决于其训练集。最好的人工智能可能有最多的数据点来进行对比和计算。斯基纳(Skinner)和帕夫洛夫(Pavlov)的行为主义对人类学习的本质做出了相似的假设。


也就是说,人类是基于数据集进行训练的,而大脑内部的运作机制则略有不同。人可以简单地给予奖励和惩罚作为输出(或行为)的条件,并通过这种方式最终实现目标行为。


问题是,虽然心理学在很大程度上已经对人类学习进行了深刻研究,但机器学习却没有。这个问题可能在人机交互的模拟中越愈发凸显,也经常出现在人工智能工程师们在试图模拟人类思想的过程中。


重要的是,人类似乎能够解释和理解其所生活的环境。相比之下,计算机只是一台从事匹配工作的机器。哲学家约翰·塞尔(John Searle)很久以前就通过他的“中文房间”思维实验(Chinese Room thought experiment)指出了这种差异。在本实验中,他将自己关在密闭的房间中。


他既不会说也听不懂中文。但是在这个房间里有一本很大的手册,里面有一系列的假设陈述。通过门上的一个插槽,他可以接收汉字,查找手册中的字符串,并找到要通过插槽送出的字符串。显然,塞尔可能会让房间外的人相信他真的懂中文,但事实上他并不懂,他只是在匹配符号。因此,他表现出的能力受限于中文手册的内容。




一些人工智能的创建者可能会声称,创建人工智能的意义实际上只是人类庞大的记忆内存和快速匹配能力的虚幻副产品。这和行为主义者的说法是一样的——大脑是一个黑匣子,学习可以自动进行,而不需要机器中的某些神秘力量。


笔者并不是认为必须以神秘的方式探索思维,而是指出这种还原论对行为主义者存在误导,因此它很可能成为人工智能发展的一个绊脚石。


在讨论一些毁灭性的类似机器学习的人类学习模型的实验之前,先来回顾一些非常基本的概念:计算机“智能”是由一组二进制开关构成的。


因此,一切事物都是独立的,与其他事物无关的。例如,“好”就是好,它不带有任何语境意义;它存在于一个毫无意义的真空中(就像塞尔的汉字搜索一样)。因此,机器学习过程不能自动捕获对象之间的关系。


这是自然语言处理的难点之一。在自然语言处理中,词的语境共同构成彼此的含义(见下图中的示例)。计算机并不自带这种能力。因此,程序员必须手动为机器编写代码,然后“自动”学习这些关系。


人类的理性是不同的。人类的理性不是二元的。因此,事物不是无语境的独立的单位,而是超越自身,存在于与其他事物的关系网中。例如,“好”的意思也可以指“不坏”。



对于人类来说,这种对立性赋予了他们区分不同类型字符的先天能力,例如“好的坏”和“好的鞋”。然而对于计算机来说,这些对立关系必须进行有目的地学习了才行,因此在概念上,“坏”与“好”间的联系并不比“好”与“鞋”的联系更紧密。


乍一看,这似乎不那么重要,但想象一下,如果一个人认为好与坏和好与鞋的意思相近?,那就说明他既不知道“好”是什么意思,也不知道“鞋”是什么意思。


笔者非常尊敬的心理学家约瑟夫·莱克拉克(Joseph Rychlak)在《人工智能与人类理性》(Artificial Intelligence and Human Reason)讨论了计算机与人类理性之间的这种差异。在书中,他回顾了那些毁灭性的关于人类学习的(人工智能)行为主义模型的研究。笔者将在此对老先生的回顾做一个总结,感兴趣的人可以在他的“作为预测过程的学习”一章中找到完整的内容。


1955年,心理学家乔尔·格林斯平(Joel Greenspoon)对后效强化能力进行了测试,以研究人们的某些特定的行为。具体来说,格林斯平要求研究参与者说出突然浮现在脑海中的任何单词,一次说一个。


在10分钟的时间里,参与者列出了没有任何语言强化的词作为实验对照。之后,参与者继续列出单词。每当参与者说一个动名词,格林斯平就会提供语言强化(例如说一些语气词等)。75名参与者中有10人掌握了研究的内容,于是,该实验在分析时将这10人进行了排除。


在剩下的65人中,格林斯平声称发现了自动的、无意识的行为,可与语言强化适应(即人们开始列出更多的动名词,展示出了无意识的“学习”)。



这种研究类型应该令人工智能开发者振奋,因为他们希望机器学习的原则本质上与人类学习的原则相同。参与者假设学习内在的精神世界是没有必要的,他们似乎是通过纯粹的联想进行学习的。如果这是真的,那么机器学习的主要问题就变成了训练数据的多少。但后续研究远比这复杂得多。

1961年,杜拉尼(Dulany)重新考察了这些实验参与者的知识水平。他发现,尽管许多参与者不能正确地说出这项研究是关于复数名词的学习,但许多参与者提出了“相关假设”,这使得他们在没有掌握正确方法的情况下说出“正确”的单词,例如“giraffes,”。又例如,参与者可能假设是有关动物的研究,于是列出一些动物,“giraffes, hippos, parrots, lions”。


听到这类单词,实验者会说一些语气词,并标出参与者是在无意识中知道的(他们无法准确认识到此次研究的内容是复数名词)。但这些相关的假设清楚地表明,参与者有意识的假设指导了他们的反应,他们的思维过程导向了假设性的“认识”。


其它类似研究,例如佩奇(Page)在1969年和1972年进行的研究中强调,参与者是否合作是进行这类研究的另一个重要因素。佩奇发现,一些参与者的行为实际上是相互对立的。


佩奇在进行格林斯平实验时,(他用“好”来代替语气词),他发现一些参与者在研究的第二阶段(应用强化的阶段)说出复数名词的几率更低(低于参与者自己的基本比率)。例如,在第一阶段中,没有经过强化的参与者有20%的几率列出动名词,而经过强化阶段后,则只有2%的几率列出动名词。


随着研究的深入,佩奇表现得更为直接。一旦参与者意识到这些规则并且更为合作时,佩奇就开始暗示那些合作程度较差的参与者说出能“让我说‘好’”的词,而对于那些合作程度较好的参与者,佩奇则会让参与者说出“让我不说‘好’”的词。这些参与者很快改变了说词语的方向,并让佩奇开始说“好”或不说“好”。


如果合作程度较差的参与者仍表现不佳,就说明参与者试图避免他们认为的研究者的不道德行为(他们认为研究者试图以某种假设的方式影响数据,并且不想参与操纵结果)。


显然,这些研究和类似的后续研究困扰了人工智能爱好者。在人类世界,某种预测过程似乎正在发生——人们对世界做出假设从而理解世界,指导行为。


此外,这些假设与其他可能性相关,这些可能性就是机器不具备思维灵活性。佩奇只需要说“让我不说‘好’”,就可以完全扭转参与者的行为。而对人工智能来说,这样一个简单的陈述需要一个新的训练过程,而不能立即重新理解过去的数据以导出算法推论。这是由于前面提到的人类理解的对立性。


机器本质上并不理解“让我说‘好’”和“让我不说‘好’”之间有一种特殊的对立关系,而人类则不然。这种情况带来很大影响,一些合作程度较差的参与者甚至公然采取藐视态度,因为他们的对立性使他们的道德权威比实验者的权威更大。不禁让人想起了iRobot的桑尼,这个机器人比其他机器人“聪明”多了,因为他像人类一样能够理解对立性。


有证据表明人类的记忆与机器的记忆大不相同。除硬件故障外,机器会存储无语境的信息。然而,人类的记忆取决于是否能够将其置于有意义的环境中。例如,克雷克(Craik)和托尔文(Tulving)发现,当人们被问到“____是一种鱼吗?”时,他们更容易记住该填空是“鲨鱼”,而不是“天堂”。



同样,人们记住按相似度分类的事物比记住没有这类分类的事物更容易。然而,对于计算机来说,事物是独立的,不需要语境。机器制造记忆和检索记忆与概念语境或现实语境无关,但对人类来说并非如此。


如前所述,意义创造是人与机器区别的核心。这让人工智能很难识别偏好和判断。人自然而然地会审视自己的语境,赋予周围环境以意义;在一种语境中,“hammer”是承包商的工具,在另一种语境中,“hammer”是武器,在其它语境中,“hammer”是镇纸。


如果听到“西雅图在地图上与洛杉矶不相邻”这一说法,听者可能会思考这句话的真实性。说这个话的人可能会用一种奇怪的方式折叠地图,让西雅图和洛杉矶紧挨着,然后沉浸在狡猾、骄傲的微笑中。意义创造是语境与对立性的结合;意义创造是人类理性的重要组成部分,机器则不具备这一点,至少现在还没有具备。


这并不是说人工智能注定要失败,也不能忽视已经取得的不可思议的飞跃。笔者不否认机器学习能够很好地模仿任何一项人类的任务,任何有限自动机都能做到这一点。


但要使人工智能令人信服,需要大量的极端案例、修改、再训练、大量计算。正如我们目前所知,人工智能不是很灵活,除非计算机从盲目地匹配对象转向创造意义,否则它就不可能有灵活性。由此可得出结论,在可预见的未来,人工智能最适合于概念灵活性很小、不受环境影响、不涉及对人类偏好的任务(例如,辅助耕作和驾驶飞机等任务)。人工智能工程师应该在其他任务中发展机器学习,比如提出好的建议(推荐食物/电影/朋友)或者做出道德判断(比如自动驾驶汽车的安全协议)等。

版权属于:玲儿

原文地址:http://78soft.com/article/39049.html

转载时必须以链接形式注明原始出处及本声明。

猜你喜欢

最热文章

热门标签