ChatGPT与人类智能有何不同?
如果ChatGPT听起来像人,是否意味着它也像人一样学习?计算机大脑与人脑有多相似?
ChatGPT是OpenAI开发的一项新技术,它非常擅长模仿人类交流,以至于它将很快接管世界——以及其中的所有工作。或者至少这是头条新闻会让全世界相信的。
Ellie Pavlick是计算机科学助理教授和Google AI的研究科学家,她研究语言的工作原理以及如何让计算机像人类一样理解语言。
Thomas Serre是认知、语言和心理科学以及计算机科学的教授,他研究支持视觉感知的神经计算,专注于生物视觉和人工视觉的交叉领域。作为主持人加入他们的分别是卡尼研究所所长和副所长黛安·利普斯科姆和克里斯托弗·摩尔。
Pavlick和Serre就ChatGPT相对于人脑的运作方式提供了补充解释,并揭示了该技术能做什么和不能做什么。Pavlick说,对于围绕新技术的所有讨论,该模型并没有那么复杂,甚至都不是新的。她解释说,在最基本的层面上,ChatGPT是一种机器学习模型,旨在预测句子中的下一个词、下一个词等。
专门研究自然语言处理的Pavlick说,这种预测学习模型已经存在了几十年。长期以来,计算机科学家一直在尝试构建表现出这种行为并可以用自然语言与人类交谈的模型。为此,模型需要访问传统计算组件的数据库,使其能够“推理”过于复杂的想法。
新的是ChatGPT的训练或开发方式。它可以访问深不可测的大量数据——正如Pavlick所说,“互联网上的所有句子”。
“ChatGPT本身并不是拐点,”Pavlick说。“拐点是在过去五年的某个时候,基本相同的建筑模型有所增加,但它们变得越来越大。正在发生的事情是,随着它们变得越来越大,它们的表现也越来越好。”
ChatGPT 及其竞争产品可供公众免费使用的方式也很新颖。Pavlick说,即使在一年前,要与像 ChatGPT 这样的系统进行交互,一个人也需要访问像Brown的Compute Grid这样的系统,这是一种只有获得特定权限才能供学生、教职员工使用的专用工具,并且还需要一个公平的精通技术的数量。但现在任何人,无论其技术能力如何,都可以使用ChatGPT时尚、流线型的界面。
ChatGPT真的像人一样思考吗?
Pavlick说,用如此庞大的数据集训练计算机系统的结果是,它似乎可以识别出一般模式,并且看起来能够生成非常逼真的文章、故事、诗歌、对话、戏剧等。 . 它可以生成假新闻报道、假科学发现,并产生各种令人惊讶的有效结果——或“输出”。
他们结果的有效性促使许多人相信机器学习模型具有像人类一样思考的能力。但是他们呢?
ChatGPT是一种人工神经网络,Serre解释说,他的背景是神经科学、计算机科学和工程学。这意味着硬件和编程是基于一组相互连接的节点,其灵感来自大脑中神经元的简化。
Serre说,在计算机大脑和人脑学习新信息并使用它来执行任务的方式上确实存在许多引人入胜的相似之处。
“有研究开始表明,至少从表面上看,像ChatGPT这样的算法使用和利用来处理语言信息的单词和句子表示类型与大脑似乎在做什么之间可能存在某种联系,”Serre说.
例如,他说,ChatGPT的骨干是一种最先进的人工神经网络,称为变压器网络。这些源自自然语言处理研究的网络最近开始主宰整个人工智能领域。Transformer网络有一种特殊的机制,计算机科学家称之为“自我注意”,这与已知发生在人脑中的注意机制有关。
Serre说,与人脑的另一个相似之处是使该技术变得如此先进的一个关键方面。他解释说,过去,训练计算机的人工神经网络学习和使用语言或执行图像识别需要科学家执行繁琐、耗时的手动任务,例如建立数据库和标记对象类别。
现代大型语言模型,例如ChatGPT中使用的模型,无需这种明确的人工监督即可进行训练。而这似乎与Serre所说的一种被称为预测编码理论的有影响力的大脑理论有关。这是假设当一个人听到某人说话时,大脑会不断地做出预测并对接下来会说什么产生预期。
虽然这个理论是几十年前提出的,但塞尔说它还没有在神经科学中得到充分的检验。然而,它目前正在推动大量的实验工作。
“我想说,至少在这两个层面上,这个网络的核心引擎的注意力机制一直在预测将要说的内容,这似乎在非常粗略的层面上与与神经科学相关的想法,”塞尔在活动中说。
最近有一项研究将大型语言模型使用的策略与实际的大脑过程联系起来,他指出:“我们仍然需要了解很多东西,但是神经科学研究中越来越多的研究表明这些大型语言的作用模型和视觉模型 [在计算机中] 所做的与我们处理自然语言时大脑所做的事情并不完全无关。”
从更黑暗的角度来看,就像人类学习过程容易受到偏见或腐败的影响一样,人工智能模型也是如此。Serre说,这些系统通过统计关联进行学习。数据集中占主导地位的任何信息都将接管并推出其他信息。
“这是人工智能非常关注的一个领域,它并不特定于语言,”Serre说。他列举了互联网上白人男性的过度代表如何使一些面部识别系统产生偏见,以至于他们无法识别看起来不是白人或男性的面孔。
“系统的好坏取决于我们提供给它们的训练数据,而且我们知道训练数据一开始并不是那么好,”Serre说。数据也不是无限的,他补充说,特别是考虑到这些系统的规模和它们的贪婪胃口。
Pavlick说,ChatCPT的最新版本包括强化学习层,这些层起到护栏的作用,有助于防止产生有害或仇恨内容。但这些仍在进行中。
“部分挑战在于……你不能给模型一个规则——你不能只是说,‘永远不要生成这样那样的东西,’”Pavlick说。“它通过例子学习,所以你给它很多事情的例子,然后说,‘不要做这样的事情。做这样的事情。所以总是有可能找到一些小技巧让它做坏事。”
ChatGPT不做梦
人类大脑和神经网络的一个不同领域是在睡眠中——具体来说,是在做梦时。尽管AI生成的文本或图像看起来超现实、抽象或荒谬,但Pavlick表示,没有证据支持生物做梦过程与生成 AI 的计算过程之间存在功能相似性的概念。她说,重要的是要了解像ChatGPT这样的应用程序是稳态系统——换句话说,它们不会在网上实时发展和变化,尽管它们可能会在离线时不断完善。
“这不像ChatGPT重播和思考,并试图以新的方式组合事物,以巩固它所知道的或大脑中发生的任何事情,”帕夫利克说。“这更像是:完成了。这就是系统。我们称它为通过网络的前向传递——没有来自它的反馈。它没有反思它刚刚做了什么,也没有更新它的方式。”
Pavlick说,当AI被要求制作,例如,关于克雷布斯循环的说唱歌曲,或者某人的狗的迷幻图像时,输出可能看起来很有创意,但实际上它只是系统已经完成的任务的混搭被训练去做。与人类语言使用者不同,每个输出不会自动改变每个后续输出,或增强功能,或以人们认为梦想起作用的方式工作。
Serre和 Pavlick强调,任何关于人类智能或人工智能的讨论都需要注意的是,科学家们对这两个系统仍有很多需要了解的地方。至于关于ChatGPT的炒作,特别是神经网络在创建几乎比人类更人性化的聊天机器人方面的成功,Pavlick说这是当之无愧的,特别是从技术和工程的角度来看。
“这是非常令人兴奋!” 她说。“我们长期以来一直想要这样的系统。”
本站是提供个人分享的知识,所有内容均来源于网络,不代表本人观点。如有侵权,请告知!