从经验推理到真正的理智:当今人工智能为何尚未实现真正智能

2025-07-04 16:30来源:会员发布

  

现代计算硬件的强大性能和处理海量数据的能力,推动了生成式人工智能的显著进展。然而,俄罗斯科学院系统编程研究所所长阿鲁尤恩·阿维提相(Arutyun Avetisyan)博士指出,这项技术在实现伟大哲学家所描述的真正自主和推理能力之前,仍需克服许多挑战。

现代人工智能的判断 依赖于经验和信息。由于积累了大量的经验数据(因为数字数据的丰富),以及近年来超级计算资源和工具的飞速发展,人工智能的判断质量得到了显著提升——在某种程度上 “在交流中,人们可能无法分辨自己是在与机器人还是人类对话,”Avetisyan博士解释道。

尽管生成式人工智能在这一领域取得了重要进展,但在创造能够真正独立推理并具有人类思维能力的计算系统方面,仍未突破数学家和哲学家所设定的界限。教授提到,18世纪德国哲学家伊曼纽尔·康德(Emmanuel Kant)在经验知识与固有知识的争论中所表达的观点。

©Sputnik / Olga Merzlyakova / Scientific russia。阿鲁尤恩·阿维提相博士是俄罗斯科学院系统编程研究所所长。

阿维提相博士是俄罗斯科学院系统编程研究所的负责人。

康德的观点是什么?他认为所有知识都源于经验,但同时,经验并不能保证真正的普遍性。因此,他设定了一定的限制。通过研究他的主要著作,我们可以看到,他认为理性的一个主要特征是处理先验知识。什么是先验知识?它是独立于经验的知识,”Avetisyan博士解释道。

从这个角度来看,这位学者指出,“现代人工智能中没有任何知识”是“绝对独立于经验之外的”。如果我们考虑到弱人工智能才是真正的人工智能 基于经验,而强人工智能 则基于理性,从这个意义上说,按照康德的定义,我们距离强人工智能还有很长的路要走。”

Avetisyan表示,当然,行业领军人物正在朝着这个方向努力,强人工智能在某个时刻出现是有可能的,但他并不认为这会在不久的将来发生——无论是明年、未来几年,还是未来十年,甚至可能是今天成年人的一生。

真正开放人工智能的开放架构模型

因此,Avetisyan和系统编程研究所将他们的资源和精力集中在与弱人工智能相关的问题上——这是一个绝对有很大发展空间的领域,还有许多技术和社会问题亟待解决——尤其是围绕安全和信任的问题。

这位教授解释说,在当今世界,标准化计算能力和大量信息的前所未有的可用性,使得即使是所谓的生成式或基于大型语言模型的人工智能,即使“远非最先进的数学方法”,也能“取得非常显著的成果”。他强调,这项技术的未来在于企业和客户的大规模采用,同样重要的是,它必须是真正开放的架构。

“如今,整个生态 经济部门正在从单一的“公共池”中获取软件解决方案,并在各自国家实施,将其转化为特定的技术。所有这些都是以合作经济的理念为框架,当 “一个人或科学家的生产力增长不是简单的倍增,而是几个数量级的提升,”Avetisyan说。

今天,Avetisyan指出,GitHub开发者平台——允许创作者创建、存储、管理和共享他们的代码,是开源项目协作开发的最大平台,其用户群从500万激增到全球超过1亿人,“他们所有人……同时创造新的技术和知识。”

这位学者表示:“因此,我们必须学会创造产品,并在技术上实现独立。”他指出,俄罗斯程序员开发了数十种基于Linux的操作系统,这些系统已被证明对俄罗斯工业具有不可估量的价值。

Avetisyan强调:“通过一个封闭的系统来竞争是不可能的,因为你无法在一个地方聚集必要的知识和人员。”他相信,OpenAI、ChatGPT等封闭架构的人工智能模型将不可避免地面临来自开放模型的竞争,后者对于安全生成人工智能架构的出现至关重要。

“独立地说,世界上没有任何一个国家——无论是我们还是美国——能够开发出广泛的有竞争力的技术。这并不意味着我们应该盲目追随别人的项目,并试图以某种方式朝着他们所做的相同方向前进。相反,我们必须理解这种能量,以开放的方式建立我们自己的知识库,这种知识库不会与国际社会隔绝,而是更可靠、更安全 我们可以保证访问它们不会受到限制,”这位学者说。

Avetisyan表示,为了实现这一目标,俄罗斯需要自己的开发“工具包”、财政资源和组织理解,以降低风险、最大化回报,并确保知识流入该国。他指出,系统编程研究所已经开发了一系列工具,如Svace和Crusher,以解决PyTorch和TensorFlow等主要生成式人工智能工具的漏洞,并分享它们以改进这些系统。

从这个意义上说,阿维提相博士是“可信人工智能”的倡导者,他将其定义为存在文档并可用于描述其运行机制的人工智能。

“在人工智能领域还没有这样的文件。但这一进程已经在世界各地启动,”Avetisyan说,并指出各国正在努力引入法规,以减轻人工智能的风险,最大限度地开放并确保道德行为。

“如果我们从人工智能的角度回到‘信任’这个词,我们必须定义开发可信的人工智能意味着什么:从我们使用的设计、数据分析和库(所谓的f 框架)到现成模型的分析,以识别漏洞和缺陷,”Avetisyan说。

此外,“当我们讨论禁令时,有必要确保这些问题不仅仅是由IT专家或数学家决定的。他们应该参与,但人文学科的专家也必须参与,因为我们看待事物的方式不同。”“我总是开玩笑说,如果你给我们(科学家,编辑)保证每个人安全和快乐的任务,我们会让每个人都开心,每个人都会一直微笑。”

“如果没有控制技术,人们可以签署任何声明,但它们将毫无意义。(有关当局之间)必须了解形势,并进一步发展。(在俄罗斯)我们有。早在2021年,政府就在俄罗斯科学院系统编程研究所成立了可信人工智能研究中心,而全球监管趋势直到2023年才开始,”Avetisyan说,并指出欧盟和美国目前正在朝着这个方向努力。

Avetisyan表示,目前,不仅在俄罗斯,而且在全球范围内,有许多与人工智能相关的技术问题必须得到解决。

“例如,优化任务:如果我们可以花费更少的能量和计算资源来达到相同的结果,那将是伟大的。或者是否有一个模型可以在智能手机上运行,并且它的质量与大型模型相似。我把这些领域归功于代码的效率和生产力,”他说。“还有一些障碍与缺乏设备有关 重要的是要有正确的基础设施,这样任何学生或老师都不必去想一个 如何找到一个GPU加速器。他们必须使用云模型访问服务——一卷给老师,另一卷给学生,这取决于需要。如果学生赢得了一个项目或比赛,我们可以给他额外的奖励 Nal卷[计算能力,编]。我们必须建立基础设施,使我们的科学家能够消除这一障碍。数字不平等必须消除。这不仅仅是 关于硬件,而是整个技术栈的对应 Avetisyan博士总结道。

龙的杆法声明:未经许可,不得转载。
资讯