AI Pulse

抽象谬误:为何人工智能能模拟却不能实例化意识

抽象谬误:为何人工智能能模拟却不能实例化意识

摘要

计算功能主义主导着当前关于人工智能意识的辩论。这一假说认为,主观体验完全源于抽象的因果拓扑,与底层物理基质无关。我们认为这种观点从根本上误解了物理与信息之间的关系。我们将这一错误称为“抽象谬误”。追溯抽象的因果起源会发现,符号计算并非一种内在的物理过程。相反,它是一种依赖制图者的描述。它需要一个活跃的、有体验的认知主体,将连续的物理世界字母化为有限的、有意义的状态集合。因此,我们并不需要一个完整、定型的意识理论来评估人工智能的感知能力——这种要求只会把问题推至近期无法解决的境地,并加剧人工智能福利困境。我们真正需要的是对计算的本体论严格定义。本文提出的框架明确区分了模拟(由载体因果性驱动的行为模仿)与实例化(由内容因果性驱动的内在物理构成)。确立这一本体论边界表明,算法符号操作在结构上无法实例化体验。关键在于,这一论证并不依赖于生物排他性。如果某个人工系统有朝一日具备意识,那一定是因为其特定的物理构成,而非其句法架构。最终,这一框架为反驳计算功能主义提供了基于物理的理由,以解决当前围绕人工智能意识的不确定性。

作者 Alexander Lerchner

来源 PhilArchive

📎 阅读原文 · Google DeepMind

📬 订阅 AI Pulse

每天两次更新,不错过重要信号

▲ 回到顶部