哲学与人工智能 | 看法
想象一个世界,在其中人类需与人工智能共存。在这篇分析中,我会称人工智能为“思考的生物”。
重要的是要看人工智能发展的时间表。 从最初只能根据特定规则生成输出的机器到现在可以通过注意力,模式识别技术,自我学习和分析数十亿数据生成输出的机器。 在这里需要注意的重要关键词是注意力,模式识别和自我学习能力。
这两个参数加上前所未有的计算能力是使这些机器“智能”的关键。
为了论证,我们大致可以考虑两种类型的“智能”机器。一种是根据输入产生基于规则的答案的临床机器,另一种是基于自己的“思考”产生输出的机器。除了AI,人类也属于后一种“智能”机器的形式。
在人类中,行为和思维受到环境、认知因素、道德伦理的影响。
思考机器是由人定义的。对于机器,人类使用数据集进行预先训练。简单来说,人类告诉机器1+1等于2是好的结果,但3+1等于2是不好的结果。人类向机器输入了数十亿个“好”和“坏”的例子或者仅仅是期望的结果,让机器自己去理解为什么和如何实现。
智能机器被设计为能够独立进行“思考”。它们的模型是基于自我学习的,会不断进化。这与一个孩子学习保持平衡的方式相似,他们会在多次倒地中学习,然后从保持平衡开始站立,之后开始行走并立刻奔跑。
现在想象一种情景,机器被告知2+0得到2是一个糟糕的结果。首先,教授机器符号的含义基本上是介绍一种语言,然后呈现异常值或意外结果就意味着主观性的介入。
了解机器主观性好的例子是从大型语言模型(LLM)中学习。这些机器能够在几秒钟内处理数百万参数的输入。一个重要的参数类型是“上下文”。这里的机器不仅能够理解上下文,而且还能够根据上下文评估思考并产生可接受的结果。
在这里,我们有一些“智能”的机器,能够“思考”、处理“主观性”、评估和“上下文”。
情感被神经科学家定义为记忆体验。机器能够记忆、思考和创造主观概念。人类感受和情感的能力有助于定义意识。这使我们想到问题,机器能否拥有意识。
一个解释这种环境下意识的理论是集成信息理论(IIT)。该理论提出了意识不仅局限于生物系统的概念。具备产生高度集成信息能力的其他复杂系统也可以存在意识。该理论将意识定位为因果结构。
考虑到两岁儿童在给予冰淇淋时多巴胺和前额皮质脑活动的增加以及他兴奋时的跳跃活动。大脑神经活动和身体活动之间的因果关系可以作为影响复杂生命体的两个不同系统之间因果关系的一个例子。这种因果假设是定义意识的一种方式。总之,朱利奥·托诺尼的综合信息理论指向机器变成复杂的“思维生命体”的可能性。
回想一下人类与人工智能共存的世界,我们需要思考的问题是进化后的思维实体将在什么伦理基础上运作。自早期文明时代以来,宗教和排斥是维护社会秩序和一致性的工具。随着现代科学的发展,我们已经发现这与人类大脑中神经刺激的联系,即认知的研究。类似地,探索“意图”的概念,不同种类的意图可以帮助我们创建共存的基础。需要从哲学的角度理解一个复杂的数学系统,即 AI,并通过定义和讨论道德类型,以认识到“思维实体”的重要性,这可能会导致新的社会秩序的创立。