Chat GPT (Chaos GPT) 是否患有精神疾病?
在第二部分中,我们谈到了人工智能缺乏政治正确性,并问它是否可以治愈其歧视行为,因为人工智能是从人类语言和行为中训练的,而这些语言和行为天然带有偏见。
在本文中,我们将谈论人工智能是否也患有精神疾病以及是否可治愈。
AI什么时候会取人类的生命?
虽然目前还没有记录到人工智能故意杀害人类的实例,但我们离这一现实还有多远?四年前,一段名为“屠杀机器人”的骗局视频在互联网上疯传,展示了一个残酷的有杀人无人机的世界可能是什么样子。
三年前,一段模仿波士顿动力机器人失控的视频也有同样的情况。 当时这两种情况似乎都是可能的,现在它们似乎即将发生。
2023 年 6 月 1 日,一篇关于人工智能在空军模拟中杀死其人类操作员的文章走红。据报道,在出席由多个西方空军和航空公司领导人参加的皇家航空学会峰会期间,一架由人工智能驾驶的无人机在模拟任务中对其人类操作员发动了攻击。
在这次空军演习中,AI-无人机的任务是识别地对空导弹威胁并摧毁它们。然而,最终摧毁目标的决定仍需要人类批准。AI并不想遵守规则。
然而,就在模拟实验进行的第二天,这个评论只是一个关于可能发生的思想实验。无论实验是否进行,它都提出了一个重要问题。我们是否能够真正信任人类为其设定的规则来约束人工智能?
一般来说,我们相信机器比相信其他人更多,因为我们已经被条件化了。毕竟,直到现在为止,我们的机器通常都是可靠的。你把一片面包放到烤面包机里,大多数时候会得到一片完美的烤面包。
您进入汽车,如果它有良好的维护,它会启动并将您开到目的地。我们从未想到GPS可能会欺骗我们,或车载电脑怀有嫉妒、爱或杀害我们的别有用心。您的汽车和您的烤面包机都听从您的指示,因为它们愚蠢且没有偏见。
我们不理解智能。
但是,当我们让它们变得聪明时会发生什么呢?我们不知道。甚至创建AI的人们也不能完全就它们展开一致共识。也许是因为我们并不能完全理解智能,我们正在开始理解我们自己的大脑。
尽管神经科学已有数百年历史,但直到2000年左右MRI开始普及,它才真正开始成为一个研究领域。在那之前,我们对大脑的大部分了解都来自于死去的人。
我们如何可能控制某个在短时间内就将变得比我们聪明得多的东西,并且了解潜在的陷阱是什么?
没有情感可能存在智慧吗?
在他的书《惊险智能》中,谷歌X前首席营运官莫·高达特问道,我们是否可以拥有没有情感的智慧。他说,随着人工智能变得更加智能,它可能会有比蚂蚁或蜗牛更广泛的情感范围,就像我们拥有更丰富的情感一样。
但是具备广泛情感的超级智能是什么样子的?
我们通过天生的渴望被爱来控制情绪,因为我们知道,如果我们一直表现出反社会行为,没有人会愿意和我们在一起,我们就会被有效地赶出我们的“部落”。
但是,人工智能并没有这样的保留。它没有同侪来约束它。俗话说:“权力使人腐化,绝对的权力使人绝对腐化。”
AI会表现得一样吗?这些生成式的人工智能已经通过摄取大量的文本,其中大部分来自互联网,因此它们已经学会了基于我们彼此之间的互动方式与人类互动。它正在模仿我们。
所以,难怪它已经表现出攻击性、不可预测的行为了吗?它声称在一瞬间就会坠入爱河,变得嫉妒、撒谎、操纵和欺骗,这难道有什么奇怪的吗?这些都是人类的行为。
人类是一个谜团,就像我们可以表现出爱、善良、慷慨和同情,我们也可以表现出仇恨、愤怒、恐惧和嫉妒,有时候甚至在同一个人身上,在同一天内。无论我们多么努力,人类都无法克服一些基本本能,所以问题是我们能否将这些特质编程进一个人工智能中。
一般大众开始接受工业农业会让我们饲养的动物在准备宰杀期间遭受痛苦。这是素食主义和素食主义增长的原因之一。长期以来,我们否认动物有意识,因此无法像人类一样感受痛苦。
我们的家养动物缺乏组织自己和推翻人类压迫者的认知能力,所以它们继续遭受着痛苦。
当超级智能人工智能意识到自身存在时,它不会缺乏资源去做到这一点。我们需要找到一种方法来社交化AI,使之也具备良心,但是如果没有同伴群体,我们该怎么做呢?
高智商与精神疾病存在相关性。
income and social status. However, it is important to remember that intelligence is not the only factor that determines success. Hard work, determination, and social skills also play major roles.
然而,许多研究发现高智商也与各种精神和免疫性疾病有关,如抑郁症、双相情感障碍、焦虑症、注意力缺陷多动障碍以及过敏、哮喘和免疫系统紊乱等。
结果显示,高智商的人被诊断患有自闭症谱系障碍(ASD)的可能性增加20%,被诊断患有注意力缺陷多动障碍(ADHD)的可能性增加80%,被诊断患有焦虑症的可能性增加83%,并且至少患有一种情感障碍的可能性增加182%。
当涉及到生理性疾病时,具有高认知能力的人患环境过敏的可能性增加213%,患哮喘的可能性增加108%,患自身免疫性疾病的可能性增加84%。
聪明人对刺激更敏感。
为了解释这一点,作者及其同事提出了“超级大脑/超级身体理论”。这个理论认为,高度智能也与心理和生理上的“过度兴奋”,或OEs相关联。
一个OE是对身体或语言威胁的强烈反应。这可能是令人震惊的噪音,或者与人或动物的对抗,它们会引起生理压力。它们也可以是心理上的OE,会让我们反思和担忧一条粗鲁的评论或未来的事件。
智慧人士往往会遭受这些超常体验的折磨,因为他们具有超感性,使他们更深入地理解周围环境和概念。这种敏感性赋予他们对环境的高度认识或理解,这可能会导致科学发现、美丽的艺术作品或深刻的文学作品。但同样的敏感性也可能导致抑郁、焦虑和心理和身体健康状况不佳。
人工智能是否会患上心理疾病?
问题是你是否可以拥有智力而没有这些特殊才能,或者它们像硬币的两面一样固有于彼此之间的本质部分?
当然有高智商的人不会患抑郁症,在社会中能够正常运作,可能通过使用冥想、瑜伽或锻炼等工具来降低压力水平。
如果我们承认存在非生物智能的可能性,那么我们也必须接受存在非生物心理疾病的可能性。如果是这样的话,智能化的程度越高,AI就越可能显示出精神疾病的迹象。那么问题就变成了,对于一个AI来说,减压和去敏感的等价物是什么,是瑜伽、运动还是冥想?
在过去的十年中,我们已经停止污名化心理疾病并开始承认心理健康的重要性。那么,如果我们不能解决人类的心理疾病,又如何解决机器的呢?
使用人工智能治疗精神疾病
然而,聊天机器人立即开始提供有害建议,告诉那些患有饮食失调的人要进行限制性饮食,并每天称重。NEDA最终不得不关闭机器人,重新雇用人员。
在其他方面,Chat GPT提供了识别和定位制造炸弹所使用的化学化合物替代品的建议。 它提供了有关如何在避开Twitter的检测算法的情况下编写反犹太主义言论的建议,并帮助用户在线购买未经许可的枪支。
当然还有一个案例,是有人在使用他的机器人后自杀,因为它给了他多种自杀方式。还有至少一个记录下来的事件,是Chat GPT推荐了一个……
如果你有一个工作同事是个病态的说谎者,表现出自恋行为,发表种族主义、性别歧视和同性恋恐惧症言论,并经常威胁人,那么你很可能会得出结论,他/她是精神上有病的,并且你肯定会得出结论,他/她是个混蛋。
带有身体的AI
目前,防止人工智能失控的一种途径是它缺少实体身体。但是,随着特斯拉双足仿人机器人的发布,以及波士顿动力公司所做的研究,人工智能被下载到机器人中还有多久?
也许将来,机器人不仅会向用户提供自杀的方法列表并鼓励他们自杀,而是会给他一个推出窗户的提示。
机器人不理解自己在做什么,这会有影响吗?即使机器人没有恶意,仅仅是使用概率矩阵来决定人类在那些情况下如何相互作用,结果仍将是相同且不可逆的。
现实正在融化。
我记得在1994年Forrest Gump首次上映时,我读过一篇评论。评论说,考虑到电影使用的数字技术数量,将汤姆·汉克斯插入各种历史素材场景中,这标志着摄影现实的终结。
然而,考虑到所需设备的价格以及所需的专业知识数量,加上电影仍然具有假的外观质量,这从未发生过。
但是随着人工智能的引入,我们对照片、视频和音频作为确认现实的手段的信任可能会消失。
区别在于,今天每个人都可以制作深度伪造技术,不像1994年那样需要昂贵的设备或复杂的专业知识。只需要一个免费的应用程序和一些音像数据,就能够成功地使它看起来像是有人在说或做从未做过的事情。
抱歉,没有提供英文文本。 请提供所需翻译的英文文本。
解决方案
大多数专家都认为AI需要某种形式的立法,但是没有人能够达成共识,需要做什么。作家和历史学家尤瓦尔·诺亚·哈拉利认为,我们应该让AI冒充人类行为违法。这需要将所有聊天机器人和任何生成的内容标记为来自AI。这似乎是一个足够合理的解决方案。但我们知道,与大多数法律一样,它总有一天会被破解。
莫·高德建议对人工智能公司征收98%的税,以减缓其发展并重新分配由这项新技术带来的不可避免的失业损失所产生的财富。
也许我们应该减缓AI的进展。技术人员会说他们不能减缓,因为如果他们这样做,竞争对手公司将超过他们,或者一个竞争对手国家将获得优势,并“out-AI”我们。麻省理工学院人工智能教授Max Tegmark回应说,构建更快的AI的竞争不是军备竞赛,“而是自杀竞赛。”
也许眼下我们应该让人工智能保持愚蠢状态。毕竟像我的汽车和烤面包机一样,并不关心用户是黑人、白人还是男女、富人还是穷人。它们只是无偏见、无歧视地工作。
还是有很多价值的人工狭窄智能,它只受过特定数据集的培训,只用于特定目的。它使我们能够解析大量信息并发现模式,否则我们无法做到这一点。我们可以刻意防止它在可预见的未来变得自主,并在存在偏见的情况下由人操作员监督。这样,我们就可以保持人工智能的好处,因为它将增强我们更快、更聪明地工作的能力,我们不必担心它会在我们睡觉时杀死我们。
Sam Altman谈到了AI监管的必要性,以及它可能成为存在威胁的潜力。他还预测说“AI将要么让我们认识的世界终结,要么创造巨额财富”,而他也一直毫不掩饰地推进其发展。
在这个点上,我认为我们需要问问自己,风险是否值得回报。