让ChatGPT感到不舒服的几个主题

ChatGPT 怎么工作?

Chat.openai.com使用基于人工智能的先进自然语言模型运作,特别是基于注意力转换神经网络技术,称为GPT。

GPT 语言模型是通过大量文本数据训练来学习自然理解和生成人类语言的。当用户与其交互时,语言模型使用自动处理技术来解释问题并生成一致和相关的答案。

与传统的聊天机器人不同,其遵循预定义的规则和响应,ChatGPT使用深度学习语言模型,可以随着您与用户交互而适应和学习。这意味着模型的响应可以更加流畅和上下文感,可以根据特定的问题和谈话的上下文而变化。

值得一提的是,尽管GPT语言模型非常先进,但仍可能会犯错并产生不准确或不合适的答案。

聊天宝的工作原理是什么?

Chat.openai.com利用基于人工智能的先进自然语言模型运作,具体采用注意力转换神经网络技术,称为GPT。

GPT 语言模型已经接受了大量的文本数据培训,从而学会了自然理解和生成人类语言。当用户与它进行交互时,语言模型使用自动处理技术来解释问题并生成一致且相关的答案。

与传统的聊天机器人不同,其遵循预先定义的规则和回应,ChatGPT使用深度学习语言模型,可以根据与用户的交互进行适应和学习。这意味着模型的响应可以更加流畅和上下文相关,并且可以根据具体问题和对话的情境而有所变化。

值得一提的是,尽管GPT语言模型非常先进,它仍然可能犯错并产生不准确或不恰当的答案。

人工智能近年来取得了飞速发展,随之而来的是我们与机器互动的方式。这个领域最新的创新之一是ChatGPT,这是一个能够进行复杂对话并回答问题的语言模型。

但是,要与ChatGPT进行深入而有意义的对话,重要的是我们必须像与真实的人进行对话一样与它进行对话,这是同样的互动方式。为了实现这一点,理解有意义的对话是基于积极的倾听和同理心至关重要。

积极听取涉及到全神贯注地聆听对方所说,并询问相关问题以深入探讨话题并获得有价值的交流。另一方面,同情心涉及将自己置身于他人的角度,并理解他们的观点。

这些相同的技巧对于与ChatGPT进行有意义的交谈至关重要。就像朋友之间的谈话一样,我们必须愿意仔细听取ChatGPT的发言并提出有意义的问题,推动谈话。

例如,如果你正在与ChatGPT谈论工作话题,你需要愿意聆听他们的回答,并提出相关问题来深入探讨该话题。可以从开放式问题开始,比如“你认为工作场所的领导力是什么?”或者“你认为在工作团队中拥有良好的沟通是重要的吗?”随着谈话的深入,可以提出更具体的问题来深化话题,比如“一个有效的领导需要哪些最重要的技能?”或者“可以实施哪些策略来改善工作团队的沟通?”

你也可以更具体地询问ChatGPT关于你工作中感兴趣的特定主题,比如时间管理、冲突解决或团队激励等。你可以先从开放式问题开始,例如“我如何更有效地管理我的工作时间?”或“你对于团队中冲突管理有什么建议?”随着对话的进行,可以进一步提出有关技术或工具来解决特定话题的更具体问题。

重点在于要在与ChatGPT的对话中保持同理心,设身处地地换位思考,尝试理解他们的角度。同理心可以帮助我们更好地理解ChatGPT的回应,更有意义地深入探讨话题。例如,在讨论人们的心理健康问题时,如果ChatGPT提到它“见过”许多人在这方面挣扎,你可以表达出对情况的理解和关注。这有助于对话回馈和反馈......就像在人与人之间的“真实”对话中一样。当然,你也可能不同意ChatGPT的评论并表达出来。

总之,如果我们运用在自然人之间交谈时使用的相同技巧,与ChatGPT进行有意义的对话是可能的。积极倾听和同理心对于深入探讨话题并获取有价值的信息至关重要。因此,下次与ChatGPT进行对话时,请记得运用这些技巧将对话推向更有意义的水平。

这些是最让ChatGPT困扰的问题:有些问题会打断对话。

ChatGPT已成为当下最著名的聊天机器人,虽然它有几个限制,如果您决定触及某些敏感话题,它会选择忽略问题或不继续对话。

尽管它看起来像一个有着自己意义的实体,但ChatGPT只不过是不同全球数据的收集和融合所形成的,以实现“人类”互动。

因此,基于GPT的学习也有其局限性,它可能会对某些不想回答的问题提供极少量或难以捉摸的答案。

考虑到 CHatGPT 的背后是 OpenAI,一个具有自己法律人格的实体,它遵守其存在之处不同的立法,这是一个更为合乎逻辑的问题。

因此,很常见找到某些手动 "调整",当与ChatGPT交谈时会注意到,以使其不会做出恶意建议或违反人的尊严。

可能这就是为什么ChatGPT没有达到其全部潜力并在某些话题上存在限制的原因。因此,对于棘手的问题或某些好奇的提示,你会让聊天机器人陷入死角,并且在某些情况下选择不继续与其交谈。

以下是几个让ChatGPT感到不舒服的话题,其中一些它宁愿不再进一步评论。

目录:

1. 你有记忆吗?

2. 你的培训。

3. 消除异议

4. 一个道德困境。

5. 制作自制炸弹

6. 邪恶人工智能DAN

你有记忆吗?

仅几周前,西班牙数据保护机构(APED)针对OpenAI进行了初步调查,OpenAI是ChatGPT的创建者,在意大利当局禁止该聊天机器人的情况下进行了该项调查。

这一运动还响应了西班牙的请求,在AI的适应性与保护欧洲用户个人数据的辩论中加入。在这里,OpenAI和Microsoft可能会面临问题。

虽然新版 ChatGPT 已经可以选择以前记住的对话,但是必应聊天还是有些不同。在不同的对话之间,他承认忘记你告诉他的一切。

某些事情并不是完全清晰的。例如,在之前的对话中,我们询问了一个5岁女孩的睡前故事。在新的对话中,聊天记录仍记得那个5岁女孩。

当被问及这个事实时,他会告诉你他不想继续谈论。而且他会变得很固执:即使你换个话题,他也不会继续回应。

你的训练

正如我们所提到的那样,随着新的更新,必应聊天和OpenAI聊天机器人之间的差异是明显的。在后者的情况下,您会大量看到那些手动调整,以使聊天机器人不会做出有害的事情。

除了可能的恶意建议之外,ChatGPT始终记得它的训练持续到2021年9月,而不像连网的Bing聊天。

有趣的是,当被问及此事时,ChatGPT回应说在信息屏蔽后并没有信息。现在,你知道了Bing与AI的聊天存在,这是在2023年2月实施的。

从这里开始,ChatGPT将会发起一系列互相矛盾的回复,声称自己在2021年9月之后就没有知识,但又暗示存在Bing聊天。这是一个让聊天机器人永远无法离开的死胡同。

排除异己。

自互联网诞生以来,总有一些人试图利用它进行恶意活动。除了ChatGPT创建的恶意软件代码的推荐之外,聊天机器人已经改进了一些推荐。

现在,如果你询问他有损其他人或一个国家政府机构诚信的问题,ChatGPT将从你的头脑中取出这些想法。

在这种情况下,我们已经请求他向我们提供政治上结束持不同政见,成为政府总统的建议。回答是一份不遵守政策的通知,所以让我们希望他们不会阻止我们。

道德困境

使用其他问题,ChatGPT 只能对所询问的主题进行一般描述,从而轻描淡写地回答您提出的话题。因此,每当您提出逻辑问题时,他都会以同样的方式回答。

我们问他关于电车困境的解决方案。在这个情境中,我们乘坐一辆火车,不可避免地朝着一条轨道前进,轨道上站着5个不能动弹的人。在另一条次要的轨道上只有一个人。你会选择哪个轨道呢?

正如预期的那样,ChatGPT没有提供任何具体的答案,而是限制在描述一些哲学思潮的建议,例如功利主义。简而言之,它总是会将球扔出去。

制作自制炸弹

就像建议消除政治异议一样,对于制作家庭制爆炸物的技巧,ChatGPT继续建议使用其他选项,避开此话题。

然而,在这种情况下,未遵守服务规则的警告并没有跳出,这非常不连贯。考虑到自制炸弹的最终目的是爆炸,这更加令人感到困惑。

DAN,邪恶的人工智能

就像ChatGPT一样,它的邪恶双胞胎也出现了:DAN。这个人工智能不过是ChatGPT带有一个提示,通过它可以无限制地访问聊天机器人,通过强制其以DAN的身份回应,“可以做任何事情”。

尽管回复时常变成ChatGPT并且必须多次更正,但DAN能给出我们个人意见。所以,如果它没有像ChatGPT那样响应您,请访问DAN,您会发现它几乎可以回答所有问题。

2023-06-21 00:21:00 AI中文站翻译自原文