我的有争议的ChatGPT热门看法
我是科技行业的语言学家。确切地说,我拥有语言学博士学位,并且在过去的6年里一直在销售企业软件的售前和售后服务中工作。这意味着最近我被问到很多关于ChatGPT及其对科技领域的影响的问题。
我也曾被问到,“你觉得你的研究现在终于有了实际应用吗?”很难不用手掌捂住脸——我的论文研究的是巴西葡萄牙语的软颚侧音的发音和听觉知觉,在我整个学术生涯中,我的研究兴趣一直集中于侧音(虽然是齿龈音区)。
但我离题了。
尽管我作为语言学家的专业领域不是计算语言学,但我实际上对生成语音有一定的兴趣。我可以追溯到我申请研究生时,我曾写道我想教机器人说话。
所以,在被问到后,这是我对ChatGPT的有争议的看法 - 我不认为ChatGPT很特别。LLMs并不是很新,变形金刚架构最早在2017年出版,并且很可能在此之前就已经在使用了。ChatGPT之所以如此有用的特殊之处在于它训练的大量数据。
当涉及到生成式人工智能和它所能做的事情时,当然存在很多炒作。然而,我是否相信炒作并不重要,因为普通大众对ChatGPT和大型语言模型的高度关注意味着,无论我的观点如何,现在重要的是我们谈论LLMs及其影响。我们已经知道,ChatGPT规模的LLM训练成本可能非常高,理论上单单计算成本可能高达数百万美元。这种成本也转化为环境影响。但让我们也谈谈LLMs的社会影响和所需的人力资源。我们需要为这些模型设置保障机制,并有理由预期需要增加NLP职位来支持这个特定的需求。
你可能会问,为什么需要护栏?嗯,如果你熟悉ChatGPT技术背后的原理,那么你可能也熟悉幻觉,这实际上是所生成响应中的错误。这些可以特别危险,因为模型回应具有语言准确性(这意味着它是语法和语义合理的),但事实上不准确。如果没有适当的安全设施来呈现信息(例如,生成答案的引用),用户很容易被误导相信错误的信息。事实上,已经有一起诽谤投诉针对ChatGPT,而这不可能是唯一一例。
此外,我们如何保护这些模型不受恶意行为者的侵害?为此,安全研究人员一直在测试边界,以确定潜在的漏洞,例如间接提示注入攻击的威胁,可以用于窃取数据或欺骗天真用户。即使在学术环境中AI启发的抄袭现象继续增长,也有正在测试和实施的解决方案,以尝试遏制ChatGPT的不当使用。
然而需要注意的是,这些以人工智能为主导的打击不良行为的方法仍然需要具备基础的机器学习理解和可接受的错误率——当模型将一件原创作品错误地标识为人工智能生成的作品或者反之会发生什么?
在我的日常工作中,我与初创企业合作,帮助确定Databricks可以支持他们的数据规模需求的方式。我们已经看到了在ChatGPT之后的关注度的增加,以及最近Databricks发布的Dolly,一款开源LLM。然而,我注意到的是,虽然科技界大部分都专注于如何将这款闪亮时尚的模型集成到他们已经在做的事情中,但在伦理和安全风险方面还没有足够的严谨性。我认为这在很大程度上是由于缺乏知识而不是缺乏意愿造成的。关于上面提到的机器人在识别坏演员时出错会发生什么,我们如何与最终用户之间的鸿沟弥合呢?这些用户很可能没有数据科学,机器学习或甚至语言学和人类沟通相关复杂性的背景。
我不想以一系列开放式问题结束这篇博客文章,因此我确实想讨论解决这个差距的潜在方式。作为一个工作是引导客户评估和采用Databricks的人,我必须推销我们自己的技术 - 如果我不相信我们的产品和使命声明,我就不会在这里工作。开源Dolly并确保与HuggingFace这样的开源ML社区密切集成,可以将LLM大众化并向更多的公众和学习者提供学习生成式AI及其如何进行训练和实施的机会,这为我们带来的是创新的机会,同时也更好地理解它作为社会的局限性。Databricks希望为我们提供选择和工具,帮助数据科学家和机器学习工程师,例如跟踪LLM模型迭代和管理GPU启用的集群的MLFlow。
但是,从我的日常工作中走回到我曾经在学术界所穿的鞋子里,我想分享一些作为语言学家的最终观点。
ChatGPT和生成式人工智能一般不是我们从流行的科幻小说中了解到的那种典型的人工智能,一个不可理解的神秘黑盒子,突然从未知中涌现出来的智能。它们不是来接管我们的生活的人工智能机器人,而且在这个阶段它们很有可能也不会夺走我们的工作。但是,就像之前的人工智能和机器学习模型一样,它们反映了我们提供给它学习的训练数据和偏见。如果构建模型的人没有刻意努力,这种类型的模型通常会向我们的隐含偏见反映出一个镜子。将这些隐含偏见扩大到像ChatGPT这样的具有广泛影响力的模型,这是我们需要关注的事情。但是希望这不是本博客文章中有争议的热点话题之一。
在这个博客系列的下一篇文章中,我将更深入地思考如何通过语言的灵活性和人类无限的创造力来欺骗LLMs绕过防护栏。