不幸的是,对于某些人来说,13个GenAI预测2024年的情况如下:
在我们迎来2024年之际,我很兴奋地分享我对接下来一年的生成式人工智能的预测。总共有13个预测,所以也许我的预测的命中率会不太幸运……不过,我们要再等12个月才知道。如果我最后发现自己太过错误,也许这篇文章会悄悄消失,所以务必在你还能看到的时候阅读!
在2023年发生了许多事情,像ChatGPT这样的工具已成为我们许多人工作的重要组成部分。ChatGPT目前拥有1亿每周活跃用户,不是按月计算的标准指标,而是每周。它在前两个月就实现了1亿月活跃用户,这是消费者互联网服务最快的普及速度。这种快速的采用表明人们对人工智能有着极大的兴趣,并且这种兴趣推动了投资,进一步加快了创新的步伐。
当前,我们正从“噢,这很有趣”的阶段过渡到“让它有所成就”阶段。我经营着一家GenAI咨询公司,我与客户的每次对话都专注于如何提取价值,因此毫不奇怪,我期望在2024年看到生成型人工智能更加严肃地工作。 GenAI不再只是一种新奇,而是正在参与重大竞争。
没有进一步的顾虑,这里是我的预测...
🏆 OpenAI 保持其领导地位
我希望OpenAI能够在模型性能方面继续领先。GPT-4是当前的霸主,但OpenAI并不会止步不前。谷歌的Gemini Ultra可能会对GPT-4构成威胁,但我预计GPT-4.5会出现并使两者之间有明显的差距。
常见的模型提供商引用基准来表示他们的模型接近OpenAI的能力。随后,记者们会借用这些基准,暗示其具有“杀手级”GPT-4能力。
除非这不是真实世界。
基准指标经常是虚假的,提供商经常会有选择地选择要引用的基准指标。
在现实世界中,GPT-4在推理能力和遵循提示指示方面无与伦比——其他提供商仍有很长的路要走。我认为2024年OpenAI的领导地位不会改变。
尽管今年出现了董事会混乱,但这并没有对OpenAI的事业起到任何帮助,那是肯定的。
尽管如此,明显优越的模型能力很可能使竞争对手一直试图迎头赶上。个人观点,当然了;-)
💰支付费用和人造训练数据的崛起
我预计模型提供者通过购买专有训练数据的权限将会变得更加普遍。《纽约时报》正在起诉OpenAI未付费使用其数据。但在人工智能反对者沉浸在庆祝中之前,请思考一下:《纽约时报》很可能只是想将其数据变现。它并不想让OpenAI停下来,而是希望得到报酬。
由于这对纽约时报和OpenAI都有利,所以很可能这起法律诉讼会达成和解。OpenAI已经与美联社达成了协议,因此存在明确的先例。
有实力的其他供应商也将签署内容协议。有传闻称,苹果正在提供交易以购买其Apple GPT计划所需的训练数据。目标包括《时尚》和《纽约客》的出版商康泰纳仕(Condé Nast)、NBC新闻和IAC。不容忽视的是,《纽约时报》和苹果之间的这样一项交易可能会对《纽约时报》和OpenAI的案件产生影响。
如果模型提供者最终支付内容提供者,那就会留下一些重大的问题。那些没有那么深的口袋的开源提供者将处于何种境地?也许这就是富有的机构购买护城河的方式。
在使用OpenAI的GPT-4等商业模型生成的合成训练数据的开源模型中,很有可能会出现争议。像ShareGPT这样的网站正在收集GPT对话,这已经成为2023年一系列开源模型的丰富训练数据的来源。
但是使用OpenAI模型的输出来训练竞争模型违反了OpenAI的条款。
您不能做的事情。您不得使用我们的服务进行任何非法、有害或滥用的活动。例如,您不得:使用生成的内容来开发与OpenAI竞争的模型。
如果OpenAI被迫付费获取训练数据,那么可以预计他们会对基于他们的输出训练的竞争模型采取行动。
🫨 开源创新不断令人惊喜
2023年,在开源人工智能(GenAI)社区中,出现了一些非常引人入胜的发展。
包括LoRA和PEFT在内的技术引发了巨大的兴奋,因为它们使得在消费型笔记本电脑上进行精确调节和推理成为可能。这不仅仅很有趣,也非常重要,因为它降低了能源需求,从而减少了CO2排放。
最近我们看到Mistral.ai在他们的8x7B模型中采用了专家组合模式,再次取得了令人瞠目结舌的良好结果,而且仅使用了非常简单的硬件。
我们正处于气候紧急状态,因此任何能减少GenAI资源需求的事情都是积极的。可以说,开源已经在今年为GenAI创新贡献了最重要的领域。减少资源需求和二氧化碳排放是一件好事。我相信这种趋势将会继续,我们将在2024年看到开源为此做出更多重要的进展贡献。在较为简单的硬件上实现技术工作的需求对于探索创新方法来说是一个强有力的推动因素,而这是大型、资金充裕的组织所没有的。因此,开源在2024年的GenAI中将发挥关键作用。
🧑💻 AI架构变得严肃起来
在2023年,大家都在讨论要使用哪个模型。
在2024年,一切都将围绕着人工智能架构展开 —— 优秀的应用不仅仅是将输入发送给模型并显示输出。相反,应用程序使用各种不同的模型和技术,将它们结合起来形成更复杂的系统。没有人确切知道(因为OpenAI不披露这个细节),但我们大多数人怀疑GPT-4并不是一个单独的模型,而是一个围绕核心模型的能力集的市场名称。架构非常重要,并且会变得越来越重要。微调、嵌入、RAG架构、多模型等都可以结合在一起产生复杂的系统。
在2024年及以后,需求量较大的技能将是懂得进行这种编织操作的人,知道在什么时候使用哪种技术以及要避免哪些误区。传统的系统思维与对机器学习和人工智能的深入理解相结合,将成为重要的技能。
💪 LLM们开始工作
2024将会见证一些非常有趣的人工智能运用,这些应用将高度定制于特定行业、组织和使用案例。
2023年主要集中在基础模型的建设上,但2024年将会看到这些模型真正应用在实际场景中。
我预测“专家伴侣”解决方案将开始蔓延。就像我与ChatGPT进行“对坐编程”一样,律师们也将能够与他们自己的法律GPT进行交流,以发展法律论点,自动化琐碎工作并检查案例历史。
当然,这不仅仅适用于律师 —— 无数的专业人士都会感到有自己的AI专家进行咨询很有价值。想象一下,如果呼叫中心的操作人员使用了一种熟悉公司政策和工作方法的硕士法学学位(LLM)的AI。当人类遇到困难时,他们可以向AI寻求帮助。想象一下,医生们检查他们的诊断结果并向AI询问其他可能性。使用的范围只受我们的想象力限制。
我现在无法想象没有人工智能的编程,其他职业也将感受到相同的影响。这对于服务质量、生产力和经济发展意味着一个有趣的问题。一些人预测会出现巨大的进步。我倾向于认为他们是正确的,但这需要超过一年的时间才能实现。然而,我们正在这个旅程中。我已经看到人工智能如何对编程职业产生巨大影响,我认为其他职业也有可能发生同样的情况。只是时间和金钱的问题,要专注于这些应用案例是什么。很多事情将开始改变,而2024年,从现实角度来看,只是个开始。
🐭 小型模型发现了一个角色
直到最近,小型模型一直是一种好奇心的产物 - 由于其资源需求低,很适合玩耍,但不足以用于严肃的应用。
但是Meta最近推出了他们的LLaMA Guard模型,这是基于一个针对审查目的进行调优的小型7B LLaMA2模型。它只需要决定输入是否构成威胁,因此一个小型模型非常完美。
这真是天才之举——对于非常狭窄的用例使用小型模型完全合理。这让我意识到存在着相当大的一组这样的用例——包括内容审核、匿名化、意图路由等等。我发现使用小型微调模型来增强一个较大的模型有很重要的作用。它们将环绕着那个更大的模型,过滤并将输入路由到正确的位置。2024年将会看到这种技术的大量应用。并非一切都需要具备突破性的性能。
📲 一些推理的工作会转移到本地设备上。
虽然我一开始是带着对OpenAI预测新突破的期望开始的,但我对在梯子底部发生的事情也很着迷——将模型变得更小更快,使它们可以在消费者硬件上运行。Google计划在Pixel手机上运行Gemini Nano。
同时,苹果一直在努力创建一个优化的软件堆栈,以发挥其专有的M系列处理器的能力。
云端推理的时代即将结束。到2024年,小型而高度优化的模型将在笔记本电脑、平板电脑和手机上运行,虽然功能不弱,但仍然有限。并非所有的事情都会以这种方式运行,但很大一部分会。那些需要高度推理能力的人仍然会想要使用类似OpenAI的GPT-4这样的工具。然而,有一类使用场景并不需要那么高的推理能力。大多数人正在使用免费版的ChatGPT,而且这款版本只限于GPT-3.5-turbo,其功能在当今的开源模型中很常见。可以合理地认为在可预见的未来,这类用法可以在我们的设备上本地运行,而且这样做的成本优势非常巨大 - 不需要设置庞大的计算设施已经足够激励我们选择这条道路。
对于大型云服务提供商而言,这可能会带来一些震惊 - 高额利润的大规模云服务器进行推理的预期可能会受到削弱。
↔️ 到处都有LLM
Microsoft正在为其Copilot产品收取高额费用,该产品将GPT集成到Word、Excel和Powerpoint中。这非常棒,但价格昂贵。我知道有几个人在努力寻找商业案例,并且没有绝对的生产力收益的证明,这样很困难。
当然,微软必须收取高额费用来支付那些庞大的服务器成本,这是GPT模型所需的。
然而,一旦我们在设备上成功运行了可靠的模型(见上面的预测),就没有什么理由需要花费很多费用。
或许苹果会将设备上的Siri推理功能应用于Keynote、Pages和Numbers?
本地推理的价格优势将推动很多人采用 — 为LLM无处不在做好准备,无处不可!当然,像苹果这样的硬件公司有充分的理由这样做 — 这将鼓励我们购买硬件升级,以获得能够利用新的AI功能的现代设备。如果没有云端推理的成本,LLM将会被应用到凡事可以增加价值的事物中,无法阻挡。
🍎 苹果从机器学习的阴影中展露身姿
苹果公司一直是机器学习中的黑马,但就在几周前,他们发布了一些非常令人兴奋的开源软件,用于优化其M系列处理器的训练和推理。以苹果一贯的风格,他们的MLX框架非常容易启动。
我强烈怀疑这是苹果公司在人工智能方面的一次重大推进,将会在iPhone、iPad和Mac上实现由LLM驱动的本地运行的Siri。通过本地推理运行,数据隐私问题将会消失。如果苹果公司能够达成内容交易来获取训练数据(毕竟,他们拥有最大的现金储备),这可能是目前最“道德”的LLM解决方案。按照苹果的风格,你不需要成为第一个,你需要花时间做得更好。用现金购买内容交易和高度优化的软硬件堆栈,以解决隐私和环保问题是苹果的护城河,我期待他们会驾驭好这一点。敬请关注。
这种策略也符合苹果的商业利益——将本地运行AI-Siri的能力限制在高端或近期的设备上,这样才能使其可行。这也是人们可能想要升级设备的原因。
🦙 元数据变得严肃起来
Meta即将采取行动。他们拥有一支一流的机器学习团队,而LLaMA2则是2023年最出色的开源模型之一,为繁荣的微调社区提供了基础。
但是LLaMA2本身并不足以成为大牌,它的主要贡献是为他人进一步调优提供基础。
但是Meta有更多潜力尚未实现。2024年,我们很可能会见证 LLaMA3 的发布,而我预计它将比仅仅作为他人精调的基础更加有用。
🧑⚖️ 规定退居次要位置
有很多关于2023年人工智能风险的讨论和不安。我们已经看到拜登的行政命令和欧盟的人工智能法案成为重要的立法提案。
然而,欧盟已经取消了对基础模型进行监管的计划,转而将重点放在人工智能的使用方式上。而在美国,拜登总统的行政命令明确了高层意图,但对于具体的实施方式则让人们无从想象。我强烈怀疑现实情况可能比一些人担心的要稍微轻松一些——不希望打破经济机会的平衡可能会取胜。
作为结果,对于人工智能监管的讨论将在2024年平息,并且预见的未来将对监管进行轻度处理。没有人希望限制他们的科技初创企业,为国内竞争对手提供机会。虽然有很多讨论,但是政治家们在此时停止创新和经济进步将是一种勇敢的举动。
🥇 有人开始认真对待基准测试
LLM基准是一团乱麻,可能会有人开始着手解决这个问题。
有很多基准,但几乎所有的都是弱的。而且,模型提供者目前可以选择要报告哪种基准,如果你的模型在某个基准上表现不佳,没问题,只要使用其他能更好展示产品的基准就行。
我们需要一种形式的“质量标记”,以解决基准失败问题,并决定需要报告的基准。我原以为大型质量组织会站出来采取行动,但他们迄今为止保持沉默。类似欧盟CE标志的东西将会很有帮助。
公认的测试标准并经过独立认证,对于希望“表现出对人工智能有所作为”的政府来说,比拙劣的试图减缓人工智能进展要好得多。
在这个领域里,无论是政府还是私营企业都存在机会 - 2024年会有人去做某些事情(我希望如此)。
🗳️ 选举中的深度伪造
2024年将是美国和英国的选举年。在大西洋两岸的高度紧张的政治环境中,几乎可以肯定我们将会看到人工智能被用来生成虚假内容,试图影响选民。
我们已经看到了一些具有说服力的唐纳德·特朗普、教皇等人的图片。但它们相对来说很容易辨认出来,新闻媒体也迅速突出他们的虚假性。
有趣的是,即使我们知道这些图片是假的,它们仍然扮演了一定的角色。例如,唐纳德·特朗普积极地分享自己的假照片,并不是为了欺骗人们,而是因为它们为他试图打造的一种氛围做出了贡献。
2024年将成为人工智能融入政治竞选的一年,但不一定是为了欺骗人们。相反,我预计人工智能将被用来触动我们的心弦。当然,这是政治分歧的任何一方都可以利用的。这将是一个有趣的经历,我们拭目以待。
如果您发现这些预测有见地,也许您会对我们在Barnacle Labs的服务感兴趣 - 我们是一家专业的GenAI咨询公司。您可以通过LinkedIn联系作者Duncan Anderson。
在Barnacle Labs,我们还在这里托管了一个有用的GenAI内容的Github仓库:https://github.com/Barnacle-ai/awesome-llm-list