BAAI大会重点亮点,AI行业的超级碗
创立于2018年的BAAI(北京人工智能研究院)是一家由科技部、北京市政府、小米、百度、旷视科技、美团等科技公司以及著名大学支持的非营利性组织。
如果你真的对生成式人工智能(AI)感兴趣,你应该知道 BAAI,这是微软副主席兼总裁布拉德·史密斯认为是这场具有开创性的技术革命中领先的参与者之一。
在四月接受日经亚洲采访时,Brad指出了三个领导创新的主体,分别是得到微软支持的OpenAI、受到谷歌支持的DeepMind,以及缩写为BAAI的北京人工智能研究院。
成立于2018年的BAAI是一家非营利组织,得到了科技部、北京市政府、小米、百度、旷视和美团等技术公司以及一些知名大学的支持。
虽然相较于其他公司,该公司推出的大型语言模型相对较少,但你不应该错过它的年度会议。该会议汇聚了来自世界各地的人工智能大亨,探讨新技术的未来发展方向。
6月9日和6月10日,年度会议举行,图灵奖得主Geoffrey Hinton、Yann LeCun、Joseph Sifakis和Andrew Chi-Chih Yao以及Open AI创始人Sam Altman和受欢迎的文本到图像初创公司Midjourney创始人David Holz出席。顺便说一句,阵容非常强大,就像人工智能的超级碗一样。
我们为您列出了大牛们的核心要点:
萨姆·阿特曼在6月10日的“人工智能安全与对齐性”专题讨论会上以虚拟的方式参加了活动,并与百度开放智能平台主席张红江进行了问答互动。
这是Altman第一次在中国发表演讲。在该会议的开场演讲中,企业家强调了AI监管的紧迫性和国际合作的重要性。保持HTML结构。
阿特曼承认地缘政治冲突对全球AI合作的影响,并指出尽管存在分歧,但大国历史上总能找到在关键问题上合作的方式。他说:“我们看到美国、中国和全世界的研究人员共同努力实现共同目标的巨大潜力。”
他引用了一句古老的中国谚语,“千里之行,始于足下”,来描述世界应该如何开始艰难但必要的合作。
Altman 还透露,OpenAI 正在讨论未来开放更多模型的计划,但没有具体的模型或时间表。
杨立昆,Meta AI公司首席人工智能科学家之一,也是人工智能和深度学习的“教父”之一,发表了主题演讲,“走向能够学习、推理和规划的机器。”
他在对OpenAI的GPT所代表的自回归语言模型持稍微更批判的立场,指出该技术爱好幻觉。 LeCun还认为,LLM远远不能像人类和其他动物那样“推理和规划”。
让机器像人类和动物一样行动一直是LeCun一生的追求,因此,他提出“世界模型”可以是一种推动基于人工智能系统超越自然语言处理能力,以“感知,推理,预测和规划”的替代方法。
LeCun认为当前对“人工智能将毁灭人类”的担忧是不必要的,因为超智能人工智能还没有出现。
Geoffrey Hinton表达了对超级智能的担忧。像往常一样。
像 LeCun 一样,Hinton 也是AI的教父之一,但他对这项技术的未来更加悲观。他在五月份辞去了 Google 的工作,警告称人工智能的最新进展对社会和人类构成了“深刻的风险”。
Hinton的演讲题目为“智能的两条路径”,他探讨了数字计算机所代表的永生计算和人类大脑所代表的有限计算。
他认为数字神经网络并不具备高效能源的特点,而生物大脑则消耗更少的能源。因此,提出了基于模拟硬件的更高效能源的“大脑”的想法。
数字计算是不朽的,因为它将软件与硬件分离,这使得在一台计算机上运行的软件可以精确地复制到任何其他数字计算机上。这就是不朽:如果硬件死了,算法仍然可以在另一台计算机上生存。另一方面,有限的计算是实现人工智能的一种新方式,因为它消除了软件与硬件之间的分离。但是,副作用是当特定的硬件死亡时,算法也消失了。
在演讲结束时,他强调了他对超智能威胁的担忧,并希望年轻人才能找到让超智能帮助人类生活更好的方法,而不是让他们落入技术的控制之下。
马克斯·泰格马克是一位人工智能伦理倡导者,他创立了“生命未来研究所”,呼吁“控制人工智能”。
Tegmark建议解决控制AI的两个关键问题,第一个问题是使AI对齐:让单个AI积极地做其拥有者想让它做的事情,第二个问题是多尺度对齐:使全球所有组织,公司和个人的动机都是为了利用AI做好事情。
说到人工智能治理,他说中国正在做最多的人工智能监管工作,欧洲排第二,美国排第三。
Tegmark的非营利组织呼吁停止研究“所有比GPT-4更强大的人工智能系统”,并在4月份组织了一封名为“暂停巨型人工智能实验”的公开信,获得了超过27,565个签名(截至5月8日)。
除了将AI行业领袖带到会议上,BAAI还宣布了其超大规模AI建模系统“悟道”的最新进展:
发布了Wudao Aquila,这是第一个支持中英文知识、商业许可和符合中国数据规定的大型开源语言模型。
根据该机构,Wudao Aquila拥有70亿和330亿参数模型,继承了GPT-3和LLaMA的架构设计优势,替换了一批更高效的底层算子实现,并重新设计了分词器以支持中英文双语。(注:LLaMA或Large Language Model Meta AI是Meta在2023年2月发布的LLM。它训练了各种模型大小,参数范围从70亿到650亿不等。)
通过数据质量控制和各种优化方法的训练,Aquila 在较小数据集和较短训练时间的情况下比其他开源模型表现更好。
在其自有的LLM基础之上,AquilaChat,一款类似于ChatGPT的产品,已经问世。根据该机构的内部评估,AquilaChat能够达到约70%的GPT-4性能水平,甚至在某些个别任务上超越了GPT-4。
它还介绍了FlagEval,一种专门为AI大型基础模型设计的评估工具包。FlagEval是开源的,支持在/跨不同模态(如NLP、音频、CV和未来的多模态)对基础模型进行多维度评估。总体而言,评估工具在理解LLM性能、解决偏见并提高可靠性和有效性方面发挥着至关重要的作用。
最近推出的Wudao Vision视觉模型系列彻底革新了计算机视觉,解决了统一性、模型扩展和数据效率等问题。其产品包括Emu,一种大型多模式模型,可以完成多模式序列中的所有工作;EVA,一种高性能的十亿级视觉表示模型;EVA-CLIP,顶级开源CLIP模型;Painter,一种通用视觉模型,开创了上下文视觉学习的先河;以及vid2vid-zero,一种零射击视频编辑技术,允许基于简单提示进行视频编辑。
所有这些解决方案都可在FlagOpen下使用,该开源生态系统由BAAI发起,旨在成为LLMs领域中的“Linux”。
谈到中国企业疯狂创造自己的LLM时,BAAI总裁黄铁军强调了优先发展一个LLM生态系统的重要性,而不是让众多团队专注于LLM的研究和发展。
BAAI准备利用其开放式超大规模人工智能建模系统与国际同行展开激烈竞争。如同Smith所言,“谁在前进、谁在落后,这一点可能在一年中的不同阶段有所变化,但有一点是绝对不变的:这个差距几乎总是以月份来衡量,而不是以年份。因此,有一个极端具有竞争力的竞赛,目的是创新。”
参考文献:
https://hub.baai.ac.cn/view/27407
https://hub.baai.ac.cn/view/27403
https://hub.baai.ac.cn/view/27404
https://www.globaltimes.cn/page/202306/1292326.shtml