塑造AI系统通过转移权力

为什么我们需要AI中的参与方法,以及这在数据与社会中是什么样的

由梅格·杨、伊雷奥鲁·阿金里纳德、安尼亚·卡尔德隆、里戈伯托·拉拉、伊琳·洛布和图尼卡·奥内基卡米共同撰写

ChatGPT中文站
Art: Gloria Mendoza

新技术让人感觉像是在浪池中游泳,事情总是发生在我们身上,而不是由我们主动或为我们所发起:数据在未经我们同意的情况下被收集,系统安装在我们的工作场所和社区,服务以塑造我们生活的方式自动化。越来越多的变化像这样毫无预警或解释地出现:ChatGPT的公开发布一夜之间颠覆了曾经简单明了的给学生布置家庭作业的行为。而生成型人工智能工具带来的被取代的威胁如今令职业艺术家感到不安,这也导致了好莱坞作家和演员的历史性罢工。尽管AI工具对教育工作者、学生、艺术家和作家来说意义重大,但大型科技公司并未邀请工会或这些行业的倡导者来塑造像ChatGPT这样的系统的设计和部署方式。

虽然这种感觉在最近一年里尤为明显,但它是一种长期存在的动态特征:无论是技术公司还是政府都没有强大的流程来与将受其影响的人共同创造技术。技术行业通常依赖于缺乏公众参与途径的产品设计流程,即使这些参与可以帮助软件开发人员更好地理解问题或改进方法。当行业咨询人们时,大多数情况下是为了产品可用性研究,以了解产品是否易于使用,而不是与他们的价值观是否一致。而且在算法系统中,最受影响的人往往不是直接使用产品的人,就像我们在警务技术中所看到的那样。这在人工智能的案例中尤为真实,用户意见很少被纳入产品开发,直到为时已晚无法实质性地改变模型或其底层数据集。

政府也很少在做出关于技术采用方面的重大决策之前征求公众意见。在城市街道上,执法机构或交通机构使用的数据收集技术可能会记录下您的脸部或车牌号。许多政府服务正在通过实施算法系统进行改革,旨在提高效率,但却在您和地方政府之间增加了新的中介机构。职场中也出现了类似情况;根据您的工作性质,雇主可能会监控您的工作效率或个人电脑。如果没有受到这些技术影响的人们的参与,无论是征求他们的见解还是听取他们的拒绝意见,人工智能更有可能基于错误的假设导致伤害,例如人们无法获得报酬、无法享受福利或无法获得平等机会。

AI中的参与式方法

鉴于这一切,可以理解为此刻新的兴趣正在凝聚对技术设计、部署和监管的公众参与。在人工智能领域,这种兴趣已经积聚到一个转折点——一个“参与式转变”。参与式方法正在应用于人工智能发展的多个方面——从要求专家标记数据到共同设计数据集和机器学习模型,再到通过投票、咨询公民社会组织、偏见和漏洞赏金计划、红队审查、焦点小组、公民陪审团、社区组织等方式征求个体的意见。可以肯定的是,这个转变引发了很多问题。谁被视为“公众”?什么样的参与算作有效?为了什么目的?

参与式设计最早在上世纪70年代在斯堪的纳维亚地区发展起来,那里的工会试图与研究人员合作,以塑造工厂内的工作条件。另一个前辈,被称为参与行动研究,更早在多个国家形成,作为一种研究方法,遵循受影响社区的引领,识别问题、合作解决问题,并建立本地决策权。从那以后,参与性研究的范围广泛,人们被邀请参与的程度在是否对最终结果有任何有意义的发言权方面差别很大。

这种权力不对称使许多人感到停顿不前。政策分析师谢丽·阿恩斯坦(Sherry Arnstein)的必读文章警告我们,并非所有的参与方法都能赋予意义上的决策权,并且“参与”过程极有可能被在特定参与中具有最大权力的人操控得过于明显。最近,亚历克斯·艾哈迈德(Alex Ahmed)的研究指出,参与过程可能通过提供象征性而非实际的权力来消解异议和组织行动。莫娜·斯隆(Mona Sloane)等人提供了一个思考不同参与形式的框架:一些形式是剥削性的,依赖于参与者的劳动来改善现有的人工智能系统;其他形式往往不够长期或设计不足,无法真正赋予参与者权力。他们主张,为了使参与方法成为朝着正义迈进的有意义的一步,必须强调长期的关系和社区权力优于决策。

不管是Ahmed还是Sloane等人都警告称需要警惕"参与洗白",因为参与可能只是对之前有害条件的一层掩饰。在解决这些问题的同时,许多参与式人工智能的研究人员致力于将其经验教训应用于实践中。然而,时间限制、资源约束和权力动态等因素在实践中带来了挑战。

参与性方法在人工智能研究、开发和治理中仍然具有潜力,因为它们可以提供预测、识别和避免危害的工具。由于这些系统通常由白人、男性和精英团队开发和部署,而这些团队往往对潜在危害的意识有限或无视其危害,与那些与系统将要部署的背景最为接近的经验专家合作,有助于在系统开发过程中识别危害,或在危害发生后诊断它们。例如,在隐形研究所进行的社区驱动的数据标注工作,帮助将结构混乱的警察暴力记录重新定义为一种制度问责的资源。参与的一些形式还可以改善社区对使用和服务于他们的系统的自主决定权,例如要求社区制定系统所要解决的问题。这在涉及到人们的公民自由、健康、就业、住房或基本需求的重大决策方面尤为重要。值得注意的是,人工智能系统最有可能在边缘化社区中部署,它们不仅在失败时会造成伤害,而且在按预期工作时也可能会造成伤害,例如用于合理化服务。

我们自己的参与转变

在Data & Society,推动这次对话的价值承诺也在推动着我们自身的工作。例如,我们最近推出的Algorithmic Impact Methods Lab (AIMLab) 是基于一个理念,即评估人工智能系统应该由受影响人群的真实世界问题和关注所驱动。我们承诺在研究的最早阶段就将参与融入规划中;我们还在设计和评估算法治理方法,以扩大参与范围,包括各种受影响群体,并加强与技术和公民权益倡导机构的合作,以确保受影响群体能够直接参与塑造技术政策。

我们还看到这种情况发生在我们组织的文化内部。行动主义者阿德里恩·马里·布朗(Adrienne Maree Brown)认为这种内部变化对于工作来说是必要的,并且类似于一个分形图:“就像我们在小尺度上一样” - 在人际关系中,在组织内部 - “在我们与同事、同行、网络以及在生态系统中致力于解决这些问题的大量倡导团体、基层组织、公司和其他人群中,我们也是在大尺度上的。”我们对于参与也必须是分形的。在将独立作为核心价值观持续十年之后,我们越来越认识到与我们在工作中咨询和合作的人的相互依存性:跨背景对话、正式面试、社区和同行审查以及听力会议,以及与共同主持、促进和参加我们活动的人群体之间的联系。在我们组织内部加强公正的实践对于我们与外界的工作联系是至关重要的,我们承认人们必须感到被重视,并能够在我们共同创作的工作中看到自己的价值。在其他复杂性和限制性条件下实现这一愿望也许很困难,但我们相信建立建立在信任和互惠基础上的有意义的关系是值得努力的。

启动我们的参与性探索

随着这一想法,当我们在2024年迎接数据与社会(Data & Society)成立十周年之际,我们将启动一系列关于公众参与的策划活动——包括什么是公众参与,为什么要进行公众参与,可能出现的问题以及如何做得更好。通过这些活动,我们希望了解在这个发展和学习的时刻,领域的现状,共享成功和挑战,并促进与同行机构以及我们同行与其他人的合作关系。以下是我们在接下来几个月计划中的一些内容:

  • 10月19日,法学者兼D&S合作人Michele Gilman将与我们一同讨论她的最新政策简报,标题为《民主化人工智能:实现有意义的公众参与的原则》,与计算机科学家Harini Suresh和人权律师Richard Wingfield共同参与。了解更多信息并回复。
  • 一个即将宣布的有关可信基础设施的研讨会将询问:谁有权利决定什么被认为是可信的,并且是为了谁而决定的?
  • AI中参与性方法的工作坊将为在这一领域工作的人提供反思和分享经验的机会。

敬请关注更多信息,并且如果您在这个领域工作,请与我们联系:participation@datasociety.net。

2023-10-20 17:22:07 AI中文站翻译自原文