应对生成式人工智能的隐私问题:企业问卷调查
世界正热议由生成型人工智能(AI)和大型语言模型(LLM)引发的一系列新闻报道及其带来的影响。事实上,近2000名学者和技术专家最近签署了一封信,呼吁暂停使用这些技术六个月。
LLMs,例如ChatGPT和Bard,以其写作论文、强大的聊天机器人甚至可以在没有人类编码的情况下创建网站的能力,已经征服了我们的共同想象力。然而,在这种兴奋之中,我们必须退一步思考,反思个人数据如何被一种连其自己的首席执行官都感到“有些害怕”的技术所使用。
在最近的一次对话中,ChatGPT本身承认,“类似其他技术一样,生成式AI如果不负责任地使用,可能会对数据隐私造成风险。”不需要太多想象力就可以理解,如果一家公司对生成式AI的使用不当,很快就会破坏与客户的良好关系。虽然该技术可能是新颖的,但数据保护法的原则仍然是相同的。幸运的是,组织可以在尊重个人隐私的同时创新,有一个清晰的路线图可供使用。
如果您的组织正在发展或使用生成式人工智能,非常重要的是从一开始就考虑您的数据保护义务,并采取数据保护设计和默认方法。记住,这不是可选项 - 当您处理个人数据时,这是法律要求。
需要注意的是,即使您正在处理的个人信息来自公开可访问的来源,数据保护法仍然适用。 如果您的组织参与生成AI的开发或使用,该AI处理个人数据,请问自己以下问题:
1. 您处理个人数据的合法依据是什么?确定适当的合法基础,例如同意或合法利益,以处理个人数据。
2. 你是否是控制者、共同控制者或处理者?如果你正在使用个人数据开发生成式人工智能,则应确定你作为数据控制者所扮演的角色。如果你正在使用或调整其他人开发的模型,则可能是控制者、共同控制者或处理者。
3. 您是否准备好数据保护影响评估(DPIA)?在处理个人数据之前,您必须进行DPIA以评估和减轻任何数据保护风险。 DPIA必须随着数据处理及其影响的演变而更新。
4. 你将如何确保透明度?除非有豁免条款,否则应该公开处理相关信息。如能可行,应该直接向与数据相关的个人传达此信息。
5. 您将如何减轻安全风险?考虑并减少个人数据泄露,模型反演,成员推断,数据污染和其他敌对攻击的风险。
6. 你将如何限制不必要的处理?只收集足够和必要的数据以达到您所述目的。
7. 您将如何遵守个人权利要求?建立程序响应人们要求访问、更正、删除或其他信息权利的请求。
8. 你将使用生成式人工智能进行完全自动化的决策吗?如果你做的完全自动化的决策具有法律或类似重要影响,根据英国《GDPR》第22条,个人有额外的权利。
数据保护监管机构将审查开发或使用生成式人工智能的组织,以确保合法合规并考虑其对个人的影响。
在Advanced Analytica,我们的使命是支持组织机构,帮助他们在维护公众信任的同时扩张。我们的预审查解决方案为生成型AI的开发者和用户提供了强有力的数据保护合规性路线图。我们的风险工具包则协助组织机构识别和减轻数据保护风险。
通过进行快速准备评估,开始你向符合要求的AI之旅。