Right to be Forgotten in the Era of Large Language Models: Implications, Challenges, and Solutions

本文是LLM系列文章,针对《Right to be Forgotten in the Era of Large Language Models: Implications, Challenges, and Solutions》的翻译。

摘要

被遗忘权(RTBF)最初是根据Google Spain SL、Google股份有限公司诉AEPD、Mario Costeja Gonz´alez的裁决确立的,后来被纳入欧盟《通用数据保护条例》(GDPR)下的删除权,允许个人有权要求组织删除个人数据。特别是对于搜索引擎,个人可以向组织发送请求,将其信息从查询结果中排除。这是一项重要的新兴权利,是技术发展的结果。随着大型语言模型(LLM)的最新发展及其在聊天机器人中的使用,支持LLM的软件系统变得流行起来。但他们并没有被排除在RTBF之外。与搜索引擎使用的索引方法相比,LLM以完全不同的方式存储和处理信息。这对遵守RTBF提出了新的挑战。在本文中,我们探讨了这些挑战,并就如何实现RTBF的技术解决方案提供了见解,包括使用差分隐私、机器遗忘、模型编辑和提示工程。随着人工智能的快速发展和对监管这一强大技术的日益需求,从RTBF的案例中吸取教训可以为技术从业者、法律专家、组织和当局提供宝贵的经验教训。

1 被遗忘权背后的法律原则

2 大语言模型与数据实践

3 大语言模型与RTBF

4 技术方案

5 法律观点

6 进行中的讨论

7 结论

在这项工作中,我们展示了被遗忘权的含义,并确定了大型语言模型带来的独特挑战。我们讨论了四种潜在的技术解决方案,并从法律角度提供了对该问题的见解。我们相信,我们的工作有利于从业者和利益相关者,并帮助他们了解RTBF的相关问题。我们呼吁对这一问题给予更多关注并作出进一步努力。

猜你喜欢

转载自blog.csdn.net/c_cpp_csharp/article/details/132906494
今日推荐