Copilot 生成的代码不敢用?微软:若遇到诉讼,我来承担!

fe063129975a5164bd41af4a9c8d9fe4.gif

整理 | 苏宓

出品 | CSDN(ID:CSDNnews)

论及当下最好用的 AI 辅助编程工具,GitHub Copilot 必属其一。

不过,一直以来,很多开发者在生产环境中使用 GitHub Copilot 都有一定的顾虑,毕竟这款工具基于 GitHub 平台上数百万个开源代码库作为基础数据训练而成。倘若在使用其提供的代码建议过程中,触及代码版权等问题,后续麻烦不断。

为了降低开发者、企业的担忧,微软今日最新发布重大公告表示,如果客户在使用 Copilot 相关服务时因侵犯版权而遭到起诉,微软将承担潜在的法律责任涉及的风险。

9a6a705f14fe547c93967a06a4cc9ec1.png

这一波霸气的版权承诺,不仅让众人对微软的好感度拉满,也让作者、艺术家、开发者使用 Copilot 降低了后顾之忧。

6df42a20a1be4f8deb8671111758b8a6.png

微软承诺:使用商业 Copilot 服务,不用担心遭到诉讼的风险

值得注意的是,微软表示,“这项新的承诺将我们现有的知识产权赔偿支持扩展到商业 Copilot 服务,并建立在我们之前的人工智能客户承诺基础之上。具体来说,如果第三方因使用微软的 Copilot 或其生成的输出而对商业客户提起版权侵权诉讼,只要客户使用了我们产品中内置的安全防护和内容过滤器,我们将为客户辩护并支付任何不利判决或和解的金额。”

c11ee273c1447d5086811b260ed3c1c4.png

初衷

对于做出这项承诺的初衷,微软也从三个维度进行了解释:

  • 其一,微软向商业客户使用 Copilot 采取了收费政策,如果他们的使用引起法律相关问题,微软应该将这个问题视为自己的问题,而不是客户的问题。

  • 其二,微软理解版权所有者的担忧。即使现有的版权法律非常明确,生成式人工智能也引发了新的公共政策问题,并凸显了多个公共目标。基于此,微软认为世界需要人工智能来推动知识的传播并帮助解决重大社会问题。然而,对于版权所有者来说,保留他们在版权法下的权利并获得对其作品的健康回报是至关重要的。微软也会确保用于训练和基础 AI 模型的内容不会以一家或几家公司的方式锁定在手中,以抑制竞争和创新。

  • 其三,微软建立了防护措施,防止生成式工具输出的结果侵犯受版权保护的材料的可能性,以尊重作者的版权。对此,微软表示,已经整合了过滤器和其他技术,旨在减少 Copilot 输出侵权内容的可能性。这些措施基于广泛的安全防护,如分类器、元提示、内容过滤以及操作监控和滥用检测,包括潜在侵犯第三方内容的检测。

b4cdc606ee39d6006eccb6c98527a867.png

你是否用过 Copilot 功能?

随着 AIGC 工具逐渐成熟,微软如今将 Copilot 功能也相继集成到了微软多款企业级产品中,除了文章伊始提到的 GitHub Copilot 之外,其还将它融入到 Bing Chat Enterprise 的付费版本、Microsoft 365 Copilot、Windows Copilot、Dynamics 365 Copilot、Copilot in Power BI、Microsoft Security Copilot、Copilot in Viva Sales、Copilot in Power Platform 中。

不过,在这个功能越来越广泛之际,微软、GitHub 和 OpenAI 此前面临多起诉讼,被指控 Copilot 重复提供有版权的代码而不给予创作者署名,更有开发者发起「请不要在 GitHub 上传我的代码」的呼吁。

如今微软这次做出新的 Copilot 版权承诺,不仅站到了商业客户的面前阻挡了风险,而且此举也有助于其进一步推广商业产品。

正如网友所评价的,「微软的这一举动非常聪明。从本质上讲,他们是在自己的背上画了一个巨大的靶心,以应对可能出现的任何诉讼。他们的想法是,他们有足够的资源来挑战他们(他们没有错)。从人工智能的发展趋势来看,我相信我们很快就会看到一些具有里程碑意义的案例。尽可能快地发展这一市场并成为其中心,这非常符合微软的利益。这就消除了小型公司采用生成代码的主要障碍之一:"如果这个产品生成的代码受版权保护,我会被起诉吗?」

9273dba7c5d8e8931145eea66c607285.png

基于此,你是否用过 Copilot 功能?欢迎参与 CSDN 发起的《2023 AI 开发者生态调查问卷》,分享你使用 AI 工具的最新情况!

3b7032f6163f54d1623c6e33b69bbaf6.png

猜你喜欢

转载自blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/132769435