GitHub Copilot调整:个人代码默认参与AI训练,你是否会选择退出?

近日,GitHub Copilot 发布最新政策,宣布自 2023 年 4 月 24 日起,其 Free、Pro 和 Pro+ 用户与 Copilot 的交互数据将默认用于改进 AI 模型。这一变化在开发者群体中引发了对 代码隐私 的广泛讨论。

GitHub Copilot 新规的主要内容

根据 GitHub 公布的信息,新规对用户数据的使用作出了以下调整:

  • Free、Pro 和 Pro+ 用户与 Copilot 的交互数据进行收集,用于 AI 的训练和优化。
  • 用户数据包括已接受或修改的输出内容、展示给 Copilot 的代码片段、用户与 Copilot 的交互记录(如 Chat 和行内建议)。
  • Copilot 不会收集来自 Business、Enterprise 用户的交互数据,也不涉及企业拥有的代码仓库。
  • 最终解释权仍由用户掌握。不希望参与训练的用户需要通过设置手动退出。

值得一提的是,此次调整不影响免费获得 Copilot Pro 权限的学生和教师,相关用户无需额外操作。

数据收集范围与豁免情况

GitHub 新规明确规定了哪些数据将被收集,以及如何确保某些信息不被用于训练:

可能被收集的数据:

  • 用户输入给 Copilot 的代码片段、光标位置上下文和注释。
  • 接受、修改后的 AI 输出数据。
  • 文件名与仓库的结构信息。
  • 用户与 Copilot 的实时交互数据。

不会被收集的数据:

  • 来自 Copilot Business 和 Enterprise 的交互数据。
  • 已手动在设置中选择退出模型训练的个人数据。
  • 免费获得 Copilot 权限的学生和教师数据。
  • 企业静态存储的数据,如 private repositories 内的 issue 或 discussions。

如何退出数据收集?

虽然新规默认启用了数据采集,但 GitHub 给予用户随时退出的选择权。以下是退出的具体步骤:

  1. 登录 GitHub,访问你的 用户设置页面
  2. 导航到 Privacy(隐私) 页面。
  3. 在隐私设置中找到“是否允许数据用于 AI 模型训练”的选项,取消勾选即可退出。

GitHub 还表示,将提前 30 天通知用户新规生效,确保用户有充分的时间调整设置。

开发者社区的反应与建议

针对新规,开发者社区的反应各有不同。有支持者认为,这是提升AI训练质量的必要手段,也有用户对隐私保护表示担忧。以下是一些建议:

  • 评估隐私需求:如果你对数据隐私高度敏感,建议立即在设置中选择退出。
  • 关注通知:GitHub 将提前告知新规生效,请务必留意账户绑定的邮箱通知。
  • 观察政策后续实施效果:GitHub 承诺遵守合同义务保护数据,用户可持续关注官方的透明度报告。

总结

GitHub Copilot 新规将影响大批个人用户。如果你是 Copilot 的活跃用户,应根据实际需求选择是否参与 AI 的模型训练。无论是退出还是留在默认设置中都各有利弊。更多与 AI 工具、隐私相关的更新,可以查看我们对 GitHub Copilot 的详细追踪报道。

文章评论

登录后才能发布评论哦
立即登录/注册
消息提醒
Hello, world! This is a toast message.