您的位置:首页 >科技 >正文

GitHub为Copilot Enterprise用户推出微调模型

摘要 GitHub 宣布向 Copilot Enterprise 客户限量提供微调模型。借助微调模型,客户可以调整 AI 体验,使其更好地适应其特定的编码实践和...

GitHub 宣布向 Copilot Enterprise 客户限量提供微调模型。借助微调模型,客户可以调整 AI 体验,使其更好地适应其特定的编码实践和编程语言。GitHub 表示,这种微调提高了代码建议的相关性和质量。

GitHub 称微调模型是“定制领域的下一个重大飞跃”。通过在组织的代码库上训练模型,并考虑程序员如何使用 Copilot 建议的遥测数据,微调模型可以提供更好的结果。

在评论使用这些模型的结果时,GitHub 表示:

“Copilot 非常熟悉您的模块、功能、罕见语言(如传统语言或专有语言)和内部库 - 提供的代码建议不仅在语法上正确,而且与您团队的编码风格和标准更加一致。”

为了制作这些模型,GitHub 使用了一种称为低秩近似 (LoRA) 的方法。对于组织而言,这种方法的主要好处是训练比传统的微调技术更快、更实惠。LoRA 方法还整合了有关您的团队如何与 Copilot 的建议进行互动的见解。

生成式人工智能的一大担忧是数据收集。Gemini 和 ChatGPT 等服务会记录普通用户的输入以改进服务。GitHub Copilot 表示,其经过微调的模型可以确保数据安全。您的数据始终属于您,绝不会用于训练其他客户的模型,而且您的自定义模型始终是私密的,您可以自行控制。

GitHub 在解释训练过程时表示:

“当您启动培训过程时,您的存储库数据和遥测数据将被标记化并临时复制到 Azure 培训管道。其中一些数据用于培训,而另一组数据则保留用于验证和质量评估。微调过程完成后,模型将经过一系列质量评估,以确保其优于基线模型。这包括针对您的验证数据进行测试,以确认新模型将改进特定于您的存储库的代码建议。

如果您的模型通过了这些质量检查,它将被部署到 Azure OpenAI。此设置使我们能够大规模托管多个 LoRA 模型,同时使它们彼此保持网络隔离。该过程完成后,您的临时训练数据将从所有表面删除,数据流将通过正常推理通道恢复。Copilot 代理服务可确保为您的开发人员的代码完成使用正确的自定义模型。

这些经过微调的模型目前处于有限的公开测试阶段,GitHub 正在逐步从候补名单中吸纳客户。如果你想加入候补名单,可以在这里加入,然后耐心等待。

版权声明:本文由用户上传,如有侵权请联系删除!