代码生成——将自然语言描述自动转换为计算机代码——是大语言模型(LLMs)最具前景的应用之一。但随着编程任务复杂度提升,LLMs的出错概率也随之增加。在2024年神经信息处理系统大会(NeurIPS)上发表的论文中,研究者提出了一种新方法,通过同时训练LLMs的调试能力来提升代码生成质量。
与传统基于少量样本学习的调试方式不同,该研究采用监督微调(SFT)和强化学习(RL)双轨机制。为解决调试训练数据稀缺问题,研究团队利用LLMs生成高质量合成数据:
在StarCoder-15B、CodeLlama-7B等模型上的测试显示:
该方案为代码生成模型提供了可扩展的自我优化路径,显著降低了人工调试成本。完整技术细节可参考 NeurIPS 2024 会议论文《Training LLMs to better self-debug and explain code》。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。