北航、人大和九坤投资共同撰写的论文 《Scaling Laws for Code: Every Programming Language Matters》 整理而成。 在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。
近日,一封由 AI 系统生成的感谢邮件在技术圈引发广泛关注和讨论。Python 之父 Guido van Rossum 对收到的邮件回应一句「Stop」,React 核心团队成员、Redux 作者 Dan Abramov 则投诉称“垃圾邮件泛滥”。
如今,5个月过去,「狂飙」的GenAI领域已然大不相同。不仅GPT-4迎来了下一代模型GPT-4o,新发布的Claude 3.5 Sonnet、Codestral等模型都在编码方面性能优秀。 Cosine发布的报告显示,在SWE-Bench中,Genie的得分为30.08%,轻松超越了分数为13.8%的Devin。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果