北航、人大和九坤投资共同撰写的论文 《Scaling Laws for Code: Every Programming Language Matters》 整理而成。 在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。
近日,一封由 AI 系统生成的感谢邮件在技术圈引发广泛关注和讨论。Python 之父 Guido van Rossum 对收到的邮件回应一句「Stop」,React 核心团队成员、Redux 作者 Dan Abramov 则投诉称“垃圾邮件泛滥”。
微软亚洲研究院成立于1998年,是微软公司在亚太地区设立的研究机,研究方向涵盖计算基础创新、下一代智能交互、多维感知与通信、人工智能与社会福祉、科学发现与行业赋能等。通过来自世界各地不同学科和背景的多元人才的鼎力合作,微软亚洲研究院已经发展成为世界一流的计算机基础及 ...
如今,5个月过去,「狂飙」的GenAI领域已然大不相同。不仅GPT-4迎来了下一代模型GPT-4o,新发布的Claude 3.5 Sonnet、Codestral等模型都在编码方面性能优秀。 Cosine发布的报告显示,在SWE-Bench中,Genie的得分为30.08%,轻松超越了分数为13.8%的Devin。