最亮眼的是 MoE (混合专家)模型的性能提升,达到了6到11倍的加速。有开发者直接吐槽:“如果你把性能提升了2倍,说明你做了聪明的事;如果提升了10倍,说明你之前在做蠢事。”确实,v4 版本对 MoE 模型使用了非常简单的 for 循环处理专家模块,导致计算资源严重闲置。现在团队重写了这部分逻辑,并引入了更通用的自定义 kernel 方案。
JavaScript 库 Transformers.js 提供了类似 Python Transformers 库的功能,设计用于在 Web 浏览器中直接运行 Transformer 模型,而不再需要外部服务器参与处理。在最新的 2.7 版本中,Transformers.js 引入了增强功能,其中包括文本转语音(TTS)支持。这次升级响应了用户的诸多 ...
还在为不断的 debug 代码烦恼吗? 本地化 Bug 并修复程序是软件开发过程中的重要任务。在本篇论文中,来自微软 Cloud+AI 部门的研究者介绍了 DeepDebug,一种使用大型预训练模型 transformer 进行自动 debug 的方法。 首先,研究者基于 20 万个库中的函数训练了反向翻译 ...