
谁说扩散模型只能制作图像和视频?现在,他们可以编写高质量的代码,并且比传统的大型模型更快! Inception Labs正在基于扩散技术-Mercury推出一种新的大型基础成绩。 Mercuys破坏了逐字一代自动化模型的极限,采用了“从噪声到概述的输出”的技术,以一次在各个方向上预测令牌,从而提高了一代的速度。这样,水星还解决了自动估计的问题:“在形成时很难恢复并修复。”扩散模型不仅被视为以前形成的内容。它可以在生成过程中执行动态误差校正和更改,并且可能更灵活。尽管采用了爆炸技术,但水星模型的家族仍保持了变压器的架构。这确保模型可以直接折叠出色的训练和优化技术(近年来为大型语言模型形成的诸如低阶操作员,高参数调谐工具等。经过测试的数据表明,面对相同的编程活动,汞代码生成的速度比传统工具快10倍,这大大缩短了周期的发展。在H100 GPU汞中实现1109个令牌/第二个吞吐量,使用成熟的变压器作为神经网络的基础,再加上技术传播的平行生成,这不仅维持了大型YouDelo的兼容性,而且还破坏了单词by By By By By-ording by-ording by-ordent by-ordent by的自动化模型的速度。水星的主要变化在于“生成的爆炸”,如下所示:训练阶段的前进过程:从真实文本开始(例如代码片段),逐渐增加噪声(随机更换,去除令牌等),并最终成为完全随机的随机随机。 CO的反向过程重新阶段:从随机噪声开始,迭代地通过变压器模型优化,噪声逐渐消除,并最终生成符合真实分布的文本。随着每次复发,该模型将在并联而不是单词的一代中更改许多令牌。该过程扩展了先前的离散散射方法,并通过优化数据处理和计算逻辑来实现大尺度(万亿个标记)。出色的硬件水星主要使用平行生成文本,动态调度脱发,混合数量的准确性和其他技术,以最大程度地提高GPU的性能,实现良好的硬件,并降低培训和倾斜成本。文本生成机制使该模型可以在单个正向传播中预测许多令牌,与单词的自动回归模型相比,该模型可显着改善GPU的使用。在NVIDIA H100 GPU中,水星编码器Mini和Mercury CodeR小(汞编码器系列编码优化产品)分别实现1109代币/秒和7个代币/秒吞吐量。在Copilot Arena的基准下,响应时间可以压缩到1/4的其他工具,同时将硬件资源使用减少60%。算法调度的动态时间表适合步骤步骤的步骤数量,减少了简单任务中的计算量,在复杂的任务中保持了足够的迭代,并在准确性和效率之间取得了平衡,从而可以更好地利用硬件资源。混合精度技术模型可以在远见期间自动切换到低精度模式,从而将记忆痕迹减少30%,同时通过剩余的补偿机制保持输出质量。这使汞可以在有限的硬件内存下运行,而不会显着吸引性能。强误差校正能力与生成WO的传统自回归模型不同rd by单词“从左到右”。当一代难以修复时,汞不仅限于先前生成的内容中的考虑,并且在生成过程中可能会不断更改以前的内容,并具有更大的灵活性。双向注意机制在否定过程中引入了上下文双向关联的汞,从而更好地理解了文本的正面和背景,从而更准确地发现和纠正了错误。实时误差校正模块模型将与逻辑代码在可分离步骤中的一致性以及通过研究加固的输出的输出一致。在代码生成的活动中,Amercury编码器可以自动纠正逻辑弱点,并支持自动校正功能级别参数,这可以有效地提高代码的准确性和可用性。专用汞的多语法树包括腹肌在扩散过程中,诸如Python和Java之类的语言结构的轨道语法树(AST),这有助于减少语法错误。 Ultrafast的响应速度在LLM出现之前与当前CI的功能不符,连续集成/交付的速度(CI/CD)已成为主要的瓶颈,这导致了在试验期间浪费时间等待拉拉请求(PRS)的时间。有时,变化的变化需要在队列中等待几个小时,有时由于不道德而可以重新启动。 MERC模型对写作代码实现了超快速的响应,但是如果每个代码更改都需要时间来尝试,那么正如问题所问的那样:即使是大型模型也可以比人们快100倍,但是无法保持测试速度,这是没有意义的。因此,问题是:如何减轻与当前CI功能不符的超速响应速度的问题?有人认为,由于开发人员时间比M贵机械时间,可以通过简单地“发送更多机器”来解决CI速度问题。但是,其他人已经教导说,“货币打印机”(例如Google)可能是可能的,但是对于普通公司而言,CI预算已固定,计算资源的增加并不是一件容易的事。引起实验室团队Mercury Developer Incepte Incepte Incemente Incemente的三位实验室的共同创始人是来自斯坦福大学,加利福尼亚大学和康奈尔大学的计算机教授。其中,Stefano Ermon是扩散模型的共同发明者。他和诸如Sohl-Dickstein之类的学者共同建立了扩散模型的理论基础,并通过随后的研究促进了该模型的实用性。另一位创始人Aditya Grover曾在Meta Fair担任研究科学家。在他的博士学位上,他加入了Google Deepmind,Microsoft Research Institute和Openai。 Volodymyr Kuleshov赢得了2018年的Arthur Samuel Best Paper奖。该团队包括Google Deepmind,Microsoft,Meta,Openai和Nvidia的退伍军人,是目前专注于通过扩散技术改善大型模型性能。 Labs Labs还为汞模型开设了ONL Platformine体验。 Interested friends can click the link below to experience it ~ Thesis Address: https://arxiv.org/abs/2506.17298Mercury Online Platform Experience: https://chat.yceptionlabs.ai/Reference Link: https://news.ycombinator.com/Item?id=44489690This Article is derived from the WeChat Public Account: QUBIT (id:id:id:id:id:id:qbitai),带有-is:wen le