2025-05-06 18:21:46
近年来,大型语言模型(LLM)在复杂推理任务(如数学解题、代码生成、科学问答)上的表现突飞猛进。然而,推理效率和用户控制能力逐渐成为制约模型实际落地的核心挑战。针对这一痛点,NVIDIA 近期发布了 Llama-Nemotron 系列模型,以开放许可、高效推理和动态控制为核心卖点,在性能与效率之间实现了新的平衡。本文将深入解析这一技术报告,揭示其背后的技术革新与应用潜力。
用户只需在输入中添加 "detailed thinking on/off"
系统提示,即可实时切换模型的响应模式:
这一功能通过指令微调实现,无需为不同模式部署独立模型,显著降低了部署成本。
通过 Puzzle 框架(神经架构搜索工具)和 FFN 融合技术,模型在保持高性能的同时大幅提升推理速度:
模型 | GPQA-Diamond | AIME25(30题) | LiveCodeBench |
---|---|---|---|
LN-Ultra | 76.0% | 72.5% | 68.1% |
DeepSeek-R1 | 71.5% | 70.0% | 65.9% |
Llama-3.1-405B | 43.4% | 0.0% | - |
在相同硬件(8xH100)下,LN-Ultra 的推理吞吐量比 DeepSeek-R1 高 1.8 倍,且支持 128K 长上下文。
Llama-Nemotron 系列通过动态控制、架构优化和混合训练策略,在开源模型中树立了新的性能标杆。其技术方案不仅证明了“大模型未必低效”,也为企业提供了兼顾成本与能力的落地选择。随着后续迭代和社区贡献,这一系列有望成为复杂推理任务的默认基础设施。
附Llama-Nemotron技术报告英中对照版,仅供学习参考:
2025-05-02 07:16:17
在数学研究的圣殿中,形式化定理证明始终扮演着"终极验证者"的角色。从欧几里得的《几何原本》到现代数学的ZFC公理体系,严格的形式化证明始终是数学真理的基石。然而,这一过程长期面临两大挑战:
DeepSeek-Prover-V2的诞生,标志着神经定理证明(Neural Theorem Proving)进入新纪元。该模型在MiniF2F-test上达到88.9%的通过率,首次在形式化推理领域逼近人类顶尖选手水平,其技术突破值得深入解析。
核心思想:模仿人类数学家的"分治策略",将复杂定理分解为可独立验证的引理链。
实现步骤:
sorry
标注待证子目标lean4复制下载have h1 : cos (π/7) > 0 := by sorry have h2 : cos (2*(π/7)) = 2*cos(π/7)^2 -1 := by sorry阶段一:冷启动数据合成
阶段二:群体相对策略优化(GRPO)
数据集 | 规模 | DeepSeek-Prover-V2-671B (CoT) | 前最佳模型 | 提升幅度 |
---|---|---|---|---|
MiniF2F-test | 244题 | 88.9% (Pass@8192) | 82.4% | +7.9% |
ProofNet-test | 186题 | 37.1% (Pass@1024) | 26.9% | +37.9% |
PutnamBench | 658题 | 49题 | 8题 | 512.5% |
当DeepSeek-Prover-V2在Lean4中写下Qed
的那一刻,我们看到的不仅是代码的终结,更是机器智能向数学圣殿迈出的历史性一步。这场静默的革命,正在重新定义人类对"数学真理"的认知边界。
附DeepSeek-Prover-V2技术报告英中对照版,仅供学习参考:
2025-04-30 14:48:47
近日,小米LLM-Core团队发布了MiMo-7B技术报告,详细介绍了其专为复杂推理任务设计的大语言模型系列。该模型通过创新的预训练与后训练策略,在数学、编程及通用推理任务中表现卓越,甚至超越参数量更大的主流模型。本文将深入解析其核心技术,探讨其设计思路与性能优势。
小米开源了MiMo-7B全系列模型(Base、SFT、RL),为研究者提供了:
MiMo-7B通过“预训练挖潜+后训练提效”的双阶段策略,证明了小模型在复杂推理任务中的巨大潜力。其核心创新——数据密度优化、MTP加速、测试难度奖励——为行业提供了新思路。未来,如何进一步平衡多领域性能、优化多语言支持,将是推理模型发展的关键方向。
附小米Mimo-7B技术报告英中对照版,仅供学习参考:
2025-04-29 09:19:47
这两天技术群都在传阿里通义 Qwen3 五一前后发布,然后昨晚各种消息满天飞:
一觉醒来,千问果然没有让人失望,赶在五一前发布并开源Qwen3,效率杠杠的。作为国内首个实现"混合推理"能力的开源模型,Qwen3不仅达到了36万亿token的训练数据量,还支持119种语言和方言。通过混合专家(MoE)架构与混合推理机制的深度整合,在参数效率与任务适应性层面实现双重突破。旗舰模型Qwen3-235B-A22B在数学证明、代码生成等核心基准测试中,展现出与DeepSeek-R1、Grok-3等顶尖模型的竞争优势。
此外,小型 MoE 模型 Qwen3-30B-A3B 的激活参数量仅为 QwQ-32B 的 10%,但性能却更胜一筹。甚至像 Qwen3-4B 这样的小型模型,也能与 Qwen2.5-72B-Instruct 的性能相媲美。
Qwen3 此次开源了六款Dense模型和两款Moe模型,Dense模型包括0.6B、1.7B、4B、8B、14B、32B 6个尺寸,Moe模型包括30B和235B,均采用Apache2.0协议开源,诚意满满。其中旗舰版 Qwen3-235B-A22B,总参数量 235B,激活参数仅 22B,可以低成本实现本地部署。而 Qwen3-30B-A3B,总参数量 30B,激活参数仅 3B,消费级别显卡即可部署,整体性能堪比Qwen2.5-32B。另外阿里还开源了小尺寸的 Qwen3-0.6B,可以在手机等端侧部署。
特别值得注意的是Qwen3是国内首个“混合推理模型”,在同一模型中集成了两种推理模式:
另外Qwen3的多语言能力进一步大幅跃升,从之前支持的29种提升至支持119种语言和方言:
通过开源技术赋能,千问3为全球技术储备不足的国家和地区提供了可用的AI大模型,让语言不再成为数字时代的鸿沟。
同时Qwen3通过原生支持MCP多模态协作协议,构建了面向智能体(Agent)生态的核心能力,其深度集成的工具调用架构支持跨平台设备控制与工业协交互,结合开箱即用的Qwen-Agent框架,开发者可快速构建复杂工作流,如生产线调度、跨端自动化等,标志着大模型从"生成答案"向"完成任务"的范式跃迁。
目前可以在欢迎在 Qwen Chat 网页版和通义 APP 中直接体验 Qwen3,相关地址如下:
说了这么多,我还是想动手体验一下 Qwen3,直接在Qwen Chat网页版上体验:
可下拉选择相关模型:
开始测试那个经典问题:9.8和9.11谁大,直接给了推理过程和答案,相当快:
再来一个经典大模型测试题:strawberry有几个r,还是直接给出推理过程和答案:
看起来一般问题难不倒大模型了,那就做一道中考级别的数学题吧:
中考题难不住,继续上高考数学题,这是一道2024年年高考全国甲卷数学(文)试题:
这次思考的过程稍久,不过依然得到了正确答案:-7/2,看起来一般的高考题也难不住Qwen3了,这让我很期待今年高考数学题国内外这些顶尖大模型的PK了。
当然除了体验网页版,我还想上手体验一下开源的Qwen3模型,直接选择最小的0.6B模型,复用Qwen官方博客上提供的代码,只是简单修改了一下模型:
from modelscope import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen3-0.6b"
# load the tokenizer and the model
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
# prepare the model input
prompt = "Give me a short introduction to large language model."
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=True # Switch between thinking and non-thinking modes. Default is True.
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
# conduct text completion
generated_ids = model.generate(
**model_inputs,
max_new_tokens=32768
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()
# parsing thinking content
try:
# rindex finding 151668 (</think>)
index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("thinking content:", thinking_content)
print("content:", content)
第一次运行模型下载速度挺快的,但是遇到了报错:
刚好看到一篇文章说运行Qwen3 transformers版本不能小于4.51.0,直接升级transformer到4.51.0,再次运行,没有问题了,测试成功:
要禁用思考模式,只需对参数 enable_thinking 进行如下修改:
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=False # True is the default value for enable_thinking.
)
Qwen3模型还有很多高级玩法,包括在用户提示或系统消息中添加 /think 和 /no_think 来逐轮切换模型的思考模式,以及Agent和MCP等,限于时间关系,这里就不一一测试了,后续我会测一下更大尺寸的模型,到时候深入研究一下。刚好五一放假,大家可以好好安排五一了!
2025-04-27 14:59:23
近年来,随着大语言模型(LLM)的飞速发展,音频处理领域也迎来了革命性突破。近日,月之暗面(Moonshot AI)团队发布了Kimi-Audio,一款开源的音频基础模型,支持音频理解、生成与对话任务,并在多个基准测试中刷新了性能记录。本文将深入解读其技术报告,剖析其创新设计与应用价值。
音频是人类感知环境、情感表达和语言交流的重要媒介。然而,传统音频处理技术(如语音识别、语音合成)通常针对单一任务设计独立模型,存在以下问题:
Kimi-Audio的目标是构建一个通用音频基础模型,通过统一架构处理多种任务(如语音识别、音频问答、语音对话),同时开源代码与工具,推动社区共同发展。
Kimi-Audio采用离散语义标记(12.5Hz)与连续声学向量结合的输入表示:
模型核心基于预训练LLM(Qwen2.5 7B)初始化,并扩展为双分支结构:
反分词器采用流匹配(Flow Matching)技术,将语义标记转换为梅尔频谱,再通过BigVGAN生成波形。为解决分块生成时的边界问题,引入前瞻机制:
覆盖语音、音乐、环境音等场景,通过自动化流程处理:
涵盖语音理解、对话、问答等任务:
基于团队开发的评估工具包,Kimi-Audio在多个基准测试中表现卓越:
任务类型 | 数据集 | Kimi-Audio性能 | 对比模型最佳性能 |
---|---|---|---|
语音识别(WER↓) | LibriSpeech | 1.28(test-clean) | Qwen2-Audio(1.74) |
音频场景分类(ACC↑) | CochlScene | 80.99 | Qwen2.5-Omni(63.82) |
语音情感识别(ACC↑) | MELD | 59.13 | Qwen2-Audio(51.23) |
端到端语音对话 | 主观评测(5分制) | 3.90 | GPT-4o(4.06) |
Kimi-Audio的全链路开源(代码、模型、评估工具)为社区提供了重要基础设施:
尽管Kimi-Audio取得突破,音频AI仍面临挑战:
Kimi-Audio的发布标志着通用音频智能迈出重要一步。其统一的架构设计、大规模数据训练与开源生态,为学术界与工业界提供了强大工具。未来,随着多模态技术的进一步融合,音频AI有望在医疗、教育、娱乐等领域创造更大价值。
项目地址:https://github.com/MoonshotAI/Kimi-Audio
评估工具:https://github.com/MoonshotAI/Kimi-Audio-Evalkit
附Kimi-Audio技术报告英中对照版,仅供学习参考:
2025-04-22 14:24:33
影片创作迎来新纪元!SkyReels-V2 和 A2 双剑合璧,打破时长壁垒,赋予镜头魔法。用 AI 技术演绎无限创意,让每一帧画面都栩栩如生,低成本打造电影级视觉盛宴。
当前 AI 视频生成领域,普遍面临诸多困境:模型大多数不开源,视频生成长度最多10秒,剧情还没开始就结束了;用户难以二次开发与深度定制;效果一言难尽,让它来个王家卫风格的逆光特写,结果呢,给你整出个表情包;使用门槛高,普通创作者难以驾驭;操作复杂,上手难度大。此外,这些闭源模型的使用成本居高不下,对于预算有限的创作者和团队来说,无疑是巨大的障碍。
全球首个开源 SOTA 无限时长电影级视频的 AI
在 AI 视频生成领域,昆仑万维再次引领行业潮流,继年初开源 SkyReels-V1、A1 后,持续迭代,近期重磅推出 SkyReels-V2 和 SkyReels-A2 两大模型,为创作者带来前所未有的创作自由和强大的技术支持。其中,SkyReels-V2 作为全球首个开源的 SOTA 级无限时长电影级视频生成模型,彻底打破了传统视频生成的时长限制,让创作者能够随心所欲地构建长镜头叙事,为影视创作开辟了全新的可能性。
SkyReels-V2 的核心在于其独特的技术架构和训练方法。它通过多模态大语言模型(MLLM)和子专家模型的结合,精确理解视频内容的结构化描述,包括主体类型、外观、动作、表情、位置等多维度信息,以及镜头类型、角度、位置和相机运动等专业电影元素。这种结构化字幕的设计,使得视频生成能够精准遵循提示词,确保创作意图得到完美呈现。
此外,SkyReels-V2 采用渐进式分辨率预训练和多阶段后训练策略,逐步提升视频生成的质量。从低分辨率的基础训练到高分辨率的精细微调,每一个阶段都经过严格的优化,确保生成视频在视觉质量、动态效果和时长上的卓越表现。而其创新的扩散强迫框架,通过非递减噪声安排,让视频内容能够无限延伸,实现了真正的无限时长电影级视频生成。
SkyReels-V2 通过自研的高质量数据清洗和人工标注管线,构建了千万级的高质量电影、电视剧、纪录片数据。这不仅确保了模型在人物微表情、肢体动作、场景描述、光影、画面构图等方面的精准理解与生成,还使模型在各项指标上达到了开源 SOTA 级别。如在人物表情生成方面,SkyReels-V2 支持 33 种细腻人物表情与 400 多种自然动作组合,高度还原真人情感表达,生成的视频中人物表演细节丰富且精准。在场景生成方面,基于好莱坞级的高质量影视数据训练,SkyReels-V2 生成的每一帧画面在构图、演员站位、相机角度等都具备电影级的质感。在权威评测基准V-Bench 1.0和自建SkyReels-Bench中,SkyReels-V2展现了全面优势:
SkyReels-A2 则专注于多元素视频生成任务,能够将多个视觉元素(如人物、物体、背景)根据文本提示精确地组合成连贯自然的视频。它通过精心设计的数据管道构建文本 - 参考图像 - 视频三元组,利用图像 - 文本联合嵌入模型,将多元素表示注入生成过程,平衡元素特定的一致性与全局连贯性以及文本对齐。
在架构上,SkyReels-A2 采用双流结构处理参考图像,分别提取语义特征和空间特征,并通过交叉注意力层和通道拼接的方式,将这些特征融入到视频扩散模型中。这种设计不仅保留了每个参考元素的保真度,还确保了场景的整体连贯性和自然输出。
说了这么多,我还是想动手体验一下SkyReels的视频创作能力,目前这两大模型已被融入到SkyReels官网:https://www.skyreels.ai/
开始创作之前,用户需要在 SkyReels 官方网站注册账号并登录,以获取免费的创作额度。对于需要更高创作质量和速度的用户,平台还提供了升级计划,可享受更强大的功能和更快的生成速度。
用户可以选择使用 SkyReels-V2 进行电影级视频创作。点击 AI Video 即可直接创作AI 视频:在平台上输入详细的文本提示词,描述视频的主题、情节、人物、动作、场景等关键信息。然后,根据需要选择视频的时长、分辨率和风格等参数。点击生成按钮后,SkyReels-V2 将基于提示词和参数,自动生成高质量的视频。这是用SkyReels创作的一个30秒视频,仅供欣赏:
除了可以创作长达30秒的视频外,我更感兴趣的是短剧创作,作为一个零经验的技术人员,体验了一把20分钟创作一部短剧的乐趣。
选择 AI Drama,点击 Create,进入的AI短剧的创作页面,SkyReels给了一个自动生成的英文小说剧本:
看起来是一个关于程序员的爽文故事,就直接使用了,然后点击右上角的“Generate Script",SkyReels帮我自动生成了一个AI 小说剧本:
翻译了一下大概是:
总结 在城市小巷中,艾斯琳格利用她的专长黑入阿德里安的安保系统,揭露企业机密。与此同时,浑然不觉的阿德里安在企业办公室与罗斯讨论安保漏洞,而罗斯怀疑 “Vixen” 的介入。
剧本外景:城市小巷——夜晚 狭窄的小巷中,霓虹灯闪烁。艾斯琳格伪装成她的黑客化身 “Vixen”,蹲在控制面板旁。她的手指在腕戴界面飞舞,访问着禁用代码。难得有闲情散步的阿德里安·托雷斯在小巷入口处停下,被暗影中神秘的科技闪光吸引。
...
继续点击"Generate Character",SkyReels 自动生成了三个角色:
继续点击"Generate Storyboard",生成分镜脚本,这个时间稍长,大概用了5分钟左右:
可以逐个点击编辑,没问题的话可以点击"To Video"单独生成视频,或者直接点击"One-Click Video",将这个场景中的所有分镜脚本转换为视频,这个时间会较长。我测试了一下第3个分镜头的视频生成,配音也有了,很贴心。
如果不想用系统随机提供的故事剧本,也可以自己生成,我直接用中文测试了一下,也会帮我生成英文的小说剧本和角色,很方便。
总之,传统 AI 视频工具往往只能生成简短片段,动作生硬不连贯,且难以理解专业指令。相比之下,SkyReels V2 和 A2 无疑是视频创作领域的重大突破,堪称 AI 短剧创作领域里的 “好莱坞生产线”。
SkyReels V2 拥有无限时长的连续生成能力,彻底打破了时间限制,为创作者提供了广阔的叙事空间。无论是长篇故事还是复杂情节,都能一镜到底,流畅呈现。其动作流畅性更是达到了物理级真实,每一个转身、每一次奔跑都自然流畅,仿佛真人实拍,完全避免了传统 AI 视频中常见的卡顿和僵硬。此外,它还具备极高的智能理解能力,能够精准解析专业指令,无论是复杂的运镜技巧还是一镜到底等高阶拍摄手法,都能一一实现,为创作者提供了前所未有的精准控制。
而 SkyReels A2 则专注于多元素可控视频生成,能够将多个视觉元素精确组合成连贯自然的视频。它能精准理解并执行导演术语,从人物表情控制到特殊运镜技巧,构建出好莱坞级别的叙事逻辑和视觉效果。无论是人物微表情的细腻捕捉,还是光影细节的精致渲染,都能满足创作者对高品质视频的追求。
两者都代表了目前开源模型中的顶尖水平,为视频创作带来了革命性的变化,让创作者能够以极低的成本实现高质量的创意构想。