英伟达成美国大模型开源标杆:Nemotron 3连训练配方都公开,10万亿token数据全放出 英伟达在开源模型上玩的很激进:“最高效的开放模型家族”Nemotron 3,混合Mamba-Transformer MoE架构、NVFP4低精度训练全用上。而且开放得很彻底:不仅开放模型权重,还要把超过10万亿token的训练数据、预训练和… 赞 参与讨论{{item.data.meta.comment}}条讨论
英伟达成美国大模型开源标杆:Nemotron 3连训练配方都公开,10万亿token数据全放出 英伟达在开源模型上玩的很激进:“最高效的开放模型家族”Nemotron 3,混合Mamba-Transformer MoE架构、NVFP4低精度训练全用上。而且开放得很彻底:不仅开放模型权重,还要把超过10万亿token的训练数据、预训练和… 赞 参与讨论{{item.data.meta.comment}}条讨论
作者: 英伟达成美国大模型开源标杆:Nemotron 3连训练配方都公开,10万亿token数据全放出 英伟达在开源模型上玩的很激进:“最高效的开放模型家族”Nemotron 3,混合Mamba-Transformer MoE架构、NVFP4低精度训练全用上。而且开放得很彻底:不仅开放模型权重,还要把超过10万亿token的训练数据、预训练和… 赞 参与讨论{{item.data.meta.comment}}条讨论
英伟达成美国大模型开源标杆:Nemotron 3连训练配方都公开,10万亿token数据全放出 英伟达在开源模型上玩的很激进:“最高效的开放模型家族”Nemotron 3,混合Mamba-Transformer MoE架构、NVFP4低精度训练全用上。而且开放得很彻底:不仅开放模型权重,还要把超过10万亿token的训练数据、预训练和… 赞 参与讨论{{item.data.meta.comment}}条讨论