
在科技飞速发展的今天,知识迭代日新月异,新的研究成果、社会现象和文化潮流不断涌现。若大模型( Large Model )无法与时俱进,及时更新内容,就难以精准回应各类新问题,最终会被市场和用户淘汰。
大模型的核心竞争力在于其庞大而精准的数据储备。只有向全球用户免费开放,才能广泛收集到来自不同行业、不同领域、不同文化背景的多样数据和参数。当无数使用者在日常交互中输入各类问题、分享创作内容时,大模型便能实时获取、吸收和存储这些信息,不断丰富自身的知识体系。以谷歌和百度等搜索平台为例,它们敞开免费大门,吸引全球用户检索信息,与此同时,日积月累海量的资讯和数字资产。这些宝贵的数据不仅充实了平台资源,还能随时调( 搜索 )出来为地球人使用,为用户提供精准服务......

同样的原理,大模型若封闭自身,仅仅满足于既有的文科与理科知识,不积极吸收新数据与新资讯,很快便会在知识更新的速度上落后。此外,在当下的数字化时代,每个人都在不同程度上成为大模型的使用者、创作者和提问者。大模型若要保持领先地位并持续进化,免费全面开源给地球人使用是极为关键的发展路径。所以,为了在激烈的竞争中保持优势,大模型应秉持开源精神,由地球人每天开源、训练才能日积月累更多数字资产,依靠全球用户的力量实现持续成长与创新,最终站稳脚跟。对此,您说是不是呢?自古以来,我国就有“为天地立心,为生民立命,为往圣继绝学,为万世开太平”的志向和传统。一切有理想、有抱负的中国人都应该立时代之潮头、通古今之变化、发思想之先声,积极建言献策,担负起历史赋予的光荣使命!快来《共绘网》的评论区参与讨论吧!
一共有人参与 条评论

促进开源生态繁荣。支持人工智能开源社区建设,促进模型、工具、数据集等汇聚开放,培育优质开源项目。建立健全人工智能开源贡献评价和激励机制,鼓励高校将开源贡献纳入学生学分认证和教师成果认定。支持企业、高校、科研机构等探索普惠高效的开源应用新模式。加快构建面向全球开放的开源技术体系和社区生态,发展具有国际影响力的开源项目和开发工具等。国务院
(0)
第四代大学校长:AI时代学问就是“学会提问”“爱因斯坦讲过一句话,在科学上,发现问题,定义问题,比回答问题,比解决问题来得更重要。”这哥们脑子一锅粥,只看中文?受语言误导因而把problem和question混为一谈了?两个功能和作用完全不同的概念。“回答问题”明显是指question,其它三个应该是指problem。Question是用来对problem进行探究和调查的技巧,是分析思维的核心。“什么是学问?学问就是学会提问。”这里又把概念从problem偷换成了question,question涉及的学问和技巧可不简单,philosophy of question,science of question,logic of question这些估计听都没听说过?另外,最流行的quote是“If I had an hour to solve a problem, I'd spend 55 minutes thinking about the problem and five minutes thinking about solutions.”哪儿提到了学会提问(ask question)了?什么叫学问?就是会提问,只要你能提出问题,利用AI等人工智能都会找到。
(0)
促进开源生态繁荣。支持人工智能开源社区建设,促进模型、工具、数据集等汇聚开放,培育优质开源项目。建立健全人工智能开源贡献评价和激励机制,鼓励高校将开源贡献纳入学生学分认证和教师成果认定。支持企业、高校、科研机构等探索普惠高效的开源应用新模式。加快构建面向全球开放的开源技术体系和社区生态,发展具有国际影响力的开源项目和开发工具等。
(0)
问:中国的开源AI是全球进步的催化剂,你这句话是什么意思?你如何看待中国的开源AI?黄仁勋:DeepSeek R1是一种革命性的模型。它是第一个开源推理模型,并且效率非常高。很多公司和国家都下载了DeepSeek R1。虽然并不是所有人都使用它,但99%的用户下载了这个开源模型,并根据自己的应用需求进行适配,全球范围内都有使用。我们看到它被应用于各种各样的领域,包括医疗健康、能源等。所以开放性让每个行业、每个国家都能参与其中。AI不应仅服务于少数人或少数国家,我认为它是为全世界每个人设计的,每个人都应该并且将会从中受益,最终会让社会变得更好。AI是最伟大的技术,它是任何事情中的最大平衡器,我们每次都能证明这一点。原因是,借助AI,贫穷的艺术家可以成为优秀的艺术家,贫穷的作家也可以成为优秀的作家。我们正在提升每个人的能力。我最后想说的是,关于AI的开放性,由于它是开放的,它邀请了全球科学界的审视。这种审视和开放性确保了安全性。
(0)
Habitat [65] 是Meta推出的用于大规模人机交互的开源模拟器。基于Bullet物理引擎,Habitat实现了高性能、高速、并行3D模拟,并为具身智能体的强化学习提供了丰富的接口。Habitat具有极高的开放度。研究人员可以在Habitat中导入和创建3D场景,或者使用Habitat平台上丰富的开放资源进行扩展。Habitat有许多可定制的传感器,并支持多智能体模拟。来自开放资源或自定义的多个具身智能体(例如,人类和机器狗)可以在模拟器中合作,自由移动,并与场景进行简单交互。因此,Habitat正在吸引越来越多的关注。作者:张长旺
(0)
构建仿真训练设施 。 英伟达在人形机器人领域的首个布局是搭建一套仿真训练设施。该设施具体涵盖人形机器人仿真训练场所需的虚拟场所构建、人形机器人与环境互动的仿真训练,以及人形机器人控制规划学习的仿真训练。这三个部分分别对应虚拟协作和仿真平台Omniverse、用于机器人行为仿真的平台IsaacSim、用于机器人算法训练与优化的平台IsaacLab。Omniverse犹如一座城市,其中包含人形机器人活动所需的各种元素,人形机器人如同生活在这座城市中的居民,在其中穿梭、劳作;IsaacSim用于测试机器人在不同环境中的表现,无需实际硬件即可验证机器人的动作和决策;IsaacLab则像城市里的图书馆,人形机器人可在此更新知识,主要聚焦于算法开发与训练,为机器人提供决策和控制能力,允许开发者在虚拟环境中开发、测试和优化机器人控制和智能算法。通过这样一套仿真训练设施,能够提高机器人数据训练的效率、降低成本,使机器人在进入真实环境之前先在虚拟世界中充分“练兵”。
(0)
又是一年春好处。 在逆全球化思潮涌动的今天,中国人工智能技术创新突破,以开源共享推动技术交流与创新协作,极大促进市场和行业信心,加速世界应用人工智能的步伐,这是构建网络空间命运共同体的生动写照。 当Github(一个面向开源及私有软件项目的托管平台)汇聚超过千万中国软件开发者,当中国成为全球第二大开源贡献国,同时也是十年来创新力上升最快的经济体之一,一个更具包容性的创新体系已然破土。
(0)
DeepSeek的成功,不僅僅在於其模型的卓越性能,更在於其背後的技術創新和成本革命。在訓練階段,DeepSeek-R1大規模使用了強化學習技術,在僅有極少標註數據的情況下,極大提升了模型的推理能力。這種創新性的訓練方法,不僅降低了對大規模標註數據的依賴,還顯著降低了訓練成本。 相比之下,過往大型AI企業在構建類似模型時,往往需要耗費數億甚至數十億美元的資金。而DeepSeek-R1的訓練成本僅為數百萬美元,這一巨大的成本差異,無疑將改變AI產業的競爭格局。DeepSeek通過提高數據質量和改進模型架構,展示了一條高效訓練的新途徑。 DeepSeek的另一大亮點在於其開源策略。公司不僅公開了DeepSeek-R1的訓練技術,還允許全球企業和開發者共同開發和改進這一技術。這種開放共享的精神,不僅促進了技術的快速迭代和創新,更推動了AI技術的民主化進程。
(0)
成本效益:低成本与高回报 训练成本优势 。 DeepSeek-R1模型的训练成本仅为557.6万美元,远低于OpenAI GPT-4o的数亿美元,推理性能对标国际顶尖模型。硬件成本优化 蒸馏版硬件成本低至9.8万元起,企业可按需选择配置,避免资源浪费。例如,某中小企业通过蒸馏版一体机实现本地化知识库构建,年节省IT成本30%。 开源生态降低开发成本 通过开源模型和开放硬件接口,吸引开发者共同完善生态,降低企业定制化开发成本。安全与合规:数据隐私保障 本地化部署 所有数据在本地处理,避免敏感信息外泄,满足医疗、政务等高合规性需求。例如,某金融机构通过一体机实现客户数据本地化处理,数据泄露风险降低90%。权限管理与审计 支持多级权限控制和操作日志审计,确保数据访问的安全性。例如,某政府项目通过一体机实现数据分级管理,未授权访问事件减少80%。生态构建:开源与产业链协同 开源生态繁荣 通过开放模型市场(ModelStore)和分层分成模式,吸引超10万开发者入驻。例如,某创业团队开发的工业缺陷检测模型单月分发收入超200万元。国产化替代加速 与华为昇腾、中科曙光等国产供应链深度合作,推动国产芯片、服务器、光模块等产业链发展。例如,华为昇腾芯片订单排至2026年,国产化替代进程加速。
(0)
创新的训练方式。 知识蒸馏:这一技术就好比是老师和学生之间的知识传承。它把大型、性能强大模型所学到的知识传递给小模型,使得小模型的推理能力得到极大提升。比如在将原本为了解决复杂研究任务的大型模型的知识通过知识蒸馏,转化到可以应用于移动设备或者个人电脑上的小模型,让小模型在没有过于强大硬件支持下也能够完成一些基础的复杂推理任务。 纯强化学习:DeepSeek的部分模型(如R1)采用纯强化学习进行训练。这就意味着模型能够通过自我试错不断学习和优化。拿一个人工智能玩游戏的场景来说,模型在游戏中不断尝试不同的操作策略,根据这些操作的结果(奖励或者惩罚)来调整自己后续的策略。这种方式不但能减少对大量有标注数据的依赖,而且可以让模型在复杂任务的处理上表现得更加优秀。例如在人工智能自己探索复杂逻辑学问题的过程中,不断吸取错误尝试中的教训从而实现寻找到正确解答逻辑的结果。 多阶段训练和冷启动数据:多阶段训练是指在不同的训练阶段采用不同的训练方法。这类似于在人类的学习过程中,针对不同的学习阶段采用不同的教学方法。比如在基础学习阶段采用基础知识灌输的方式,在能力提升阶段则采用实战演练等更高层次的训练方式。冷启动数据则是在模型初始学习阶段就提供高质量的数据作为起点。就像在培养一棵大树苗时,一开始就给他肥沃优质的土壤(数据),让模型能够更加快速和全面地学习,进而提升模型的表现能力。
(0)