如今,AI智能体的高速发展为许多领域带来了前所未有的变革,在提升生活效率方面发挥了重要作用。例如,智能家居系统可以通过AI智能体实现自动化控制,如自动调节室内温度、控制家电开关等,从而节省了我们的时间和精力。
此外,AI智能体还可以协助我们进行日程管理、提醒事项等,帮助我们更好地安排生活和工作。而AI智能体的发展也需要考虑到其可能带来的风险和挑战。例如,随着AI技术的不断发展,智能体的自主性和学习能力可能会不断增强,这可能会增加其失控的风险。失控的AI智能体可能构成重大的安全威胁。它们可能会自主决定采取行动,而这些行动可能对人类构成危险。例如,自动驾驶汽车如果失控,可能会导致交通事故频发;军事用途的AI智能体如果失控,可能会引发武装冲突或战争。为了防止AI智能体失控,我们需要加强公众对AI技术的了解和认知,提高社会对AI风险的防范意识......

但如若未来存在人类无法掌控天上与地下的AI智能体(硅基AI机器人)时,那是否只好用激光等武器来摧毁呢?对此,您觉得呢?生命赋予了我们光阴,你又怎么忍心任凭那易逝的韶华于平庸中挥霍?生命赋予了我们理想,你又怎么忍心任凭那颗年轻气盛的心于消沉中陨落?生命赋予了我们力量,你又怎么忍心任凭那一腔热血的斗志于怯懦中消磨?那就让暴风雨来的更猛烈些吧!不在沉默中爆发,就在沉默中灭亡。“一万年太久,只争朝夕,”希望大家积极发声、呐喊!
一共有人参与 条评论


末尾这段话值得大家关注:我担心的是,在美国已经把人工智能用于军事实战的时候,如果我们拥有人工智能却不用于军事事务,是否会在一定程度上陷入被动。我想,这也是美国此次军事行动给我们带来的一些启发吧。
(0)
哪有什么民用!前两年的俄乌战争期间,马斯克的星链早就为美国军方服务! 他还装着像什么人类进步之星?!其实就是个阴谋家,是美国政府的帮凶。 星链失灵戳破马斯克科技普惠谎言,打破星链无处不在无处不能的神话。正义不会缺席,迟早会登场#正能量#国际局势
(0)

不过如果对方派出了尺寸特别小、数量特别多、价格特别低的无人机怎么办? 比如说“蜂群”。这类无人机拿激光一个个点射来不及,拿导弹和速射炮打又有点亏。 不要紧,我们还有第四套方案:微波武器。 这个大平板就相当于一个超大号微波炉,可以发射大功率微波直接将天上的无人机“烤熟”,而且是一烤一大片。 该武器的有效范围是3公里,堪称地图炮。而且连炮弹都不用,成本绝对低廉。 所以说永远不要在成本赛道上跟东大耍心眼。 相比之下,美军目前防御无人机的方式还停留在人肉操作机关炮的水平上。 就在去年,他们为了防御胡塞老哥的无人机,直接把LAV轮式装甲车开上了圣安东尼奥级船坞登陆舰的甲板。 该装甲车上装备有一门25毫米机关炮,至于雷达和自动瞄准系统,那是没有的。 打不打得中全凭大兵们的视力和手感。 这种配置在我军连入门的门槛都摸不到。 其实各国地面部队之所以会被无人机欺负得这么狼狈,并不是因为无人机有多厉害,而主要是专业反无人机装备的数量不足。 不过我们不存在这样的问题,因为我们在无人机和反无人机两个领域都拥有全球最大的产能。 所以我们的反无人机方案总结起来就十个字: 饱和式搜索、饱和式打击。 相控阵雷达贴满整支部队、天空布满察打一体无人机、地面布满察打一体无人车。 这就是饱和式搜索,任何一个角落都不会被遗漏。 再加上有全体标配的光电/红外瞄准系统和AI辅助火控系统,无人机只要一冒头,就会被各型导弹、炮弹、激光、微波...一拥而上。 这就是饱和式打击,任何一个目标都不会被放走。 原理并不复杂,关键是真的能造出这么多装备和弹药。作者:观雨者
(1)
主动视觉感知主动视觉感知系统需要基本能力,如状态估计、场景感知和环境探索。如图7所示,这些能力已在视觉同时定位与地图构建(vSLAM)、3D场景理解(3D Scene Understanding)和主动探索(Active Exploration)等领域进行了广泛研究[118],[119]。这些研究领域有助于开发鲁棒的主动视觉感知系统,促进在复杂、动态环境中改进环境交互和导航。我们简要介绍这三个组成部分,并在表IV中总结了每个部分中提到的方法。图7 展示了主动视觉感知的示意图。视觉SLAM和3D场景理解为被动视觉感知提供了基础,而主动探索可以为被动感知系统提供主动性。这三个要素相辅相成,对主动视觉感知系统至关重要。视觉同时定位与地图构建(Visual Simultaneous Localization and Mapping, vSLAM):同时定位与地图构建(Simultaneous Localization and Mapping, SLAM)是一种技术,它可以在未知环境中确定移动机器人的位置,同时构建该环境的地图[121],[122]。基于范围的SLAM[123]–[125]使用测距仪(例如,激光扫描仪、雷达和/或声纳)创建点云表示,但成本高昂且提供的环境信息有限。视觉SLAM(vSLAM)[118],[119]使用机载摄像头捕获帧并构建环境的表示。由于其硬件成本低、在小规模场景中精度高以及能够捕获丰富的环境信息,vSLAM已经变得流行。传统的vSLAM技术可以分为传统vSLAM和语义vSLAM[119]。传统vSLAM系统使用图像信息和多视图几何原理估计未知环境中机器人的姿态,构建由点云组成的低级地图(例如,稀疏地图、半密集地图和密集地图),如基于滤波器的方法(例如,MonoSLAM[75],MSCKF[76]),基于关键帧的方法(例如,PTAM[77],ORB-SLAM[78]),和直接跟踪方法(例如,DTAM[79],LSD-SLAM[80])。由于低级地图中的点云不直接对应环境中的对象,这使得它们难以被具身机器人解释和利用。然而,语义概念的出现,特别是与语义信息解决方案集成的语义vSLAM系统,显著提高了机器人感知和导航未探索环境的能力。早期的工作,如SLAM++[81],使用实时3D对象识别和跟踪创建高效的对象图,实现了鲁棒的闭环、重定位和对象检测。CubeSLAM[82]和HDP-SLAM[83]在地图中引入了3D矩形,构建了一个轻量级的语义地图。QuadricSLAM[84]采用语义3D椭球来实现复杂几何环境中对象形状和姿态的精确建模。So-SLAM[85]在室内环境中结合了完全耦合的空间结构约束(共面、共线和接近)。为了应对动态环境的挑战,DS-SLAM[86],DynaSLAM[87]和SG-SLAM[88]采用语义分割进行运动一致性检查和多视图几何算法来识别和过滤动态对象,确保稳定的定位和地图构建。OVD-SLAM[89]利用语义、深度和光流信息来区分动态区域,无需预定义标签,实现更准确和鲁棒的定位。GSSLAM[90]利用3D高斯表示,通过实时可微的splatting渲染流水线和自适应扩展策略,在效率和准确性之间取得平衡。3D场景理解:3D场景理解旨在区分对象的语义、确定它们的位置,并从3D场景数据中推断几何属性,这在自动驾驶[126]、机器人导航[127]和人机交互[128]等方面是基础性的。场景可能使用3D扫描工具(如激光雷达或RGB-D传感器)记录为3D点云。与图像不同,点云是稀疏的、无序的和不规则的[120],这使得场景解释极具挑战性。近年来,提出了许多深度学习方法用于3D场景理解,可以分为基于投影的方法、基于体素的方法和基于点的方法。具体来说,基于投影的方法(例如,MV3D[91],PointPillars[92],MVCNN[93])将3D点投影到各种图像平面上,并使用2D CNN基础结构进行特征提取。基于体素的方法将点云转换为规则的体素网格,以便于3D卷积操作(例如,VoxNet[94],SSCNet[95]),一些工作通过稀疏卷积提高效率(例如,MinkowskiNet[96],SSCNs[97],Embodiedscan[98])。相比之下,基于点的方法直接处理点云(例如,PointNet[99],PointNet++[100],PointMLP[101])。最近,为了实现模型的可扩展性,基于Transformers的(例如,PointTransformer[102],Swin3d[103],PT2[104],PT3[105],3D-VisTA[106],LEO[107],PQ3D[108])和基于Mamba的(例如,PointMamba[109],PCM[110],Mamba3D[111])架构已经出现。值得注意的是,除了直接使用点云的特征外,PQ3D[108]还无缝结合了多视图图像和体素的特征,以增强场景理解能力。主动探索:前面介绍的3D场景理解方法赋予了机器人以被动方式感知环境的能力。在这种情况下,感知系统的信息获取和决策不会随着场景的发展而适应。然而,被动感知为主动探索提供了重要的基础。鉴于机器人能够移动并与周围环境频繁互动,它们也应该能够主动探索和感知环境。图7显示了它们之间的关系。当前的方法通过与环境互动或改变观察方向来获取更多视觉信息 [112],[113]。例如,Pinto等人[112]提出了一个好奇的机器人,它通过与环境的物理互动学习视觉表示,而不是仅仅依赖于数据集中的类别标签。作者:张长旺
(0)


