
未来,随着算力突破与大模型迭代,AI将实现对企业、单位及个人的全方位算力(透视)诊断,成为解放文职工作的核心力量。只需投喂(输入)足够数据(信息)和要求,AI便能自动(总结)生成简介(简历)、工作流程、撮合交易、信用报告、法律意见书、尽职调查和财务报告等各类事务痕迹,涵盖财务、法务、商务等多个领域,大幅替代重复性文职劳动。正如当下AI已能高效完成财务对账、合同审核等工作,未来其能力将进一步延伸,让文职人员从繁琐的文档整理、数据汇总中解脱,专注于更具创造性的决策工作。
但AI算力诊断的落地仍有明显局限。原始数字、代码等基础数据和信息的收集与统计,仍需人工介入把控,因其涉及场景特殊性与数据准确性要求,AI难以完全替代人工筛选与校验。更关键的是,隐私保护任重道远。AI诊断需获取大量企业与个人的敏感数据(数字资产),无论是企业商业机密还是个人隐私信息,都面临泄露、滥用的风险,即便有隐私计算等技术保障,也难以完全规避监管难题与安全隐患......
“最近办公室里,一半人在聊‘养龙虾’,一半人在学怎么‘养龙虾’。”与普通AI不同,它能够通过整合调用通信软件和大语言模型,在用户电脑上自主执行文件管理、邮件收发、数据处理等复杂任务。如果让其整理重要邮件,它会自动打开邮箱、筛选内容并撰写回复草稿,“全程无需用户动手”。“与ChatGPT等大语言模型不同,OpenClaw并非简单的聊天机器人,而是一个能够获得本地操作系统权限、调用各种工具、并按照自然语言指令规划步骤、自动执行复杂任务的‘数字员工’。”
但是,“龙虾”暗藏多重安全隐患。全民“养虾”的热情之下,第一批尝试者的体验却并非都是好评。“整体来说感觉不如网上宣传得那么神奇。”用好“龙虾”需要开放电脑上各类应用的控制权限,OpenClaw的核心能力在于对各类应用、工具的操作与控制。而想要实现这一功能,使用者必须向其开放大量的应用授权,包括邮箱、办公软件、各类平台后台等。“这就好比你想请人把家打扫干净,就得把家里所有房间的钥匙交给对方。”相应地,全量的应用授权可能会给部署“龙虾”的个人和企业带来数据泄漏风险。3月10日,国家互联网应急中心发布的《关于OpenClaw安全应用的风险提示》中明确指出,为实现“自主执行任务”的能力,该应用被授予了较高的系统权限。然而,由于其默认的安全配置极为脆弱,攻击者一旦发现突破口,便能轻易获取系统的完全控制权。《提示》显示,截至目前,OpenClaw已公开曝出多个高中危漏洞,一旦这些漏洞被网络攻击者恶意利用,则可能导致系统被控、隐私信息和敏感数据泄露的严重后果。“对于个人用户,可导致隐私数据(如照片、文档、聊天记录)、支付账户等敏感信息泄露;对于企业,可导致核心业务数据、商业机密泄露,造成难以估量的损失。”
为完成用户指令,“龙虾”在没有控制权限的情况下,可能在全网直接或间接收集大量各类数据,其获取数量、访问权限、数据敏感程度等,往往超出用户控制范围,严重的可能构成非法获取计算机信息系统数据罪、侵犯公民个人信息罪。“此外,目前很多用户为了图便利,找第三方花钱部署‘龙虾’,但这些第三方未必具备安全防护条件,极易导致设备数据暴露,攻击者可通过恶意代码执行等方式远程控制设备,窃取敏感信息。”
总之,热潮之中,更需守好安全底线。今年的政府工作报告提出,深化拓展“人工智能+”,促进新一代智能终端和智能体加快推广,推动重点行业领域人工智能商业化规模化应用,培育智能原生新业态新模式。“‘龙虾’的出现,为AI智能体的落地应用提供了新路径。若能规范使用,就能很好发挥现有AI智能体的作用,大幅提升个人和企业的工作效率。”推动“龙虾”良性发展,关键在于平衡便利与安全。“‘龙虾’等AI智能体呈现出的新技术特征,使现有的关于AI的法律问题更加复杂。”如最重要的“权责归属模糊”问题,当“龙虾”等AI智能体基于用户指令执行操作并造成侵权或其他违法违规行为时,开发者、部署者、使用者之间如何归责、确定责任的大小,需要法律进一步明确。
对于AI产品的开发者和服务提供者,建议:一方面,应积极履行个人信息保护法等规定的合规义务,如数据处理日志满足日志留存和可追溯的要求。另一方面,在具体操作中也应增强法律合规意识,如加强AI权限管理、加强提示词审核等,降低安全风险。国家互联网应急中心发布的《提示》也给出具体建议:相关单位和个人用户在部署和应用OpenClaw时,应对运行环境进行严格隔离,使用容器等技术限制OpenClaw权限过高问题,同时严格管理插件来源,持续关注补丁和安全中心。“用户在‘养龙虾’前,首先要全面评估其价值与风险,判断自己是否真的需要它解决问题,再决定是否部署。”使用过程中,也务必做好数据分区和隐私保护,“不盲目跟风,将自己的隐私和数据安全暴露于风险之中”。

综上,AI算力穿透诊断(感知)的发展是机遇与挑战并存。它能极大提升文职工作效率,推动职场转型,但人工辅助与隐私保护仍是不可忽视的核心问题。未来,唯有实现技术优化、监管完善与人工协同的有机结合,才能让AI真正发挥价值,在解放人力的同时,守护数据安全与隐私边界。各位读者你们怎么看?欢迎在评论区讨论。
一共有人参与 条评论

面对智能体技术不可逆转的演进趋势,我们既不能因噎废食、拒绝创新,也不能放任自流、坐视风险。必须坚持“发展赋能安全、安全保障发展”的辩证思维,系统构建覆盖技术、制度、社会三个层面的治理体系。
(1)
我们思想高度重合。专门把Ivan Zhao的《蒸汽、钢铁与无限大脑》找来看了一下,除掉自媒体的夸张与误读,他真正想说的 3 个核心判断:1. 执行力在贬值,判断力在升值,AI 让“写代码、写文案、做方案”变成低成本能力,决定做什么、不做什么才是稀缺资产。2. 知识不再是优势,结构化理解才是。不是“知道得多”,而是能把复杂世界压缩成可行动的模型;能跨领域迁移的人会拉开差距。3. 审美与品味成为硬能力。当产出无限时,选择、取舍、风格与价值观决定结果好坏——这是 AI 难以替代的部分。 一句话总括:AI 时代淘汰的不是努力,而是“没有方向的努力”。建议大家找来看看。
(0)
顶级大佬共识:AI下一场交互革命是智能体! 你以为豆包、Deepseek、ChatGPT、即梦......就是AI的全部了?错! 当大部分人还在沉迷于用大模型写周报、画图、聊天解闷时,掌握全球科技命脉的顶级大佬们,已经达成了惊人的一致共识: AI的下一个“终极形态”,不是更会说话的Chatbot,而是能帮你干活的「智能体(AI Agents)」! 这不是一次微小的技术升级,而是一场足以载入史册的交互革命。 看看这几位站在金字塔尖的男人都说了什么: 1、比尔·盖茨 断言:APP时代要结束了! 智能体将是下一代计算平台。这是一次堪比“从命令行到图形界面”的伟大飞跃。未来,你不需要打开十几个应用,只需告诉你的设备你要做什么,智能体帮你搞定一切。 2、微软CEO 纳德拉 定义:AI不仅是“界面”,更是“行动者”! 人类终于不用费劲学习如何操作计算机了,现在轮到计算机来真正理解人类,并主动执行任务。 3、谷歌CEO 皮查伊 确认:从“提供信息”转向“完成任务”! AI的重点不再是给你一堆搜索结果,而是直接帮你把事情做完。 4、前特斯拉AI主管 卡帕斯 预判:未来的操作系统格局变了! 大模型(LLM)是内核,而智能体就是在这个新系统上运行的应用程序。 总结一下大佬们的信号: 以前的AI,我们把它当“百科全书”或“陪聊工具”; 未来的AI(智能体),它将是你的“全能数字员工”、“超级管家”。 它能理解你的意图,自主调用工具,跨应用协作,直到把任务完成。 2023年是大模型元年,而现在,我们正站在“智能体元年”的门口。 你准备好迎接这个只需要“动动嘴”,剩下的交给智能体去做的世界了吗?
(1)
人工智能&人工智慧。推论 术(技巧及工具)&学(方法及工具理性)&识(理论知识及方法论)是科学的三个层级,称为“技术、方法、方法论”。技术靠发明,方法要创新,理论知识与方法论(通用的方法)源于发现(4%的智能理性因果推理,96%的智慧感性关联隐喻)。 因此,人工智能经历了“推理、感知、意识&行为(具身智能)”的现阶段,下阶段或将进入人工智慧“隐喻、表象蒸馏、潜意识&创造(具身智慧)”
(0)