360胡振全谈AI面貌正在改变的困惑:用现有的身份识别技术很难看透它。

近日,演员文正英在直播间自曝AI变脸,直播内容为盗版。他出现在多个直播间推销产品引发热议。谈到正在改变人工智能面貌的颠覆,360数字安全集团总裁胡振全表示,目前人工智能生成的内容是如此真实,用现有的识别和识别技术仍然很难“看到”它,公司正致力于克服它。目前,党政机关、政府机关等有很多与这些问题相关的安全需求。胡振全说道。图片来源主办方:11月6日至9日,2025世界互联网大会乌镇峰会在浙江乌镇举行。胡振全在人工智能前沿正式发布《模型或大规模安全白皮书》(以下简称《白皮书》)ce模型论坛,并会后接受南都等媒体采访。今年9月,国家计算机网络应急技术协调中心公布了我国大规模人工智能模型首次真实公网测试结果。共发现各类安全漏洞281个,其中大型机型漏洞177个,占比60%以上。胡振全指出,当前大规模AI模型产品面临许多传统安全领域之外的新安全风险,攻击手段已从单一技术层面的威胁演变为系统风险。特别是智能代理到来以来,攻击门槛越来越低,风险呈指数级增长。 《白皮书》通过对国内发生的多起典型大型模型安全事件的分析,系统总结了威胁大型模型安全的五大风险。到 2025 年,基础设施安全风险将在全球范围内出现。具体而言,基础设施安全风险包括设备控制、供应链漏洞、拒绝服务攻击和计算资源利用。内容安全风险包括核心价值侵犯、虚假或非法内容、大规模模型错觉和即时注入攻击。数据泄露、未经授权访问、侵犯隐私和知识产权等数据库和知识安全风险日益突出。随着智能代理变得更加自主,调用插件、调度计算能力和数据传输等方面的安全限制变得更加模糊。用户侧安全风险包括权限控制、API调用监控、恶意脚本执行、MCP执行安全等。这些风险相互交织,形成传统安全解决方案难以应对的复杂威胁矩阵,严重威胁个人权利、企业发展乃至国家安全。l 安全。面对上述复杂挑战,白皮书提出多轨治理策略。插件安全重点关注模型的外部防护,通过“用模型控制模型”,实现对计算主机、软件生态、输入输出内容、模型幻象的主动监控和防御。我知道平台的原生安全重点关注来自大规模模型、知识库、代理和客户的数据,并将安全功能嵌入到核心组件中,以加强支撑组件的安全性和跨流程的合规控制。会后,胡振全接受了南都等媒体采访。今年年初以来,AI智能体领域似乎经历了从热情到怀疑的“过山车”,时不时会出现关于它们是否“难以使用”或“不可靠”的争议。胡振全在谈到AI智能体的发展前景时,态度比较乐观。我在他看来,作为大规模应用和模型实现的主要载体,智能代理在发展过程的早期阶段受到争议是正常的,但这并不影响其成为人工智能应用的常规方式。 “举个简单的例子,想想我们第一次接触计算机的时候,当时计算机性能比较低,网速很慢,各种应用经常滞后。现在的AI智能体也处于类似的阶段。他说,智能体就像数字世界中的机器人,大模型对应大脑。智能体弥补了没有四肢的“缺点”,能够自行转向技术,识别环境、分析判断、计划执行。”这个伟大的模型已经从一个简单的聊天机器人偶尔会犯一些错误,影响多个企业的技术工具。这只是几个年。虽然目前的智能代理效率还没有想象中那么高,但很快就会有一个大的飞跃。”撰文:南都N视频记者 乌镇 黄文阳
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注