视觉 语言大模型 标签,匹配到约1个结果, 耗时0.0276秒
现实世界的提示词注入攻击:研究揭示一块标牌如何欺骗自动驾驶汽车
加州大学研究团队发现,自动驾驶汽车依赖的视觉-语言大模型存在安全漏洞,攻击者只需举起一块优化后的印刷标志,就能劫持AI决策,使其无视安全法则执行危险指令。在模拟测试中,攻击成功率最高可达95.5%。#自动驾驶安全##AI漏洞#...
2026-02-01
·
浏览20次
上一页
·
下一页
· 当前第1页
AI 中文社