警惕 AI 大模型“读心”:央视提醒含个人信息的图片别往朋友圈发
2025-11-11 发布
·
浏览15次
·
点赞0次
·
收藏0次
感谢网友 Roronoa_ 的线索投递!
11 月 11 日消息,在 2025 年世界互联网大会乌镇峰会上,数据安全成为被关注的焦点问题。据央视新闻报道,随着大模型在各行业深度应用,其安全风险呈现出复合化特征。看似简单的图片、文字信息等内容通过 AI 处理,可能泄露个人身份信息、人际关系等敏感内容。
网络专家指出,AI 大模型安全涵盖数据、基础设施与模型本身三大层面,其中个人使用中的数据安全风险尤为突出。有时只是上传了一张合影照片,想通过 AI 来处理一下,就有可能暴露个人信息。照片上传后,人像识别技术会把人物身份提取出来,还可能被不法分子进一步利用。

央视提醒含个人信息的图片千万别发在朋友圈,例如:
发布含有个人信息的火车票、飞机票、登机牌、车牌等票证,可能会被另有图谋的陌生人获取,从而导致个人隐私泄露。
身份证、护照、驾驶证、结婚证等证件中,都包含重要的个人隐私,不要随意在网上发布。
尽量不要发自己的定位信息,这些信息容易暴露真实的个人住址,有可能带来不必要的麻烦和风险。
避免发布老人和孩子的照片及姓名,以防不法分子利用这些信息进行违法活动,建议以分组的形式分享给亲人看。
AI 大模型窃取个人隐私的能力已越来越强,除了上述提到的个人无意泄露隐私外,在此前的报道中曾提到 Trail of Bits 研究人员开发出了一种新型 AI 攻击手法,将恶意提示词隐藏在高分辨率图片中,并在 AI 系统自动降采样处理后显现,再被大语言模型当作指令执行,最后窃取用户的隐私数据。

相关阅读:
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
点赞(0)
收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
登录后再评论
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社
