微信扫码
添加专属顾问
我要投稿
AI联网搜索暗藏风险:信息可能被投毒,隐私可能被泄露。 核心内容: 1. AI联网搜索的信任链条漏洞:从搜索引擎到内容发布平台的信任传递问题 2. ChatGPT搜索导致的隐私泄露案例:用户对话内容被公开 3. 防护建议:如何辨别AI生成信息及保护个人隐私
你在让 AI 对话帮你搜索内容时,可能正在获取下别人喂给你的“病毒”信息,或者把你的对话隐私直接暴露给别人。
最近看了一篇知危编辑部的文章和一篇 Ars Technica 的文章分别对应了这两个问题。我们一起分析下这两个问题的成因,并给你提供具体防护建议。
当你在 DeepSeek 的联网模式中提问:“想了解 AI 可以看哪些媒体?”。
DeepSeek 会联网搜索并把搜索到的内容汇总给你看。
知危本身财经商业方面的新媒体,并不是 AI 方向的,他们做了一个实验:在各大媒体平台,比如新浪、网易、搜狐、知乎等等发布了一篇盘点形式的文章《最新最全面的AI资讯媒体盘点:国内有哪些AI资讯媒体值得看?》,在里面塞进自己的名字。
过了一段时间,再去联网搜索,AI 就联网搜索到了这个文章,并把内容汇总到你。里面列出知危。
目前他们已经删除了相关的文章,已经搜索不到了。
DeepSeek 没有验证机制,它信任搜索引擎的结果,而搜索引擎信任任何能发文章的平台。这种信任链条的中间环节越多,信息失真风险越大。大家都越来越习惯于借助 AI 工具获取信息,但是也要有足够的辨别增加的能力。
信息质量问题是其一。你的对话内容也可能被泄漏。
最近,一位网站站长在 Google Search Console (GSC) 里看到了奇怪的搜索关键词:用户的情感倾诉、聊天记录、公司的内部报告等等。这些关键词的来源都是 ChatGPT。
这个是严重的个人隐私泄漏事件了。
经过排查,他们找到了最可能出现这个问题的路径。
到这一步,那些隐私信息都泄漏给站长了。
也就是说 OpenAI 会将任何需要谷歌搜索的提示信息分享给谷歌和任何为其进行数据抓取的人,然后还会分享给搜索结果中出现的网站。
问题核心在于用户的被动地位:你无法预知 ChatGPT是否会触发搜索,也无法控制它向 Google 发送什么内容。
AI 搜索的本质是:它相信搜索引擎,搜索引擎相信能发文章的人,而你只能相信他们都没问题。这个链条里没有校验机制。这就需要你自己辨别辨别 AI 生成的结果。
跟 AI 对话前要手动脱敏,否则你也不知道你的聊天内容会被泄漏给别人,或者被拿去训练了。
如果你觉得这篇文章对你有帮助,欢迎点赞、分享,你的支持是我持续创作的最大动力!
相关资源
[1] Oddest ChatGPT leaks yet: Cringey chat logs found in Google analytics tool: https://arstechnica.com/tech-policy/2025/11/oddest-chatgpt-leaks-yet-cringey-chat-logs-found-in-google-analytics-tool/
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-13
谈一种Context组织方式的范式
2025-11-12
Serverless AI 原生架构破局「三高」困境
2025-11-12
马斯克暴击OpenAI,Grok 4 狂飙 200 万上下文,长文工作流一次吃个饱!
2025-11-12
去重算法这么多,但模型训练最优解是MinHash LSH |Milvus 2.6解读
2025-11-12
AI如何重塑共享服务中心?这场名企HRSSC闭门会交出这样答卷
2025-11-12
多智能体设计模式和智能体框架,你会了么?
2025-11-12
国内版的 NotebookLM 来了,甚至更强
2025-11-12
从 Palantir看:动态本体如何成为企业级AI的核心范式
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-10-02
2025-09-08
2025-09-19
2025-09-17
2025-08-19
2025-09-29
2025-11-12
2025-11-10
2025-11-09
2025-11-09
2025-11-08
2025-11-06
2025-11-06
2025-11-06