英国《卫报》限制互联网档案馆访问文章:防止 AI 爬虫间接抓取内容

2026-02-02 发布 · 浏览18次 · 点赞0次 · 收藏0次

2 月 2 日消息,英国《卫报》商业事务和授权主管 Robert Hahn 向 NiemanLab 确认,为最大程度降低 AI 通过快照间接抓取其内容的可能性,这家有着超 200 年历史的老牌媒体限制了互联网档案馆 (Internet Archive) 对其文章的访问

《卫报》认为互联网档案馆提供的 API 对于想要获取该媒体内容的 AI 公司而言是一个理想的替代入口,因此其已将自身网站排除在该 API 的适用范围之外;此外《卫报》还让其文章页面从互联网档案馆下线。互联网档案馆依旧可存储《卫报》的地区主页、专题页面和其它主页的快照。

AI 的发展对开放的传统互联网精神带来了新的挑战,“负责任地抓取数据”理论上有利于生态各方却难以落地实践。注意到,在《卫报》之前《纽约时报》、Reddit 等也禁止或限制了互联网档案馆对其内容的访问。

英国《卫报》限制互联网档案馆访问文章:防止 AI 爬虫间接抓取内容 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。