Google呼吁更新"robots.txt"以适应新兴AI场景
Google呼吁更新"robots.txt"以适应新兴AI场景Google副总裁在博客中表示,随着新技术的出现,网络社区有必要发展支持网络未来发展的标准和协议。Robots.txt,一个于近30年前由社区主导的创建的网络标准,已被证明是网络出版商控制搜索引擎抓取其内容的一种简单透明的方式。(Robots.txt是一个文本文件,用于控制搜索引擎爬虫在网站上的抓取行为。其本身是非强制性的,不具备法律效应。)他们认为现在应当为网络和人工智能社区探索其他机器可读方法,以便网络发布者选择和控制新兴人工智能和研究用例,并将为此启动。消息来源:投稿:@ZaiHuaBot频道:@TestFlightCN
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人