同时,可能由于意识到“Robots协议”有可能被恶意使用,创始人于1997年向互联网工程任务组(IETF)提交申请,试图把该协议作为其组织规范,但被IETF拒绝。
国际电信联盟 被指也拒绝“Robots协议”
据知情人称,之后国际电信联盟(ITU)、W3C的规范也同样拒绝采纳“Robots协议”。
欧美电信专家担心,由于“Robots协议”包含排斥性条款,搜索巨鳄可能会利用这项协议的条款,迫使某些热门网站与其签署排他性协议,将后起竞争者挡在门外,维护“垄断”。
谷歌、雅虎、微软等的“Robots协议”都旨在防止搜索爬虫抓取到涉及用户登录信息,同时对所有爬虫一视同仁。
专家说法
诉讼反映互联网公司价值观缺失
互联网业内人士表示, “3B大战”反映出互联网公司价值观的缺失。
“Robots协议”是个很好的东西,但是百度这次使用Robots协议的手法和目的来看,百度希望把它当成一个竞争攻略,为自己建一个竞争壁垒。由此,互联网基本的信息自由完全变了味。
互联网业内人士认为,百度不允许360搜索抓取百度百科、百度知道、百度贴吧的内容是因为这三个产品的流量占了百度的10%,对百度来说也是一项巨大的权益。
互联网业内人士认为,“Robots协议”本身不可能成为法律保护的对象。垄断者通过“Robots协议”的目的其实是给自己加个罩子,用法律对它进行保护。
互联网业内人士指出,“Robots协议”争议的实质是内容之争。
百度在第四代搜索技术中已经落后,过激的反应肯定是来自内心的恐惧,滥用Robots协议阻击360,其实是百度焦虑的一种体现。
(完)
- 科技
- 新闻
评论