本报讯(记者武晓莉)日前,北京市第一中级人民法院驳回了百度有关不正当竞争的诉求,不支持百度单方面利用歧视性Robots协议(Robots协议是一个被放置在网站中的.TXT文件,为搜索引擎做出提示,设置允许与不允许两种语句,搜索引擎据此抓取或者不抓取该网页内容)打击竞争对手的行为,这意味着360可以继续抓取百度的网站内容。
百度与360公司爬虫机器人不正当竞争纠纷案,是搜索领域爬虫机器人竞争第一案,该案因关系互联网行业尤其是搜索引擎的基本游戏规则而广被业界、政府和网民关注。该案判决称,规则的缺失会让互联网行业陷入”丛林法则”的误区,市场竞争需要给每一个竞争者公平的竞争环境,即使是后进入市场的竞争者,也应该有公平的竞争机会。360已经多次向百度表示要求修改Robots协议,该主张是清晰明确的;而百度未能明确提出拒绝360的合理理由,故对《自律公约》签订之后,百度主张360构成不正当竞争的主张法院不予支持。
据了解,在360进军搜索行业之后,百度迅速采取了措施,将所有来自360搜索的用户请求跳转至百度首页,这就导致用户需要二次点击才能得到搜索的结果。此外,百度还在知道、百科、贴吧等产品里,在Robots文件中禁止360搜索抓取索引。但根据用户协议,这些内容的版权其实并不归属于百度,而是归生产和制造这些内容的用户所有。
但Robots协议只是行业惯用的说法,它既不是法律意义上的协议,也不是国际组织采纳的标准,因此不受任何机构保护。百度的Robots协议的特别之处,在于其白名单机制——允许除360之外的搜索引擎访问百度网站,而这种白名单在全球是绝无仅有的。“搜索引擎抓取其他网站数据来建立商业模式,却不允许别人抓取它的内容,于情于理于法都不对。”互联网实验室董事长方兴东认为,Robots协议绝对不能滥用,必须一视同仁,确保开放。
中国政法大学法制新闻研究中心研究员陈杰人指出,企业建立Robots协议白名单,只限制某些搜索企业进行内容抓取,具有一定的歧视性。其目的显然不是维护产品间游戏规则的健康有序,而是将Robots协议作为一种打压对手的竞争工具。
众所周知,作为全球最大的中文搜索引擎,百度搜索的强大,不仅体现在其爬虫机器人的抓取能力,还体现在百度自身就是一个有海量信息的内容网站。百度知道、百度百科、百度经验、百度音乐和百度旅游等内容网站囊括的信息量之巨,足以决定像360这样的搜索新手的生死存亡。如果360搜索无法提供上述百度内容网站的信息,必然会被网民认为信息不全而夭折。
互联网市场的竞争更需要公平合理的竞争规则,否则会让互联网行业最终走向垄断。届时,中国互联网将从互联互通的信息海洋变为一个个信息孤岛,开放、平等、协作、分享的互联网精神在搜索引擎服务领域将不复存在。