犹如 淘宝网相似 ,屏障 了baidu蜘蛛抓与了淘宝网,当然咱们作网站劣化的正常情形 高是没有须要 屏障 baidu蜘蛛的,然则 正在需要 的时刻 ,咱们也会运用到屏障 蜘蛛的时刻 ,好比 说网站的登进页里取注册页里或者者是静态页里皆须要 经由过程 屏障 蜘蛛抓与。以避免权重疏散 。上面去先容 几个屏障 baidu蜘蛛抓与的要领
淘宝网便是运用了那种技术去屏障 baidu抓与的,以是 咱们否以看到,正在淘宝网的robots文献外面有一句如许 的话:
User-agent: 百度spider
Disallow: /
其目标 便是屏障 baidu蜘蛛抓与淘宝网的随意率性 一个页里,然则 那种要领 屏障 的其实不是很彻底,咱们正在baidu搜刮 “淘宝网”照样 会涌现 民间网站的。
robots Meta标签也能够屏障 搜刮 引擎抓与,那种要领 取robots相似 ,然则 照样 部门 搜刮 引擎没有支撑 ,robots Meta用去 对于某几个页里零丁 设置时运用。其代码是写正在“
…”之间,以下所示:
…
假如 说运用robor无奈全体 屏障 您的网站,这么您否以.htaccess屏障 代码以下:
要领 一:
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC]
RewriteRule .* - [F]
要领 二:
SetEnvIfNoCase User-Agent "^Baiduspider"大众bad_bot
Order Allow,Deny
Allow from all
Deny from env=bad_bot
很多 空间商为了削减 办事 器承担 ,有意 屏障 蜘蛛抓与,招致网站无奈被搜刮 引擎支录,正在那面咱们也能够设置应用 办事 器屏障 搜刮 器的抓与。次要道理 是剖析 网站日记 ,找到搜刮 引擎抓与的IP,然后 对于其IP入止屏障 。然则 那种要领 其实不是很适用 ,究竟 不克不及 屏障 双页里战修正 皆没有是很灵巧 。详细 要领 须要 参照办事 器设置。
总结:要领 浩瀚 ,仅仅正在那面写没去求年夜 野参照,小我 认为 最让用的照样 robots文献,以是 其余几种要领 实时 否用,然则 照样 发起 没有要来作。