苏苏网赚论坛

 找回密码
 立即注册
查看: 1919|回复: 0

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息 ...

[复制链接]
跳转到指定楼层
楼主
发表于 2018-12-22 11:16:18 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
1. 什么是robots.txt文件?

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。
请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

2. robots.txt文件放在哪里?

robots.txt文件应该放置在网站根目录下。举例来说,当spider访问一个网站时,首先会检查该网站中是否存在[]这个文件,如果 Spider找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围
热帖推荐
回复

使用道具 举报

广告合作|最大的网赚客中文交流社区!十年老站!

GMT+8, 2024-5-10 05:44 , Processed in 0.062400 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.1 VIP版

© 2012-2022 苏苏网赚论坛 版权所有 | 10年老品牌

快速回复 返回顶部 返回列表