欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    2022年2022年禁止搜索引擎 .pdf

    • 资源ID:39889638       资源大小:52.93KB        全文页数:3页
    • 资源格式: PDF        下载积分:4.3金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要4.3金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    2022年2022年禁止搜索引擎 .pdf

    转一、什么是 robots.txt文件?搜索引擎通过一种程序robot(又称 spider),自动访问互联网上的网页并获取网页信息。您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot 访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。二、robots.txt文件放在哪里?robots.txt文件应该放在网站根目录下。举例来说,当robots 访问一个网站(比如 http:/)时,首先会检查该网站中是否存在http:/ URL相应的 robots.txt的 URLhttp:/www.w3.org/http:/www.w3.org/robots.txt http:/www.w3.org:80/http:/www.w3.org:80/robots.txt http:/www.w3.org:1234/http:/www.w3.org:1234/robots.txt http:/w3.org/http:/w3.org/robots.txt三、robots.txt文件的格式 robots.txt文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL,or NL 作为结束符),每一条记录的格式如下所示::。在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent 开始,后面加上若干Disallow行,详细情况如下:User-agent:该项的值用于描述搜索引擎robot 的名字,在robots.txt文件中,如果有多条 User-agent 记录说明有多个 robot 会受到该协议的限制,对该文件来说,名师资料总结-精品资料欢迎下载-名师精心整理-第 1 页,共 3 页 -至少要有一条 User-agent 记录。如果该项的值设为*,则该协议对任何机器人均有效,在 robots.txt文件中,User-agent:*这样的记录只能有一条。Disallow:该项的值用于描述不希望被访问到的一个URL,这个 URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的 URL均不会被 robot 访问到。例如Disallow:/help对/help.html 和/help/index.html都不允许搜索引擎访问,而 Disallow:/help/则允许 robot 访问/help.html,而不能访问/help/index.html。任何一条 Disallow记录为空,说明该网站的所有部分都允许被访问,在/robots.txt文件中,至少要有一条Disallow记录。如果/robots.txt是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。四、robots.txt文件用法举例例 1.禁止所有搜索引擎访问网站的任何部分下载该 robots.txt文件User-agent:*Disallow:/例 2.允许所有的 robot 访问(或者也可以建一个空文件/robots.txt file)User-agent:*Disallow:例 3.禁止某个搜索引擎的访问User-agent:BadBot Disallow:/例 4.允许某个搜索引擎的访问User-agent:baiduspider Disallow:User-agent:*Disallow:/例 5.一个简单例子在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不要写成 Disallow:/cgi-bin/tmp/。User-agent:后的*具有特殊的含义,代表 any robot,所以在该文件中不能有Disallow:/tmp/*or Disallow:*.gif这样的记录出现.User-agent:*Disallow:/cgi-bin/Disallow:/tmp/Disallow:/joe/名师资料总结-精品资料欢迎下载-名师精心整理-第 2 页,共 3 页 -五、robots.txt文件参考资料 robots.txt文件的更具体设置,请参看以下链接:Web Server Administrators Guide to the Robots Exclusion Protocol HTML Authors Guide to the Robots Exclusion Protocol The original 1994 protocol description,as currently deployed The revised Internet-Draft specification,which is not yet completed or implemented名师资料总结-精品资料欢迎下载-名师精心整理-第 3 页,共 3 页 -

    注意事项

    本文(2022年2022年禁止搜索引擎 .pdf)为本站会员(C****o)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开