[单选题]

Robots.txt有什么作用()

A . 使搜索引擎不能访问网站

B . 使百度不能访问网站

C . 使google不能访问网站

D . 控制搜索引擎访问网站

参考答案与解析:

相关试题

什么是robots.txt?

[问答题] 什么是robots.txt?

  • 查看答案
  • robots.txt的作用是()。

    [单选题]robots.txt的作用是()。A . 禁止搜索引擎蜘蛛抓取特定URLB . 给搜索引擎蜘蛛提供网站地图文件C . 以上都对

  • 查看答案
  • 你怎样使用robots.txt?

    [问答题] 你怎样使用robots.txt?

  • 查看答案
  • robots.txt支持的代码为()。

    [多选题] robots.txt支持的代码为()。A . AllowB . DisallowC . sitemapD . nofollow

  • 查看答案
  • robots.txt不支持的代码为()

    [单选题]robots.txt不支持的代码为()A .AllowB .DisallowC .Crawl-delayD .noindex

  • 查看答案
  • 某网站禁止百度蜘蛛索引所有网页,以下robots.txt文件正确的是:()

    [单选题]某网站禁止百度蜘蛛索引所有网页,以下robots.txt文件正确的是:()A . {User-agent:BaiduspiderDisallow:}B . {User-agent:BaiduspiderAllow:*}C . {User-agent:BaiduspiderAllow:/}D . {User-agent:BaiduspiderDisallow:/}

  • 查看答案
  • 在为禁止搜索引擎抓取网页设计的Robots.txt文件中,哪些指令标示禁止抓取(

    [单选题]在为禁止搜索引擎抓取网页设计的Robots.txt文件中,哪些指令标示禁止抓取()A .AllowB .DisallowC .nofollowD .noindex

  • 查看答案
  • Robots.txt文件是搜索引擎抓取网站第一个需要查看的文件,网站通过Robo

    [单选题]Robots.txt文件是搜索引擎抓取网站第一个需要查看的文件,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。在www.domain.com中,如禁止所有搜索引擎程序抓取www.domain.com/A下所有内容,Robots文件应如何设置?()A . "User-agent:*Disallow:/A"B . "User-agent:Allow:/A"C . "User-agent:Disallow:/"D .

  • 查看答案
  • 对于ROBOTS文件作用,哪些描述是正确()

    [多选题] 对于ROBOTS文件作用,哪些描述是正确()A . 防止网站非公开部份的网页被抓取B . 禁止搜索引擎访问某些文件C . 提升网站排名D . 避免收录重复内容

  • 查看答案
  • Robots,(become)increasinglyprevalentinfa

    [主观题]Robots,(become)increasinglyprevalentinfactoriesandindustrialplantsthroughoutthedevelopedworld,areprogrammedandengineeredtoperformindustrialtaskswithouthumanintervention.

  • 查看答案
  • Robots.txt有什么作用()