国产成人freesex在线_亚洲精品中文字幕在线视频 _久久久久视频综合_十八禁高潮呻吟视频 _999久久久精品免费观看国产_国产男女超爽视频在线观看_成人三级做爰电影_久久久久国产精品人妻一区二区

<strong id="17c32"><button id="17c32"></button></strong>
  • <ins id="17c32"></ins>
      1. <strong id="17c32"></strong>

        網(wǎng)站robots文件常見問題總結(jié)

        日期:2022-11-03 10:55:44     閱讀:198     文章來源:本站     標簽: 網(wǎng)站優(yōu)化技術(shù) 網(wǎng)站robots協(xié)議 SEO網(wǎng)站優(yōu)化

          什么是robots.txt文件?

          搜索引擎使用spider程序自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。spider在訪問一個網(wǎng)站時,會首先會檢查該網(wǎng)站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個robots.txt,在文件中聲明 該網(wǎng)站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

          請注意,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請勿建立robots.txt文件。

        網(wǎng)站robots常見問題

          robots.txt文件放在哪里?

          robots.txt文件應(yīng)該放置在網(wǎng)站根目錄下。舉例來說,當(dāng)spider訪問一個網(wǎng)站(比如http://yixueqianyan.com)時,首先會檢查該網(wǎng)站中是否存在http://yixueqianyan.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據(jù)這個文件的內(nèi)容,來確定它訪問權(quán)限的范圍。

          在robots.txt中禁止百度收錄,百度搜索結(jié)果中還會顯顯示嗎?

          如果其他網(wǎng)站鏈接了您robots.txt文件中設(shè)置的禁止收錄的網(wǎng)頁,那么這些網(wǎng)頁仍然可能會出現(xiàn)在百度的搜索結(jié)果中,但您的網(wǎng)頁上的內(nèi)容不會被抓取、建入索引和顯示,百度搜索結(jié)果中展示的僅是其他網(wǎng)站對您相關(guān)網(wǎng)頁的描述。

          robots.txt文件用法舉例

          1、禁止所有搜索引擎訪問網(wǎng)站的任何部分

          Uer-agent: *

          Disallow: /

          2、允許所有的robot訪問

          Uer-agent: *

          Allow: /

          3、僅禁止Baiduspider訪問您的網(wǎng)站

          Uer-agent: Baiduspider

          Disallow: /

          4、僅允許百度Baiduspider訪問您的網(wǎng)站

          Uer-agent: Baiduspider

          Allow: /

          Uer-agent: *

          Disallow: /

          5、僅允許百度Baiduspider和谷歌Googlebot訪問

          Uer-agent: Baiduspider

          Allow: /

          Uer-agent: Googlebot

          Allow: /

          Uer-agent: *

          Disallow: /

          6、禁止spider訪問特定目錄

          Uer-agent: *

          Disallow: /目錄名稱

          Disallow: /某某目錄

          7、允許訪問特定目錄中的部分url

          Uer-agent: *

          Allow: /tmp/bin

          8、使用“*”限制訪問url

          Uer-agent: *

          Disallow: /某某目錄/*.html

          9、使用“$”限制訪問URL(僅允許訪問以“.html”為后綴的URL)

          Uer-agent: *

          Disallow: /

          Allow: /*.html$

          10、禁止訪問網(wǎng)站中的所有的動態(tài)頁面

          Uer-agent: *

          Disallow: /*?*

          11、禁止Baiduspider抓取網(wǎng)站上的所有圖片

          Uer-agent: Baiduspider

          Disallow: /*.jpg$

          Disallow: /*.jpeg$

          Disallow: /*.gif$

          Disallow: /*.png$

          Disallow: /*.bmp$

          12、僅允許Baiduspier抓取網(wǎng)頁和.gif格式圖片

          Uer-agent: Baiduspider

          Allow: /*.gif$

          Disallow: /*.jpg$

          Disallow: /*.jpeg$

          Disallow: /*.png$

          Disallow: /*.bmp$

          13、僅禁止Baiduspider抓取.jpg格式圖片

          Uer-agent: Baiduspider

          Disallow: /*.jpg$

          robots.txt文件的格式

          "robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

          "<field>:<optional space><value><optional space>"

          在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細情況如下:

          User-agent:

          該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受 到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設(shè)為*,則對任何robot均有效, 在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

          Disallow:

          該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被 robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問 /help/index.html。"Disallow:"說明允許robot訪問該網(wǎng)站的所有url,在"/robots.txt"文件中,至少要有一 條Disallow記錄。如果"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。

          Allow:

          該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭的 URL 是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個網(wǎng)站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現(xiàn)允許訪問一部分網(wǎng)頁 同時禁止訪問其它所有URL的功能。

          使用"*"and"$":Baiduspider支持使用通配符"*"和"$"來模糊匹配url。"$" 匹配行結(jié)束符。"*" 匹配0或多個任意字符。

        北京愛品特SEO網(wǎng)站優(yōu)化提供專業(yè)的網(wǎng)站SEO診斷服務(wù)、SEO顧問服務(wù)、SEO外包服務(wù),咨詢電話或微信:13811777897 袁先生 可免費獲取SEO網(wǎng)站診斷報告。

        北京網(wǎng)站優(yōu)化公司 >> SEO資訊 >> SEO技術(shù)技巧 >> 網(wǎng)站robots文件常見問題總結(jié)    本站部分內(nèi)容來源于互聯(lián)網(wǎng),如有版權(quán)糾紛或者違規(guī)問題,請聯(lián)系我們刪除,謝謝!

        上一篇:Robots.txt文件要如何正確設(shè)置

        下一篇:關(guān)于網(wǎng)站robots協(xié)議,看這篇就夠了

        返回列表
        SEO案例
        OUR ADVANTAGE WORKS

        售后響應(yīng)及時

        全國7×24小時客服熱線

        數(shù)據(jù)備份

        更安全、更高效、更穩(wěn)定

        價格公道精準

        項目經(jīng)理精準報價不弄虛作假

        合作無風(fēng)險

        重合同講信譽,無效全額退款
        松原市| 泽库县| 牟定县| 万荣县| 靖江市| 什邡市| 中卫市| 吉木乃县| 双峰县| 西吉县| 崇文区| 句容市| 武隆县| 迭部县| 大宁县| 滕州市| 洪江市| 库尔勒市| 佛坪县| 板桥市| 滨州市| 榆社县| 新竹市| 新乡县| 瑞安市| 南昌市| 泰宁县| 兰州市| 抚顺县| 舞钢市| 陇西县| 通江县| 永春县| 苏尼特左旗| 衡东县| 永济市| 东港市| 南宫市| 花莲县| 溧水县| 星子县|