国产成人freesex在线_亚洲精品中文字幕在线视频 _久久久久视频综合_十八禁高潮呻吟视频 _999久久久精品免费观看国产_国产男女超爽视频在线观看_成人三级做爰电影_久久久久国产精品人妻一区二区

<strong id="17c32"><button id="17c32"></button></strong>
  • <ins id="17c32"></ins>
      1. <strong id="17c32"></strong>

        Robots.txt文件要如何正確設(shè)置

        日期:2022-11-03 09:43:08     閱讀:203     文章來(lái)源:本站     標(biāo)簽: 網(wǎng)站robots協(xié)議 網(wǎng)站優(yōu)化技術(shù) 網(wǎng)站seo優(yōu)化方案

          想要正確寫(xiě)好網(wǎng)站的robots文件,首先則必須robots文件的進(jìn)行基本的了解:

          例如:robots文件中User-agent后面加上*號(hào),則表示允許所有搜索引擎抓取收錄網(wǎng)站,如果User-agent后面加的是Baiduspider,則表示的是只允許百度搜索引擎抓取網(wǎng)站,其它的搜索引擎蜘蛛不允許抓取。

        網(wǎng)站robots協(xié)議

          Robot.txt文件

          一、robots.txt文件基礎(chǔ)知識(shí)講解

          Disallow:這個(gè)函數(shù)后面加某個(gè)目錄url地址則表示的意思是禁止搜索引擎抓取收錄的頁(yè)面,如果禁止全站抓取索引,則Disallow:后面不加任何東西,

          Allow:這個(gè)函數(shù)后面加的數(shù)值表示的意思是允許搜索引擎訪問(wèn)索引的URL地址,這個(gè)數(shù)值可以是一條完整的URL路徑地址,也可以是某些url目錄地址的前綴,例如“Allow:/zhishi”,表示的是允許搜索引擎訪問(wèn)/zhish.html、/seozhishi.html,也可以是/zhish/123.html,網(wǎng)站其它的url地址既沒(méi)有加Allow也沒(méi)有加Disallow,那么這些url地址就是默認(rèn)允許被訪問(wèn)的,所以Allow和Disallow一般都是搭配使用的,如果要實(shí)現(xiàn)允許搜索引擎訪問(wèn)一部分網(wǎng)頁(yè)同時(shí)又要禁止訪問(wèn)其它所有URL的功能,那么我們可以使用通配符”*”and”$”:Baiduspider,”*”和”$”是用來(lái)來(lái)模糊匹配url地址的。

          “*” 可以匹配0或多個(gè)任意字符;

          “$” 則表示匹配行結(jié)束符。

          第二:設(shè)置Robots.txt文件時(shí)應(yīng)注意哪些事項(xiàng)?

          robots文件往往放置于根目錄下,包含一條或更多的記錄,這些記錄通過(guò)空行分開(kāi)(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

          “<field>:<optional space><value><optionalspace>”

          在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開(kāi)始,后面加上若干Disallow和Allow行,詳細(xì)情況如下:

          User-agent:該項(xiàng)的值用于描述搜索引擎robot的名字。在”robots.txt”文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì)受到”robots.txt”的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則對(duì)任何robot均有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。如果在”robots.txt”文件中,加入”User-agent:SomeBot”和若干Disallow、Allow行,那么名為”SomeBot”只受到”User-agent:SomeBot”后面的 Disallow和Allow行的限制。

          Disallow:該項(xiàng)的值用于描述不希望被訪問(wèn)的一組URL,這個(gè)值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項(xiàng)的值開(kāi)頭的URL不會(huì)被 robot訪問(wèn)。例如”Disallow:/help”禁止robot訪問(wèn)/help.html、/helpabc.html、/help/index.html,而”Disallow:/help/”則允許robot訪問(wèn)/help.html、/helpabc.html,不能訪問(wèn)/help/index.html?!盌isallow:”說(shuō)明允許robot訪問(wèn)該網(wǎng)站的所有url,在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robots.txt”不存在或者為空文件,則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開(kāi)放的。

          Allow:該項(xiàng)的值用于描述希望被訪問(wèn)的一組URL,與Disallow項(xiàng)相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項(xiàng)的值開(kāi)頭的URL 是允許robot訪問(wèn)的。例如”Allow:/hibaidu”允許robot訪問(wèn)/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個(gè)網(wǎng)站的所有URL默認(rèn)是Allow的,所以Allow通常與Disallow搭配使用,實(shí)現(xiàn)允許訪問(wèn)一部分網(wǎng)頁(yè)同時(shí)禁止訪問(wèn)其它所有URL的功能。

          使用”*”and”$”:Baiduspider支持使用通配符”*”和”$”來(lái)模糊匹配url。

          “*” 匹配0或多個(gè)任意字符

          “$” 匹配行結(jié)束符。

          最后需要說(shuō)明的是:百度會(huì)嚴(yán)格遵守robots的相關(guān)協(xié)議,請(qǐng)注意區(qū)分您不想被抓取或收錄的目錄的大小寫(xiě),百度會(huì)對(duì)robots中所寫(xiě)的文件和您不想被抓取和收錄的目錄做精確匹配,否則robots協(xié)議無(wú)法生效。

          robots.txt文件用法舉例:

          網(wǎng)站誤封Robots該如何處理

          robots文件是搜索生態(tài)中很重要的一個(gè)環(huán)節(jié),同時(shí)也是一個(gè)很細(xì)節(jié)的環(huán)節(jié)。很多站長(zhǎng)同學(xué)在網(wǎng)站運(yùn)營(yíng)過(guò)程中,很容易忽視r(shí)obots文件的存在,進(jìn)行錯(cuò)誤覆蓋或者全部封禁robots,造成不必要損失!

          網(wǎng)站Robots文件誤封處理方式:

          1、修改Robots封禁為允許,然后到百度搜索資源后臺(tái)檢測(cè)并更新Robots。

          2、在百度搜索資源后臺(tái)抓取檢測(cè),此時(shí)顯示抓取失敗,沒(méi)關(guān)系,多點(diǎn)擊抓取幾次,觸發(fā)蜘蛛抓取站點(diǎn)。

          3、在百度搜索資源后臺(tái)抓取頻次,申請(qǐng)抓取頻次上調(diào)。

          4、百度反饋中心,反饋是因?yàn)檎`操作導(dǎo)致了這種情況的發(fā)生。

          5、百度搜索資源后臺(tái)鏈接提交處,設(shè)置數(shù)據(jù)API推送(實(shí)時(shí))。

          6、更新sitemap網(wǎng)站地圖,重新提交百度,每天手動(dòng)提交一次。

          以上處理完,接下來(lái)就是等待了,一段時(shí)間后網(wǎng)站索引數(shù)據(jù)會(huì)開(kāi)始慢慢回升,直至網(wǎng)站索引數(shù)據(jù)恢復(fù)到正常狀態(tài)!


        北京愛(ài)品特SEO網(wǎng)站優(yōu)化提供專業(yè)的網(wǎng)站SEO診斷服務(wù)、SEO顧問(wèn)服務(wù)、SEO外包服務(wù),咨詢電話或微信:13811777897 袁先生 可免費(fèi)獲取SEO網(wǎng)站診斷報(bào)告。

        北京網(wǎng)站優(yōu)化公司 >> SEO資訊 >> SEO技術(shù)技巧 >> Robots.txt文件要如何正確設(shè)置    本站部分內(nèi)容來(lái)源于互聯(lián)網(wǎng),如有版權(quán)糾紛或者違規(guī)問(wèn)題,請(qǐng)聯(lián)系我們刪除,謝謝!

        上一篇:seo優(yōu)化細(xì)節(jié)是解決網(wǎng)站流量轉(zhuǎn)化的訣竅

        下一篇:網(wǎng)站robots文件常見(jiàn)問(wèn)題總結(jié)

        返回列表
        SEO案例
        OUR ADVANTAGE WORKS

        售后響應(yīng)及時(shí)

        全國(guó)7×24小時(shí)客服熱線

        數(shù)據(jù)備份

        更安全、更高效、更穩(wěn)定

        價(jià)格公道精準(zhǔn)

        項(xiàng)目經(jīng)理精準(zhǔn)報(bào)價(jià)不弄虛作假

        合作無(wú)風(fēng)險(xiǎn)

        重合同講信譽(yù),無(wú)效全額退款
        南丹县| 增城市| 浦东新区| 和硕县| 肥西县| 越西县| 康马县| 汉寿县| 富锦市| 枞阳县| 昂仁县| 冕宁县| 长葛市| 淮南市| 廉江市| 柳江县| 南漳县| 通许县| 醴陵市| 玉屏| 涿州市| 中江县| 西吉县| 高碑店市| 江西省| 青浦区| 合肥市| 宝应县| 万荣县| 西华县| 纳雍县| 河北区| 仁化县| 庐江县| 商水县| 任丘市| 玉溪市| 金昌市| 河北区| 巴彦县| 高邮市|