精品亚洲成人_日韩高清一级_欧美喷水视频_欧美a大片欧美片

8年
SEO網(wǎng)站優(yōu)化推廣經(jīng)驗

haizr.站內(nèi)優(yōu)化技巧

站內(nèi)SEO優(yōu)化設(shè)置技巧分享

填寫您的業(yè)務(wù)需求

網(wǎng)站robots文件編寫詳解以及注意事項

來源: http://www.44455ee.com | 時間:2019.04.22 | 瀏覽數(shù):127

robots.txt文件是一個文本文件,使用任何一個常見的文本編輯器,比如Windows系統(tǒng)自帶的Notepad,就可以創(chuàng)建和編輯它  。robots.txt是一個協(xié)議,而不是一個命令。robots.txt是搜索引擎中訪問網(wǎng)站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。

600網(wǎng)站robots文件編寫詳解以及注意事項

        一:學(xué)習(xí)robots文件編寫,前提是得熟悉網(wǎng)站url和Url的原理以及網(wǎng)站程序目錄。為什么?很簡單蜘蛛是通過url抓取的。文件具體形式,以阿里云主機(jī)根目錄為例,格式表示如下:

        技巧:域名=根目錄。

        /htdocs/=域名

        /htdocs/skin/=域名/skin/

        /htdocs/skin/css/=域名/skin/stivle.css/

        二:robots寫法注意點:冒號后面有一個空格 , 必須全英文模式書寫,字母大小寫要注意,這是比較嚴(yán)謹(jǐn)?shù)?,需要特別注意。例如

        Disallow:  /ab/abc/

        Allow:  /ab/abc/

        User-agent:  Baiduspider

三:操作流程以及寫法:桌面新建一個.txt文件,在文件上寫robots規(guī)則。

        1:下面先來看看名詞定義解釋,不同的搜索引擎有不同的蜘蛛。

        【1】:User-Agent:  對蜘蛛進(jìn)行的規(guī)定(1)對百度蜘蛛的規(guī)定User-agent:  Baiduspider 。(2)谷歌User-Agent:  Googlebot   (3)必應(yīng)User-agent:               Bingbot (4)360    User-Agent: 360Spider (5)宜搜User-Agent:   Yisouspider(6)搜狗User-Agent: Sogouspider (7)雅虎User-Agent: Yahoo!               Slurp

         User-Agent:  * 指對所有的蜘蛛

        【2】:Disallow:  指禁止抓取。

        【3】:Allow:  指允許抓取 。

2:寫法:以上三個格式綜合使用,例如:我們要屏蔽/skin/文件夾里面的一部分文件,但是又希望抓取到/skin/文件夾里面的/css/文件夾,書寫技巧:先禁止抓取/skin/文件夾,后面再允許抓取/css/ 文件夾就可以了。

        Disallow: /skin/ 表示禁止抓取/skin/文件夾

        Allow: /css/表示允許抓取/skin/文件夾里面的/css/文件夾

        注意點:前后都有斜杠表示文件夾。

3:符號名詞解釋:

        (1)*通配符 : 代表所有的 。 例如:

          User-Agent: * 就是表示對所有的蜘蛛

          Allow: /skin/* 表示允許包括/skin/文件夾以下的所以文件

        (2)$終止符: 表示結(jié)束。例如不允許抓取.js結(jié)尾的文件,寫成: Disallow: /*.js$

四:常見屏蔽對象:

        1:中文的鏈接-路徑,抓取不友好,或者我們不需要它來排名。例如屏蔽“聯(lián)系我們”:Disallow: /lianxi/

        2:搜索結(jié)果頁面,重復(fù)的質(zhì)量低的。例如:

        https://www.shiguangkey.com/course/search?key=%E5%BB%BA%E7%AD%91&cateKey=%E5%BB%BA%E7%AD%91

        https://www.shiguangkey.com/course/search?key=%E4%BD%A0%E5%A5%BD&cateKey=%E4%BD%A0%E5%A5%BD

        技巧:先找到規(guī)律。假如我們不允許抓取以下的 ,寫成:  Disallow: /course/search?key=*

        3:動態(tài)路徑,鏈接規(guī)律:?%/ ?等等  例如屏蔽帶有?號的動態(tài)鏈接: Disallow: /*?*

        4:js文件的  Disallow: /*.js$  備注:官方的說法,關(guān)于js使用建議

        5:網(wǎng)站的目錄:模板目錄、插件目錄、后臺目錄。。。。。。

(1):wordpress:如圖
562333
(2)織夢程序的。如圖:
55222

五:編寫誤區(qū):

        區(qū)別性:例如

        Disallow: /ab=Disallow: /ab*

        Disallow: /ab/ 前后有斜杠的/ab/代表單個文件夾

        Disallow: /ab = Disallow: /* 斜杠代表了整個網(wǎng)站,范圍更廣。

        例:

        Disallow: /ab 這個規(guī)則對于以下兩個鏈接都是屏蔽的:Disallow: /abc   Disallow: /ab/123

        Disallow: /ab/ 這個規(guī)則,只對 Disallow: /ab/123 生效,對于Disallow: /abc是無效的。

六:網(wǎng)站安全:Disallow: /dede 就知道網(wǎng)站是織夢做的,就會暴露網(wǎng)站程序。

        1:織夢后臺是可以修改程序的,例:Disallow: /dede 把dede改成ffff 即:Disallow: /ffff

        2:wordpress 呢, 例: Disallow: /wp_admin 修改成:Disallow: /*admin

七:檢測:寫完robots文件后,記得檢測一下文件。我們可以到百度站長平臺校驗,地址是:http://ziyuan.baidu.com/robots

八:由于蜘蛛首先抓取的是robots文件,所以我們需要把我們網(wǎng)站地圖【網(wǎng)站鏈接集成】寫入到robots文件里面,可以放在文件最底部,方便蜘蛛更快抓取和更好收          錄。

        總之robots.txt文件是個比較嚴(yán)謹(jǐn),書寫過程嚴(yán)格按照規(guī)則來,當(dāng)然最重要的是寫好之后要檢查,以防書寫錯誤,導(dǎo)致蜘蛛抓取不到。

轉(zhuǎn)載請注明來自:http://www.44455ee.com/seoskill/86617.html
文章標(biāo)簽:無錫網(wǎng)站優(yōu)化,關(guān)鍵詞優(yōu)化,關(guān)鍵詞排名,海之睿
30 總評論數(shù)
留言列表
Loading...
頁 共30
海之睿無錫網(wǎng)站SEO優(yōu)化推廣營銷公司

—— 海之睿微信公眾號 ——

海之睿SEO優(yōu)化推廣申請

  • 公司名稱
  • 姓名
  • 手機(jī)號
  • 聯(lián)系郵箱
  • 推薦人

    無推薦人的話寫:無

*為了準(zhǔn)確獲取解決方案,請注意填寫有效信息!

主站蜘蛛池模板: 荥阳市| 定南县| 商城县| 崇阳县| 合水县| 吉安市| 永济市| 页游| 雅安市| 高陵县| 桃园市| 正宁县| 铜川市| 北安市| 泊头市| 简阳市| 民乐县| 沈阳市| 清镇市| 枞阳县| 南宁市| 库尔勒市| 沙坪坝区| 教育| 垣曲县| 南和县| 高尔夫| 定边县| 唐山市| 临朐县| 灯塔市| 象州县| 独山县| 卢氏县| 岳池县| 星子县| 瓮安县| 台江县| 通州区| 临夏县| 曲沃县|