国产精品一二级-亚洲国产日韩欧美一区二区三区-国产黄页视频在线观看-福利资源在线观看-综合欧美国产亚洲-精品视频二区

互聯網+內容
134-1887-2552

深圳網站建設公司:Robots文件寫法+3個實戰經驗分享小白看過來

標簽:深圳網站建設公司2021-09-11 1979

最近看到高端SEO社群里有同學討論Robots相關問題,我們從實戰的角度,給大家講講怎么寫Robots寫法,以及在實戰中可能遇到的問題,都給大家講一下!希望可以幫助更多不懂的同學!

Robots定義

什么是Robots,簡單來講,其實Robots就是放在網站根目錄下的一個TXT文件,但是這個TXT文件對搜索引擎規定,哪些頁面可以訪問,哪些頁面不行。

Robots一般放在網站根目錄下,文件名固定為robots.txt的(全部小寫)、當搜索引擎要爬取我們網站的時候,會先讀一下robots.txt里面的內容,判斷哪些URL可以訪問,哪些不行,然后進行爬取、收錄。

Robots規則

常用的幾類語法:

User-agent: 定義搜索引擎的類型

google蜘蛛:googlebot

百度蜘蛛:baiduspider

yahoo蜘蛛:slurp

alexa蜘蛛:ia_archiver

msn蜘蛛:msnbot

Disallow: 定義禁止搜索引擎收錄的地址

舉個例子來講:User-agent: * Disallow: /

禁止所有搜索引擎訪問網站,(*)為通配符

Allow: 定義允許搜索引擎收錄的地址

User-agent: * Disallow: /a/ Allow: /a/b

如上面例子,限制搜索引擎抓取a目錄,但允許搜索引擎抓取a目錄下的b目錄

$通配符

User-agent: * Allow: .htm$

匹配URL結尾的字符。如下面代碼將允許蜘蛛訪問以.htm為后綴的URL:

*通配符

User-agent: * Disallow: /*.htm

告訴蜘蛛匹配任意一段字符。如下面一段代碼將禁止所有蜘蛛抓取所有htm文件:

Sitemaps位置

Sitemap:

Robots心得

1、許多朋友都喜歡讓搜索引擎不抓取自己的后臺,于是將自己的后臺地址寫到robots.txt里面,其實個人不建議這樣做,因為考慮到網絡安全,許多Hack都喜歡通過robots.txt看大家的后臺,方便攻擊!

2、網站必須要有robots.txt,如果網站沒有robots.txt,搜索引擎隨意抓取的話,可能會抓取到一些低質量頁面,從而導致網站收錄、流量受到影響,如上圖是沒有robots.txt。

3、當我們做完robots.txt后,一定要去【百度站長工具平臺】抓取、測試robots.txt,以及測試URL是否可以抓取。

微信分享領紅包!
相關閱讀 / 返回上一頁
主站蜘蛛池模板: 欧美日韩一区二区三区 | 2025亚洲а∨天堂在线 | 91精品国产麻豆福利在线 | 午夜三级电影院 | 精品久久99久久99午夜福利 | 欧美1区2区3区 | 亚洲色久婷婷 | 免费国产破外女出血视频 | 日韩在线中文字幕 | 国产在线精品99一区不卡 | 欧美日韩大片免费在线观看 | 国产精品一国产精品一k频道 | 欧美日韩精品一区 | 国产日韩免费视频 | 午夜精品一区二区三区在线视 | 麻豆午夜福利在线观看 | 成人区精品一区二区不卡亚洲 | 亚洲av无码专区一级婬片毛片 | 亚洲av无码无限在线观看不卡 | 亚洲欧洲无码一区二区三区 | 亚洲天下第一国产精品 | 色狠狠一区二区三区熟女91 | 成人a毛片免费全部播放 | 欧美一区午夜福利在线 | 精品人妻少妇一级毛片免费 | 国产主播一区二区三区在线观看 | 国产精品一国产精品一k频道 | 日韩精品无码免费专区网站 | 色综合久久久久久久综合 | 成人乱人伦视频在线 | 色综合久久天天网 | 亚洲欧美洲成人一区二区三区 | 日韩欧美电影在线 | 91麻豆国产精品91久久久 | 99久久国产精品一区二区三区 | 亚洲色最新高清av网站 | 亚洲精品2012中文字幕在线看 | 91香焦国产线观看免费香蕉直播 | 一区二区美女啪啪啪 | 亚洲午夜精品无码专区在线播放 | 欧美成人伦理电影在线观看 |