亚洲自拍偷拍网_日韩理论影院_91精品影视_另类小说网站

robots是什么,怎么寫?協議標準是什么?

發布時間:2015-06-09 發布者: 點擊:

首頁>網站推廣

首先我們得要知道robots文件時干什么的?存放的位置在哪里?

robots文件主要是告訴搜素引擎,網站哪些頁面可以抓取,哪些頁面拒絕抓取,下面我們看下幾個截圖!

京東robots截圖

京東牛B吧,拒絕了360,一淘網,

disallow的主要作用是拒絕某些指定的搜索引擎抓取我們不想讓他看見的頁面,作為企業站的我們肯定是希望搜索引擎來抓取我們那么這個disallow到底有什么具體應用呢,其實我們可以用disallow拒絕404錯誤的地址頁面或者重復的頁面!

 User-agent: * (聲明禁止所有的搜索引擎抓取以下內容)

Disallow:/blog/(禁止網站blog欄目下所有的頁面。比如說:/blog/123.html)

Disallow:/api(比如說:/apifsdfds/123.html也會被屏蔽。)

 Disallow:*?*(只要你的路徑里面帶有問號的路徑,那么這條路徑將會被屏蔽。比如說:http://xxxxx/?expert/default.html將會被屏蔽。)

Disallow:/*.php$(意思是以.php結尾的路徑全部屏蔽掉。)

 Sitemap:http://xxx.com/sitemap.html 網站地圖 告訴爬蟲這個頁面是網站地圖

User-agent: * 允許訪問所有

Disallow: /   拒絕所有

Allow: /tmp 這里定義是允許爬尋tmp的整個目錄

Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

Allow: .gif$ 允許抓取網頁和gif格式圖片

更多搜索引擎體驗請點擊

相關推薦文章