Robots.txt與Humans.txt,該如何應用

瞭解搜尋引擎運作規則的,一定聽過Robots.txt,但對Humans.txt這個名詞應該很陌生,以下開始解釋這兩個東西:





什麼是Robots.txt


簡單說,Robots.txt是提供網站額外的一份文字檔文件,這份文字檔文件必須命名為robots,並將檔案上傳至FTP的網站根目錄下,才能發揮作用,而其作用為:透過內容的設置,可以決定是否讓搜尋引擎抓取或索引。


如何使用Robots.txt


上傳至FTP後,透過網址的輸入,即可看到robots檔裡的內容,例如:http://www.mydomain.com/robots.txt。透過robots檔裡的內容設置,可以決定是否讓搜尋引擎抓取或索引網站,設置的方式包括:全站、特定網頁、特定目錄、特定檔案及文件、特定網址等等,以下提供簡單範例說明:

禁止所有搜尋引擎抓取或索引網站
User-agent: *
Disallow: /

歡迎所有搜尋引擎抓取或索引網站
User-agent: *
Disallow:

更多參考範例:維基百科Robots.txt


什麼是Humans.txt


簡單說,Humans.txt也是提供網站額外的一份文字檔文件,命名方式也是固定的,而文件裡主要的內容可以提供建置網站幕後的一切資訊,這資訊可能包括:網站簡單的介紹、網站架設技術及支援資訊、負責團隊、任何相關名單等等。


為何要使用Humans.txt


網站使用Humans.txt幾個重點:
  • 可以簡單及快速創造
  • 不需要複雜的原始碼組成
  • 可以方便及快速證明你是這個網站的擁有者

如何使用Humans.txt


上傳至FTP後,透過網址的輸入,即可看到humans檔裡的內容,例如:http://www.mydomain.com/humans.txt。並在網頁原始碼裡的head標籤之間加入這段語法<link href="http://www.mydomain.com/humans.txt" rel="author" type="text/plain"></link>

可以透過一些範例瞭解,humans檔裡的內容該填些什麼:


更多參考資料:

0 意見:

張貼留言

歡迎討論