什麼是Robots.txt
簡單說,Robots.txt是提供網站額外的一份文字檔文件,這份文字檔文件必須命名為robots,並將檔案上傳至FTP的網站根目錄下,才能發揮作用,而其作用為:透過內容的設置,可以決定是否讓搜尋引擎抓取或索引。
如何使用Robots.txt
上傳至FTP後,透過網址的輸入,即可看到robots檔裡的內容,例如:http://www.mydomain.com/robots.txt。透過robots檔裡的內容設置,可以決定是否讓搜尋引擎抓取或索引網站,設置的方式包括:全站、特定網頁、特定目錄、特定檔案及文件、特定網址等等,以下提供簡單範例說明:
禁止所有搜尋引擎抓取或索引網站
User-agent: *
Disallow: /
歡迎所有搜尋引擎抓取或索引網站
User-agent: *
Disallow:
更多參考範例:維基百科Robots.txt
什麼是Humans.txt
簡單說,Humans.txt也是提供網站額外的一份文字檔文件,命名方式也是固定的,而文件裡主要的內容可以提供建置網站幕後的一切資訊,這資訊可能包括:網站簡單的介紹、網站架設技術及支援資訊、負責團隊、任何相關名單等等。
為何要使用Humans.txt
網站使用Humans.txt幾個重點:
- 可以簡單及快速創造
- 不需要複雜的原始碼組成
- 可以方便及快速證明你是這個網站的擁有者
如何使用Humans.txt
上傳至FTP後,透過網址的輸入,即可看到humans檔裡的內容,例如:http://www.mydomain.com/humans.txt。並在網頁原始碼裡的head標籤之間加入這段語法<link href="http://www.mydomain.com/humans.txt" rel="author" type="text/plain"></link>
可以透過一些範例瞭解,humans檔裡的內容該填些什麼:
更多參考資料:
0 意見:
張貼留言
歡迎討論