Lompat ke isi

Robots.txt

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
Revisi sejak 2 Desember 2011 13.06 oleh Willy2000 (bicara | kontrib) (baru)
(beda) ← Revisi sebelumnya | Revisi terkini (beda) | Revisi selanjutnya → (beda)

Standar pengecualian robot adalah file teks yang disimpan dalam direktori root situs yang menceritakan Crawler mesin pencari situs yang halaman dan sub-folder tidak boleh disertakan dalam mesin pencarian Indeks. Situs ini berguna untuk mengontrol halaman-halaman tertentu agar diindex oleh spider mesin pencari, atau untuk mengatur bagian-bagian tertentu supaya tidak diindex oleh search engine seperti Friendster, Facebook, Twitter dan situs jejaring sosial lainnya.

Pranala luar