Home » SEO » Cara Setting Robots.txt

Cara Setting Robots.txt

10 Apr. 2010168 comments
Cara Setting Robots.txt

Robots.txt merupakan sebuah file yang terdapat dalam directory root dari suatu situs yang berguna untuk mengontrol halaman-halaman tertentu agar diindex oleh spider mesin pencari, atau untuk mengatur bagian-bagian tertentu supaya tidak diindex oleh search engine.

Secara default (jika dalam direktori blog atau web tidak ada file robots.txt maka akan memberikan informasi pada Search Engine bahwa seluruh bagian dari blog atau situs dapat dijelajahi dan dimasukkan dalam index-nya. Dan tidak semua bagian sebuah blog atau web itu perlu didatangi search engine, sebagai contoh untuk pengguna wordpress  dengan hosting sendiri bagian folder atau direktori wp-admin,  wp-content/cache, wp-content/plugins, wp-includes dll tidak perlu diindex, karena tidak ada gunanya, sebaliknya kalau direktori tersebut ikut diindex malah akan merugikan karena akan boros bandwidth dan juga mungkin mengandung data-data penting yang tidak boleh jadi konsumsi publik.

Dengan memblokir direktori atau file tertentu yang memang tidak perlu diindex, ini juga salah satu cara agar blog atau website menjadi lebih SEO, kenapa bisa begitu, karena waktu yang dibutuhkan search engine saat mendatangi blog kita tidaklah lama. Jadi dengan dicegahnya search engine merayapi direktori tertentu maka kesempatan mesin pencari untuk merayapi dan mengindex seluruh konten atau halaman web yang memang perlu ditampilkan (diindex) menjadi lebih besar (lebih diprioritaskan).

Sebagai Contoh anda bisa menggunakan setting seperti ini :

User-agent: Googlebot
Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*?*
Disallow: /*?

Setting ini akan mencegah search engine untuk merayapi dan mengindex file php, javascript, css dll.

Contoh lainnya :

User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /trackback/
Disallow: /feed/
Disallow: /tag/
Disallow: /author/
Disallow: /comments/
Disallow: /category/

Sitemap: http://domainanda.com/sitemap.xml
Sitemap: http://domainanda.com/sitemap.xml.gz

Setting ini akan mencegah search engine untuk merayapi dan mengindex direktori cgi-bin, wp-admin, wp-includes dll beserta seluruh file yang ada di dalam direktori tersebut. Jika anda menggunakan plugin Google XML Sitemap Generator bagian paling akhir dari file robots.txt bisa ditambahkan kode ini : Sitemap: http://domainanda.com/sitemap.xml dan Sitemap: http://domainanda.com/sitemap.xml.gz

Bagi yang menggunakan plugin Google XML Sitemap Generator, Platinum SEO Pack atau All in One SEO Pack dan kebetulan menyertakan category dan atau tag dalam indexnya, maka setting di bagian berikut harus dihapus supaya sinkron :

Disallow: /tag/
Disallow: /category/

Selain contoh di atas anda juga bisa membuat parameter-parameter tertentu misalnya, jika anda sering mengikuti program paid review dan tidak ingin Page Ranknya turun bisa menggunakan parameter seperti ini :

User-agent: Googlebot
Disallow: /review/

Ini setting khusus yang menggunakan struktur permalink dengan settingan seperti ini : /%category%/%postname%/ dan sebelumnya seluruh postingan paid review harus dijadikan satu dalam kelompok atau kategori review.

Contoh setting file robots.txt untuk mencegah duplikat kontent pada penggunaan plugin wordpress versi mobile misalnya pada plugin MobilePress. Tambahkan kode berikut ini di bawah User-agent: Googlebot :

Disallow: /*?
Disallow: /*?comments=true$
Disallow: /*?postcomment=true$

Contoh setting file robots.txt untuk mencegah duplikat kontent ketika kita menggunakan fitur reply to comments atau nested comments. Tambahkan kode berikut ini di bawah User-agent: Googlebot :

Disallow: *?replytocom

Contoh setting file robots.txt untuk mencegah duplikat kontent pada penggunaan plugin wordpress versi mobile misalnya pada plugin MobilePress. Tambahkan kode berikut ini di bawah User-agent: Googlebot :

Disallow: /*?
Disallow: /*?comments=true$
Disallow: /*?postcomment=true$

Page break atau pagination halaman atau membagi postingan ke dalam beberapa halaman bisa berpotensi untuk munculnya duplikat kontent di Google Webmaster Tool. Untuk mencegahnya tambahkan kode berikut ini di bawah User-agent: Googlebot :

User-agent: Googlebot
Disallow: /*/2*
Disallow: /*/3*
Disallow: /*/4*
Disallow: /*/5*
Disallow: /*/6*
Disallow: /*/7*
Disallow: /*/8*
Disallow: /*/9*
Disallow: /*/10*

Itu diasumsikan jika sebuah postingan dibuat sampai 10 halaman, jika lebih, bisa anda tambahkan nomor halaman yang akan dicegah untuk diindek di bawahnya, misalnya Disallow: /*/11* dan seterusnya.

Cara membuat file robots.txt :

  1. Buka Program Notepad anda.
  2. Masukkan setting atau parameter-parameter file robots.txt yang diinginkan, contoh yang saya gunakan untuk blog ini bisa dilihat di sini.
  3. Simpan dengan nama robots.txt.
  4. Upload file tersebut ke root direkori wordpress bisa lewat Cpanel atau FTP.
  5. Cara lainnya login ke Cpanel ~ klik File Manager, klik public_html, klik Icon New File (atas kiri), pada kotak New File Name : beri nama file  “robots.txt” (tanpa tanda petik) terus klik create New File.
  6. Kemudian buka file robots.txt tersebut, masukkan parameter-parameter settingan yang diinginkan. Kemudian simpan.

Jangan lupa validasi hasil pembuatan file robots.txt anda dengan mengunjungi link ini Robots.txt Checker, dan masukkan url file robots.txt anda (contoh http://namadomain.com/robots.txt) pada kotak yang tersedia kemudian lihat hasilnya apakah file robots.txt anda sudah benar-benar valid, jika masih banyak eror di situ dikasih informasi letak erornya.

Valid Robots.txtSelain file robots.txt yang saya tempatkan di root direktori, saya juga menempatkan settingan pengaturan robots pada meta tag yang saya letakkan di file header.php yang ada di folder theme yang saya gunakan, dan settingan ini sudah saya uji joba selama 3 bulan, hasilnya sangat signifikan dalam pengindekan blog ini oleh search engine.

Cara Setting Robots.txt Reviewed by: Alwi on Rating : 5
Mudah-mudahan artikel tentang Cara Setting Robots.txt ini bisa bermanfaat untuk anda, terima kasih.

Artikel Yang Mungkin Berkaitan :

  1. Daftar Ping Service WordPress
  2. Membuat Blog Bersahabat dengan Search Engine
  3. Cara meningkatkan peringkat di TopSeratus.com
  4. Strategi Optimasi SEO Di Tahun 2011
  5. Mohon Maaf, Blog Ini Tidak Dofollow Lagi
  6. Cara Setting Plugin Platinum SEO Pack
  7. Cara Membuat Breadcrumb Di WordPress
  8. SEO (Search Engine Optimization) dan Sejarahnya
  9. Cara Meningkatkan Traffic Blog
  10. Download Edisi Baru Google SEO Starter Guide 2010
  1. 10-4-2010 at 20:43 | #1

    wahh bisa dicoba ini kang.. makasih infonya..
    saya bisa belajar banyak deh .

    Muhammad Faisal Aziz Reply:

    iya nih,aku juga mau coba

  2. 10-4-2010 at 21:09 | #2

    sudah dipraktekan dan valid kang setelah di check .

    Muhammad Faisal Aziz Reply:

    coba ah….jadi penasaran

  3. 10-4-2010 at 21:11 | #3

    aduh agak kurang paham nih :o

    Muhammad Faisal Aziz Reply:

    sama,aku juga kurang paham

  4. 11-4-2010 at 09:09 | #4

    kalau untuk blogspot bisa nggak ya

    Muhammad Faisal Aziz Reply:

    tanyain aja mas sama mas alwi

  5. 11-4-2010 at 09:27 | #5

    maaf kang, kalo blogspot setting robot txtnya gimana, msh nyubi nh kang…

  6. 11-4-2010 at 11:30 | #6

    @munir ardi, natunacenter : Untuk blogspot tidak perlu membuat file robots.txt tapi hanya perlu memasukkan sitemapnya lewat Google Master Tool nantinya akan terbentuk sendiri file robots.txt-nya biasanya hasilnya akan seperti ini :

    User-agent: Mediapartners-Google
    Disallow:
    User-agent: *
    Disallow: /search
    Sitemap:http://namaurl.blogspot.com/feeds/posts/default?orderby=updated

    Muhammad Faisal Aziz Reply:

    ok..mas akan saya coba (kalo sempet)

    sucitro Reply:

    saya masukkan url sitemap di webmaster kok error terus

    Alwi Reply:

    Untuk wordpress pada kolom yg tersedia (setelah url blog) masukkan sitemap.xml sehingga nantinya susunannya menjadi hatetepe://domain.com/sitemap.xml untuk wordpress self hosting harus dibuat dulu sitemapnya pakai plugin google xml sitemap untuk blogspot masukkan kode ini : atom.xml setelah URL blog. alternatif lain bisa juga dg menjadikan Feed blog sebagai sitemap

  7. 11-4-2010 at 18:59 | #7

    ilmu yang berguna sekali nih, cuman masih binun nerapkannya soalnya yang beginian nubie banget dah taunya posting doang, Salam hangat ya Kang Alwi, trims dah sharing

  8. 14-4-2010 at 09:47 | #8

    sayangnya blog yang saya pakai bukan sefl hosting
    harus cari cara lain untuk setting robotnya

    isi ulang dach untuk blog yang ini lama tidak diajak BW
    salam dari pamekasan madura

  9. 15-4-2010 at 06:34 | #9

    Terima kasih atas tipnya yg sangat rinci.
    Jadi, koe mana yang bisa langsung di apliksikan bang ? cari gampangnya saja, maklum dah tuwir
    salam hangat dari BlogCamp

  10. 17-4-2010 at 00:00 | #10

    thanks for the info. i will try it

Comment pages