Advertisement
Advertisement

Pembuat Robots.txt

Buat dan Sesuaikan File Robots.txt Untuk Situs Web Anda!

Advertisement
Advertisement
User Agent:
Robots Directives:
/

#robots.txt generated by https://ettvi.com/robots-txt-generator

User-Agent: *

Allow: /

copy download
copy download
Customized
Allow
Disallow
Advertisement
Advertisement

Fitur

Hasilkan File Robots.txt

Hasilkan File Robots.txt

Buat file robots.txt untuk situs web atau halaman web Anda guna menentukan instruksi perayapan tanpa kesalahan pengkodean apa pun

Sesuaikan File Robots.txt

Sesuaikan File Robots.txt

Masukkan beberapa URL untuk mengatur arahan meta robot secara terpisah untuk setiap halaman web tanpa kesulitan

Ekspor sekali klik

Ekspor sekali klik

Salin kode robots.txt atau langsung unduh file robots.txt untuk diunggah ke direktori root website Anda

Alat Terkait

Advertisement
Advertisement

Generator Robots.txt ETTVI

Buat file Robots.txt untuk situs web Anda untuk menentukan perilakunyacrawler mesin pencaridengan Generator Robots.txt ETTVI. Webmaster dapat memanfaatkan alat ini untuk menghasilkan file Robots.txt standar dengan pengaturan default atau menyesuaikannya untuk menetapkan instruksi perayapan khusus untuk halaman web yang berbeda.

Manfaatkan fungsionalitas tingkat lanjutan dari Generator Robots.txt ETTVI untuk membatasi direktori agar tidak dirayapi atau menyembunyikan halaman pribadi Anda dari crawler.

Sertakan arahan meta robot secara terpisah untuk setiap URL untuk menunjukkan apa dan bagaimana perayap dapat mengakses masing-masing tautan tanpa membuang anggaran perayapan Anda. Izinkan atau larang perayap mesin telusur lain merayapi konten web Anda sesuai kebutuhan.

Pembuat Robots.txt ETTVI secara efektif memproses informasi yang diberikan untuk menentukan instruksi perayapan tanpa kesalahan pengkodean apa pun. Beri tahu perayap tentang bagaimana mereka harus merayapi danindekshalaman web Anda dengan Generator Robots.txt ETTVI secara gratis.

ETTVI’s Robots.txt Generator
Advertisement
Advertisement
How to Use ETTVI’s Robots.txt Generator?

Bagaimana Cara Menggunakan Generator Robots.txt ETTVI?

Generator Robots.txt ETTVI memungkinkan pengguna membuat file Robots.txt default dengan instruksi perayapan “Semua Izinkan” atau “Larangan Semua” serta membuat file Robots.txt khusus dengan fungsi tambahan.

Hasilkan File Robots.txt Standar

Ikuti langkah-langkah berikut untuk membuat file Robots.txt standar dengan pengaturan default:

LANGKAH 1 - Tetapkan Arahan Meta Robot

Anda dapat mengatur perintah izinkan/larang untuk “semua robot mesin pencari” untuk menghasilkan file robots.txt standar. Pilih “Izinkan” atau “Larang” untuk menerapkan pengaturan default:

LANGKAH 2 - Masukkan Alamat Peta Situs

Masukkan tautan ke peta situs situs web Anda atau biarkan kosong jika Anda tidak punya.

Anda dapat memasukkan lebih dari satu peta situs khusus kategori pada halaman, postingan, kategori, dan tag situs web Anda.

LANGKAH 3 - Dapatkan Kode Robots.txt

Sama seperti Anda memasukkan informasi yang diperlukan, Generator Robots.txt ETTVI secara otomatis menghasilkan dan menampilkan kode Robots.txt.

Anda dapat mendownload atau menyalin kode untuk mengirimkan file Robots.txt ke direktori root situs web Anda.

Hasilkan File Robots.txt yang Disesuaikan

Ikuti langkah-langkah berikut untuk membuat file Robots.txt standar dengan pengaturan default:

Masukkan URL:

LANGKAH 2 - Pilih Agen Pengguna

Anda dapat mengatur arahan meta robot untuk salah satu agen pengguna berikut:

  • Google
  • Google gambar
  • Google Seluler
  • Pencarian MSN
  • yahoo
  • Yahoo MM
  • Blog Yahoo
  • Baidu
  • MSN PicSearch

Anda dapat memilih agen pengguna yang berbeda untuk URL yang berbeda.

LANGKAH 3 - Izinkan/Larang Robot Mesin Pencari

Pilih “Izinkan atau Larang” untuk menyetel arahan meta robot untuk URL yang diberikan.

Anda dapat mengatur perintah “Izinkan” atau “Larang” secara terpisah untuk setiap URL.

Advertisement
Advertisement

Mengapa Menggunakan Generator Robots.txt ETTVI?

Robots.txt adalah file yang digunakan untuk memberikan instruksi kepada crawler mesin pencari tentang url mana yang dapat dirayapi atau diindeks atau mana yang tidak. Robots.txt sangat penting dan bermanfaat bagi webmaster dan setiap pakar SEO menggunakan robots.txt untuk tujuan yang berbeda.

Namun, jika tidak ditulis dengan benar, hal ini dapat menyebabkan masalah pengindeksan di situs Anda dan Google tidak dapat meng-crawl situs Anda dengan benar. Dengan menggunakan Generator Robots.txt ETTVI, Anda dapat menghasilkan file yang akurat daripada membuat kode secara manual hanya dalam satu klik.

Buat File Robots.txt dengan Cepat

Generator Robots.txt dapat menyelamatkan Anda dari kesalahan pengkodean apa pun dan menghemat banyak waktu yang dapat Anda terapkan pada Tugas SEO lainnya seperti Membuat Peta Situs. Sebagian besar pakar SEO merekomendasikan Generator Robots.txt ETTVI karena ini adalah alat yang efisien, cepat, dan gratis yang akan membuat robots.txt Anda dalam waktu singkat sesuai dengan kebutuhan Anda.

Sembunyikan Halaman Pribadi

Misalkan jika Anda memiliki halaman pribadi yang hanya ingin Anda tunjukkan kepada orang-orang yang berlangganan tetapi jika halaman tersebut diindeks, semua orang dapat melihatnya - Jadi, untuk menghindari masalah ini, Anda perlu melarang halaman pribadi Anda di robots.txt.

Hemat Anggaran Perayapan

Jika Anda memiliki banyak halaman tambahan (Tag Suka) maka halaman tersebut dapat mengganggu anggaran perayapan Anda dan menyebabkan masalah pengindeksan. Jadi, kami melarang halaman tambahan di robots.txt untuk menghindari masalah ini.

Why Use ETTVI's Robots.txt Generator?
Advertisement
Advertisement
Understanding Robots.txt?

Memahami Robots.txt?

ItuFile robots.txtadalah file teks yang berisi informasi tentang bagaimana crawler harus merayapi situs web. Selain itu, Anda dapat menentukan area mana yang tidak boleh diakses oleh crawler, misalnya area dengan konten duplikat atau area yang sedang dibangun. Ada beberapa bot yang tidak mengikuti standar ini, termasuk pendeteksi malware dan pemanen email. Akibatnya, mereka akan mencari titik lemah pada sistem keamanan Anda. Jika Anda tidak ingin area tertentu diindeks, ada kemungkinan besar mereka akan mulai meninjau situs web Anda dari area tersebut.

Biasanya ada dua file Robots.txt: satu menyediakan "Agen-pengguna" dan yang lainnya menyertakan arahan seperti 'Izinkan', 'Larang', 'Tunda Perayapan', dll. Menulis file baris perintah secara manual mungkin memerlukan waktu yang cukup lama. waktu yang lama, dan file tersebut dapat berisi beberapa baris perintah sekaligus. Anda harus menulis "Larang: tautan yang tidak ingin Anda kunjungi oleh bot" di halaman berikutnya. Metode yang sama berlaku untuk perintah "mengizinkan".

Mengapa Robots.txt Penting?

File robots.txt tidak diperlukan oleh sebagian besar situs web. Hasilnya, Google sering kali dapat menemukan semua halaman penting di situs web Anda, dan mengindeksnya, tanpa kesulitan apa pun. Dan mereka tidak akan mengindeks halaman yang tidak penting atau duplikat dari halaman yang sudah diindeks.

Namun, ada tiga alasan utama penggunaan file robots.txt.

Jangan izinkan halaman Non-Publik dilihat. Terkadang, Anda tidak ingin halaman tertentu diindeks di situs Anda. Anda mungkin, misalnya, memiliki versi pementasan halaman tertentu atau halaman login. Halaman-halaman ini harus ada dan pengguna lain tidak boleh diarahkan ke halaman tersebut. Jadi, robots.txt harus digunakan untuk memblokir crawler dan bot mengakses halaman ini.

Maksimalkan anggaran perayapan Anda. Mungkin ada masalah anggaran perayapan jika Anda mengalami kesulitan dalam mengindeks halaman Anda. Saat Anda menggunakan robots.txt untuk memblokir halaman yang tidak penting, Googlebot akan menghabiskan lebih banyak waktu di halaman web yang sebenarnya penting.

Sumber daya tidak boleh diindeks. Anda dapat menggunakan arahan meta untuk mencegah halaman diindeks sama efisiennya dengan menggunakan file Robot.txt. Namun, arahan meta tidak berfungsi dengan baik dengan sumber daya multimedia seperti PDF dan gambar. Dalam hal ini, robots.txt akan berguna.

Saat bot mesin pencari memeriksa file, mereka terlebih dahulu mencari file robots.txt, dan jika file ini tidak ditemukan, ada kemungkinan besar semua halaman situs Anda tidak akan diindeks. Saat Anda menambahkan lebih banyak halaman, Anda dapat memodifikasi file Robot.txt dengan beberapa instruksi dengan menambahkan halaman utama ke daftar larangan. Namun, hindari menambahkan halaman utama ke daftar larangan di awal file.

Ada anggaran untuk merayapi situs Google; anggaran ini ditentukan oleh batas perayapan. Biasanya, perayap akan menghabiskan waktu tertentu di situs web sebelum berpindah ke situs berikutnya, namun jika Google menemukan bahwa perayapan situs Anda mengganggu pengguna, perayapan akan merayapi situs Anda lebih lambat. Karena penjelajahan situs web Anda yang lebih lambat oleh Google, Google hanya akan mengindeks beberapa halaman situs Anda dalam satu waktu, sehingga postingan terbaru Anda akan memerlukan waktu untuk diindeks sepenuhnya. Situs Anda harus memiliki peta situs dan file robots.txt untuk memperbaiki masalah ini. Proses crawling akan dilakukan lebih cepat dengan mengarahkan mereka ke link situs Anda yang memerlukan perhatian khusus guna mempercepat proses crawling.

Selain memiliki tingkat perayapan untuk sebuah situs web, setiap bot memiliki kutipan perayapan uniknya sendiri. Itu sebabnya Anda memerlukan file robot untuk situs WordPress Anda. Hal ini disebabkan karena terdiri dari banyak halaman yang tidak diperlukan untuk pengindeksan. Selain itu, jika Anda memilih untuk tidak menyertakan file robots.txt, crawler akan tetap mengindeks situs web Anda, namun kecuali blog tersebut sangat besar dan berisi banyak halaman, hal ini tidak perlu dilakukan.

Tujuan Direktif dalam File Robot.txt:

Saat membuat file manual, Anda harus mengetahui bagaimana file harus diformat. Selain itu, setelah mempelajari cara kerjanya, Anda dapat memodifikasinya.

Penundaan waktu perayapan: Dengan menyetel arahan ini, perayap tidak akan membebani server secara berlebihan, karena terlalu banyak permintaan akan membuat server bekerja terlalu keras, sehingga tidak menghasilkan pengalaman pengguna yang optimal. Bot mesin pencari yang berbeda merespons secara berbeda terhadap arahan Penundaan Perayapan. Misalnya, Bing, Google, dan Yandex merespons secara berbeda.

Mengizinkan: Dengan menggunakan arahan ini, kami mengizinkan URL berikut untuk diindeks. Berapa pun jumlah URL yang dapat Anda tambahkan ke daftar, jika Anda menjalankan situs web E-niaga, Anda mungkin memiliki banyak URL untuk ditambahkan. Jika Anda memutuskan untuk menggunakan file robots, sebaiknya Anda hanya menggunakannya untuk halaman yang tidak ingin Anda indeks.

Disallowing: Salah satu fungsi terpenting file Robots adalah mencegah crawler mengakses link, direktori, dll. di dalamnya. Namun, bot lain dapat mengakses direktori ini, yang berarti mereka harus memeriksa malware karena tidak patuh.

Perbedaan Antara Peta Situs dan File Robot.txt

Peta situs berisi informasi berharga untuk mesin pencari dan penting untuk semua situs web. Peta Situs memberi tahu bot kapan situs web Anda diperbarui serta jenis konten apa yang ditawarkan situs web Anda. Tujuan laman ini adalah untuk memberi tahu mesin telusur tentang semua laman di situs Anda yang harus dirayapi, sedangkan tujuan file robots.txt adalah untuk memberi tahu perayap. Perayap diberi tahu halaman mana yang harus dirayapi dan halaman mana yang harus dihindari menggunakan Robot.txt. Agar situs web Anda dapat diindeks, Anda memerlukan peta situs, sedangkan robot.txt tidak diperlukan.

Alat Lainnya

Pertanyaan yang Sering Diajukan

Apa itu File Robots.txt?

Robots.txt adalah file yang ditempatkan di direktori root - Digunakan untuk memberikan instruksi kepada crawler mesin pencari tentang perayapan danmengindeks situs. Ini bisa bermanfaat atau bisa berbahaya tergantung cara Anda menggunakannya.

Advertisement

Apa itu Generator Robots.txt?

Robots.txt Generator adalah alat berbasis web online yang memungkinkan webmaster membuat robots.txt yang disesuaikan dengan kebutuhan mereka tanpa pengkodean manual apa pun.

Apakah Robots.txt Diperlukan?

Tidak, robots.txt tidak diperlukan namun dengan itu Anda dapat memiliki kendali atas crawler mesin pencari. Kebanyakan ahli merekomendasikan untuk memiliki file robots.txt di situs web Anda.

Bagaimana Saya Membuat File Robots.txt?

Anda dapat membuatnya dengan pengkodean manual tetapi ini terlalu berbahaya dan dapat menyebabkan masalah pengindeksan. Jadi, solusi terbaik untuk menyelamatkan dari masalah ini adalah dengan menggunakan Generator Robots.txt seperti milik Ettvi. Generator Robots.txt Ettvi memungkinkan Anda membuat file khusus Anda sendiri secara gratis.

Bagaimana Cara Memvalidasi Robots.txt Saya Bagus atau Tidak?

Setelah membuat dan menempatkan Robots.txt, pertanyaan utama adalah bagaimana cara memvalidasi file robots.txt? Anda dapat dengan mudah memvalidasi file Anda dengan Alat Validator Robots.txt ETTVI.

Advertisement
faq

Tetap up to date di dunia email.

Berlangganan email mingguan dengan artikel, panduan, dan video pilihan untuk meningkatkan taktik Anda.

search
Kebijakan pribadiSyarat & Ketentuan