Perayap juga menggunakan nama seperti robot, bot, dan laba-laba. Ini adalah perayap Google yang menemukan situs web Anda, dan ketika ini terjadi, konten Anda "dipindai" dan disimpan dalam basis data raksasa. Database ini membentuk indeks. Oleh karena itu, jika Anda membuat konten baru di halaman landing, itu hanya ada di mata Google setelah crawler berhenti dan mendaftarkannya. Setiap kali perayap melewati situs web Anda, versi dalam indeks diperbarui. Seberapa sering atau jarang Google datang dan meng-crawl situs Anda berbeda-beda di setiap situs. Tapi apa artinya secara konkret ketika kita berbicara tentang perayapan situs web Anda? Saat Google merayapi situs web Anda, Anda dapat menerjemahkannya ke dalam bahasa Google yang mengunjungi dan merayapi situs web Anda.
Tautan internal Anda bertindak sebagai rute ke cara Google harus menjelajahi situs web - ia mengikuti tautan. Jadi, cara situs web Anda terstruktur menentukan bagaimana Google merayapi laman. Saat kita berbicara tentang opsi apa yang dimiliki Google untuk merayapi laman Anda, istilah kemampuan merayapi digunakan. Ada beberapa area yang memengaruhi cara Google memandang kemampuan situs web Anda untuk dirayapi Robot.txt, status http Tag meta robot. Kunjungan seo web tools 48 situs dimulai dengan memasukkan URL atau memasukkan kata kunci di mesin pencari. Ketika ini terjadi, browser mengirimkan permintaan ke alamat IP situs untuk memunculkan halaman yang diinginkan. Server kembali dengan kode status yang tertanam dalam header http. Kode status datang dalam 5 level / derajat.Jika semua yang ada di halaman baik-baik saja, kode status 200 akan kembali ke browser bersama dengan konten itu sendiri. Sebaliknya, jika ada yang salah dengan halaman tersebut, kode kesalahan akan muncul, di mana kesalahan 404 mungkin yang paling terkenal. Ini mencegah Google merayapi halaman. Kode status lainnya termasuk 301 dan 302, keduanya merupakan seo web tools 37 penunjukan untuk pengalihan. Yang satu permanen dan yang lainnya sementara. 500 menunjukkan kesalahan server internal, dan 503 menunjukkan bahwa server tidak tersedia tetapi hanya sementara, itulah sebabnya perayap tahu bahwa itu akan kembali nanti. Robots.txt adalah file teks biasa yang ditempatkan di root situs web (homepage.com/robots.txt) untuk menginstruksikan robot mesin pencari tentang cara merayapi situs web Anda, serta apa yang harus diakses dan apa yang harus diindeks.
Dalam praktiknya, file robots.txt menunjukkan apakah agen pengguna tertentu (seperti perayap Google) dapat merayapi bagian situs web Anda atau tidak. Petunjuk tinjauan ini ditentukan dengan memasukkan disallow atau izinkan diikuti dengan jalur di situs web. Perintah" yang ditentukan dalam robots.txt biasanya diikuti, tetapi sebagian besar dianggap sebagai panduan oleh robot mesin telusur. Ada beberapa skenario ketika seo web tools 38 halaman diindeks di Google, jadi robots.txt tidak boleh dilihat sebagai perlindungan terhadap pengindeksan di Google saja. Ini adalah cuplikan kode yang memberikan petunjuk kepada crawler tentang cara mengindeks konten halaman web. Mereka biasanya digunakan untuk menunjukkan bahwa halaman tidak boleh diindeks dengan NOINDEX.
Sekarang kita sampai pada titik di mana konten mesin pencari yang dioptimalkan untuk situs web Anda perlu dirancang. Di sinilah Anda harus memulai dengan kata kunci Anda, tetapi tentu saja itu tidak berarti Anda harus memasukkannya ke dalam teks jika memungkinkan. Di masa lalu, profesional Google dan SEO naik banyak dalam kepadatan kata kunci ketika harus merancang teks SEO. Kepadatan kata kunci adalah persentase seberapa sering kata kunci digunakan dalam teks relatif terhadap panjang teks. Beberapa rekomendasi saat itu adalah hingga 5% teks harus mengandung kata kunci. Tapi coba bayangkan betapa menjengkelkannya teks itu jika dibaca dan tidak laku. Untungnya, kata kunci kepadatan bukan sesuatu yang perlu Anda naiki lagi. Google malah mulai fokus pada LSI (Latent Semantic Indexing).
Tidak ada komentar:
Posting Komentar