Sejarah SEO Manfaat Dan Cara Mengoptimasi Web atau Blog

ub-2354269854877183" data-ad-slot="8273968190" data-ad-format="auto" data-full-width-responsive="true">

SEO atau Optimisasi mesin pencari adalah proses meningkatkan kualitas dan kuantitas lalu lintas situs web dengan meningkatkan visibilitas situs web atau halaman web untuk pengguna mesin pencari web.

SEO mengacu pada peningkatan hasil yang tidak dibayar (dikenal sebagai hasil alami atau organik dan tidak termasuk lalu lintas langsung / pengunjung dan pembelian penempatan berbayar.

SEO dapat menargetkan berbagai pencarian, termasuk pencarian gambar, pencarian video, pencarian akademik, pencarian berita, dan mesin pencari vertikal khusus industri.

Mengoptimalkan situs web dapat mencakup pengeditan konten, menambahkan konten, dan memodifikasi HTML dan penyandian terkait untuk meningkatkan relevansi dengan kata kunci tertentu dan menghapus hambatan pengindeksan mesin pencari seperti Google, Yahoo, dll.

Mempromosikan situs untuk meningkatkan jumlah backlink atau tautan masuk adalah taktik SEO lain. Pada Mei 2015, pencarian seluler melampaui pencarian desktop.

Sebagai strategi pemasaran internet, SEO memperhitungkan bagaimana mesin pencari bekerja.

Algoritma yang diprogram komputer yang menentukan perilaku mesin pencari, apa yang dicari orang, istilah pencarian aktual.

Atau kata kunci yang diketik ke dalam mesin pencari, dan mesin pencari mana yang lebih memilih target audiens mereka.

SEO penting dilakukan karena situs web menerima lebih banyak pengunjung dari mesin pencari karena skor situs web lebih tinggi pada halaman hasil mesin pencari (SERP).

Pengunjung ini kemudian dapat dikonversi menjadi pelanggan.

SEO berbeda dari optimasi mesin pencari lokal.

Karena yang terakhir berfokus pada mengoptimalkan kehadiran online perusahaan sehingga halaman webnya ditampilkan oleh mesin pencari di saat pengguna memasukkan permintaan pencarian lokal untuk produk atau layanan mereka.

Yang pertama lebih berfokus pada pencarian nasional atau internasional.

Sejarah SEO

Webmaster dan penyedia konten mulai mengoptimalkan situs web untuk mesin pencari pada pertengahan 1990-an.

Ketika mesin pencari pertama kali membuat katalog web pertama.

Pada awalnya, semua webmaster hanya perlu mengirim alamat halaman atau URL ke mesin lain yang mengirim bot untuk merayapi halaman itu, mengekstrak tautan ke halaman lain, dan mengembalikan informasi pada halaman yang akan diindeks.

Prosesnya termasuk bot ( spider ) mesin pencari yang mengunduh dan menyimpan halaman di server mesin pencari itu sendiri.

Program kedua, yang dikenal sebagai pengindeksan, mengambil informasi tentang halaman, seperti kata-kata yang dikandungnya, di mana mereka berada dan berat kata-kata tertentu, serta tautan apa pun yang berisi halaman.

Semua informasi ini kemudian ditempatkan dalam perencana untuk kemudian dirayapi.

Pemilik situs web mengakui nilai tinggi dan visibilitas dalam hasil mesin pencari, menciptakan peluang bagi para praktisi SEO white hat dan black hat.

Menurut analis Danny Sullivan, istilah “optimasi mesin pencari” dapat mulai digunakan pada tahun 1997.

Sullivan memuji Bruce Clay sebagai salah satu orang pertama yang mempopulerkan istilah itu.

Pada 2 Mei 2007, Jason Gambert berusaha menggunakan istilah SEO sebagai merek dagang dengan meyakinkan Kantor Merek Dagang di Arizona bahwa SEO adalah “proses” yang mencakup manipulasi kata kunci dan bukan “layanan pemasaran”.

Versi awal algoritma pencarian didasarkan pada informasi dari webmaster, seperti meta tag kata kunci atau file indeks pada mesin seperti ALIWEB.

Meta tag memberikan pedoman untuk konten setiap halaman.

Namun, menggunakan metadata untuk mengindeks halaman tampaknya kurang dapat diandalkan.

Karena pilihan kata kunci webmaster dalam tag meta memiliki potensi untuk secara akurat mencerminkan konten sebenarnya dari situs.

Data meta tag yang tidak akurat, tidak lengkap, dan tidak konsisten dapat dan memang menyebabkan peringkat halaman untuk pencarian yang tidak relevan.

Penyedia konten web juga memanipulasi beberapa atribut dalam sumber HTML halaman dalam upaya untuk peringkat yang baik di mesin pencari.

Baca juga : Cara Membuat Konten Berkualitas Di Website

Pada tahun 1997, perancang mesin pencari mengakui bahwa webmaster melakukan yang terbaik untuk peringkat yang baik di mesin pencari mereka, dan beberapa webmaster bahkan memanipulasi peringkat mereka dalam hasil pencarian dengan mengisi halaman dengan kata kunci yang berlebihan atau tidak relevan.

Mesin pencari awal, seperti Altavista dan Infoseek, telah mengadaptasi algoritma mereka untuk mencegah webmaster memanipulasi peringkat.

Dengan mengandalkan begitu banyak pada faktor-faktor seperti kepadatan kata kunci yang hanya di bawah kendali webmaster, mesin pencari awal menderita penyalahgunaan dan manipulasi peringkat.

Untuk memberikan hasil yang lebih baik kepada penggunanya, mesin pencari harus beradaptasi untuk memastikan bahwa halaman hasil mereka menunjukkan hasil pencarian yang paling relevan, daripada halaman yang tidak terkait yang diisi dengan banyak kata kunci oleh webmaster yang yang nakal.

Ini berarti beralih dari ketergantungan istilah yang tinggi ke proses pencetakan sinyal semantik yang lebih holistik.

Karena kesuksesan dan popularitas mesin pencari ditentukan oleh kemampuannya untuk menghasilkan hasil yang paling relevan untuk pencarian tertentu, kualitas hasil pencarian yang buruk atau tidak relevan dapat mendorong pengguna untuk menemukan sumber pencarian lainnya.

Mesin pencari merespons dengan mengembangkan algoritma peringkat yang lebih kompleks, dengan mempertimbangkan faktor-faktor tambahan yang lebih sulit untuk dimanipulasi oleh webmaster.

Pada tahun 2005, sebuah konferensi tahunan, AIRWeb (Pengambilan Informasi Adversarial di Web), dibentuk untuk menyatukan para praktisi dan peneliti yang peduli dengan optimasi mesin pencari dan topik terkait.

Perusahaan yang menggunakan teknik yang terlalu agresif dapat melarang situs web pelanggan mereka dari hasil pencarian.

Pada 2005, Wall Street Journal melaporkan perusahaan, Traffic Power, yang dilaporkan menggunakan teknik berisiko dan tidak mengungkapkan risiko itu kepada pelanggannya.

Wired Magazine melaporkan bahwa perusahaan yang sama menggugat blogger dan SEO Aaron Wall karena menulis tentang larangan tersebut.

Google Matt Cutts kemudian mengkonfirmasi bahwa Google memang melarang Traffic Power dan beberapa pelanggannya.

Beberapa mesin pencari juga mencapai industri SEO dan sering menjadi sponsor dan tamu di konferensi SEO, obrolan web dan seminar.

Mesin pencari utama memberikan informasi dan panduan untuk membantu mengoptimalkan situs web.

Google memiliki program peta situs untuk membantu para webmaster mengetahui apakah Google mengalami masalah dalam mengindeks situs web mereka dan juga menyediakan data lalu lintas Google ke situs web ini.

Bing Webmaster Tools menyediakan cara bagi webmaster untuk mengirimkan peta situs dan umpan web, memungkinkan pengguna menentukan “kecepatan perayapan”, dan melacak status indeks halaman web.

Pada 2015, dilaporkan bahwa Google telah mengembangkan dan mempromosikan pencarian seluler sebagai fitur penting dari produk masa depan.

Sebagai tanggapan, banyak merek sudah mulai mengambil pendekatan berbeda untuk strategi pemasaran internet mereka.

Mesin pencari terkemuka, seperti Google, Bing dan Yahoo !, menggunakan bot crawler untuk menemukan halaman untuk hasil pencarian algoritmik mereka.

Halaman yang ditautkan dari halaman yang diindeks oleh mesin pencari lain tidak perlu dikirim karena mereka secara otomatis ditemukan.

Yahoo! Direktori dan DMOZ, dua direktori utama ditutup masing-masing pada tahun 2014 dan 2017, keduanya membutuhkan pengiriman manual dan tinjauan editorial manusia.

Google menawarkan Google Search Console, tempat sitemap XML feed dapat dibuat dan dikirim secara gratis untuk memastikan bahwa semua halaman ditemukan, terutama yang tidak dapat ditemukan dengan secara otomatis mengikuti tautan di sebelah konsol yang mengirimkan URL mereka.

Yahoo! sebelumnya memiliki layanan pengiriman berbayar yang menjamin creep berdasarkan biaya per klik.

Namun, praktik ini dihentikan pada tahun 2009.

Perayap mesin pencari dapat melihat sejumlah faktor berbeda saat merayapi sebuah situs.

Tidak setiap halaman diindeks oleh mesin pencari. Jarak dari halaman ke direktori root situs juga bisa menjadi faktor dalam apakah halaman dirayapi atau tidak.

Saat ini, kebanyakan orang mencari di Google dengan perangkat seluler.

Pada November 2016, Google mengumumkan perubahan besar dalam cara merayapi situs web dan pertama kali mulai membuat indeksnya, yang berarti versi seluler situs web Anda adalah titik awal untuk apa yang dimasukkan Google dalam indeks mereka.

Pada Mei 2019, Google memperbarui mesin rendering perayap mereka ke versi terbaru Chromium (74 pada saat pengumuman).

Google telah mengindikasikan bahwa mereka akan secara teratur memperbarui mesin rendering Chromium (browser web) ke versi terbaru.

Pada bulan Desember 2019, Google mulai memperbarui rangkaian Agen-Pengguna perayap mereka untuk mencerminkan versi Chrome terbaru yang digunakan oleh layanan rendering mereka.

Penundaannya adalah untuk memberikan waktu bagi webmaster untuk memperbarui kode mereka yang merespons botstring Agen-Pengguna tertentu.

Google sedang melakukan evaluasi dan yakin bahwa dampaknya akan kecil

Backlinks dalam SEO

Ilustrasi gambar seo backlinks

Mesin pencari menggunakan algoritma matematika yang kompleks untuk menafsirkan situs web mana yang dicari pengguna.

Dalam diagram ini, jika setiap gelembung mewakili situs web, program terkadang disebut sebagai laba-laba, memeriksa situs mana yang terhubung ke situs lain, dengan panah yang mewakili tautan ini.

Situs web dengan lebih banyak tautan masuk atau tautan yang lebih kuat dianggap lebih penting dan apa yang dicari pengguna.

a-pub-2354269854877183" data-ad-slot="8273968190" data-ad-format="auto" data-full-width-responsive="true">

Dalam contoh ini, karena situs web B adalah penerima banyak inbound link, ini lebih tinggi di hasil pencarian web.

Dan tautan “carry through”, jadi situs web C, meskipun hanya memiliki satu tautan masuk, memiliki tautan masuk dari situs yang sangat populer (B), sedangkan situs E tidak. Catatan: Persentase dibulatkan.

Perayapan Konten Website

Untuk mencegah konten yang tidak diinginkan dalam indeks pencarian, webmaster dapat memerintahkan spider untuk tidak merayapi file atau folder tertentu melalui file robots.txt standar di direktori root domain.

Selain itu, halaman dapat secara eksplisit dikecualikan dari database mesin pencari dengan menggunakan tag meta khusus untuk robot (biasanya ).

Ketika mesin pencari mengunjungi sebuah situs, direktori root robots.txt adalah file pertama yang akan dirayapi.

File robots.txt kemudian diurai dan memberi tahu robot halaman mana yang tidak dirayapi.

Karena crawler mesin pencari dapat menyimpan file-file ini dengan cache, kadang-kadang ini bisa merayapi halaman yang tidak ingin dirayapi oleh webmaster.

Halaman yang biasanya tidak dapat dijelajahi termasuk halaman login khusus seperti keranjang belanja dan konten khusus pengguna seperti hasil pencarian internal.

Pada bulan Maret 2007, Google memperingatkan webmaster untuk menghindari pengindeksan hasil pencarian internal karena halaman tersebut dianggap sebagai spam pencarian.

Peningkatan pencarian

Beberapa metode dapat meningkatkan kesadaran halaman web dalam hasil pencarian.

Tautan silang antara halaman situs web yang sama untuk memberikan lebih banyak tautan ke halaman penting dapat meningkatkan visibilitas mereka.

Menulis konten yang sering mencari frasa sehingga relevan dengan berbagai pencarian cenderung mendorong lebih banyak lalu lintas.

Memperbarui konten sehingga mesin telusur yang disusun kembali secara teratur dapat menambah bobot ke situs.

Baca juga : Tips Menulis Konten SEO Paling Tepat

Menambahkan kata kunci yang relevan ke metadata halaman web, termasuk tag judul dan deskripsi meta, akan meningkatkan relevansi daftar pencarian situs, meningkatkan lalu lintas.

Kanonisasi URL halaman web yang dapat diakses dari banyak URL, menggunakan elemen tautan kanonik atau melalui pengalihan 301, dapat menyebabkan tautan ke berbagai versi URL dihitung berdasarkan skor popularitas tautan halaman.

White Hat dan Black Hat

Teknik SEO dapat dibagi menjadi dua kategori besar: teknik yang direkomendasikan oleh perusahaan mesin pencari sebagai bagian dari desain yang baik atau white hat, dan teknik yang tidak disetujui oleh mesin pencari yakni black hat.

Mesin pencari berusaha meminimalkan efek yang terakhir, termasuk penghapusan spam.

Komentator industri telah mengklasifikasikan metode ini dan para praktisi menggunakannya sebagai White Hat SEO atau Black Hat SEO.

White hat cenderung menghasilkan hasil yang tahan lama, sementara black hat berharap situs mereka pada akhirnya akan diblokir sementara atau permanen setelah mesin pencari menemukan apa yang mereka lakukan.

Teknik SEO dianggap organik atau white hat jika mereka mematuhi pedoman mesin pencari dan tidak melibatkan penipuan.

Karena pedoman mesin pencari tidak ditulis sebagai seperangkat aturan atau perintah, ini merupakan perbedaan penting untuk dicatat.

Teknik White hat SEO bukan hanya tentang mengikuti pedoman, tetapi tentang memastikan bahwa isi indeks mesin pencari dan kemudian peringkatnya adalah konten yang sama dengan yang akan dilihat pengguna.

Cara kerja White Hat umumnya diringkas sebagai membuat konten untuk pengguna, bukan mesin pencari, dan kemudian membuat konten mudah diakses oleh algoritma “spin” online, daripada mencoba menyesatkan algoritma dari tujuan yang dimaksudkan.

Dimaksud White hat SEO serupa dalam banyak hal dengan pengembangan web yang mempromosikan aksesibilitas, meskipun keduanya tidak identik.

Cara Black hat SEO mencoba meningkatkan peringkat dengan cara yang tidak disetujui oleh mesin pencari atau melibatkan penipuan.

Teknik black hat menggunakan teks tersembunyi, baik sebagai teks warna yang menyerupai latar belakang, dalam div tak terlihat, atau di luar layar.

Metode ilegal lain memberikan halaman yang berbeda, tergantung pada apakah halaman itu diminta oleh pengunjung manusia atau mesin pencari, teknik yang dikenal sebagai cloaking.

Kategori lain yang kadang digunakan adalah metode Gray Hat SEO.

Ini adalah antara pendekatan black hat dan white hat, di mana metode yang digunakan menghindari situs yang dihukum tetapi tidak bertindak untuk menghasilkan konten terbaik bagi pengguna.

Cara kerja Gray Hat SEO sepenuhnya berfokus pada peningkatan peringkat mesin pencari.

Baca juga : Tips Memilih Jasa SEO di Indonesia

Mesin pencari dapat menghukum situs yang mereka temukan menggunakan metode black hat atau abu-abu, dengan menurunkan peringkat mereka atau sepenuhnya menghapus daftar mereka dari database mereka.

Hukuman ini dapat diterapkan secara otomatis oleh algoritma mesin pencari atau dengan penilaian situs manual.

Contohnya adalah penghapusan Google BMW pada Februari 2006 dan Ricoh Jerman untuk penggunaan praktik penipuan.

Namun, kedua perusahaan dengan cepat meminta maaf, memperbaiki halaman ofensif, dan kembali ke halaman hasil mesin pencari Google.

SEO sebagai strategi pemasaran

SEO bukan strategi yang tepat untuk setiap situs web, dan strategi pemasaran internet lainnya bisa lebih efektif, seperti iklan berbayar melalui kampanye bayar per klik (PPC), tergantung pada tujuan administrator situs.

Baca juga : Daftar Situs Iklan Cepat Menghasilkan

Pemasaran mesin pencari (SEM) adalah praktik merancang, melaksanakan, dan mengoptimalkan kampanye iklan untuk mesin pencari.

Perbedaan dari SEO paling sederhana digambarkan sebagai perbedaan antara peringkat prioritas berbayar dan tidak dibayar dalam hasil pencarian.

Tujuannya mempertimbangkan keunggulan lebih dari relevansi.

Pengembang situs web harus mempertimbangkan SEM yang paling penting dalam hal visibilitas, karena sebagian besar menavigasi ke daftar utama pencarian mereka.

Kampanye pemasaran internet yang berhasil juga tergantung pada pembuatan halaman web berkualitas tinggi untuk terlibat dan meyakinkan, membuat program analitis untuk memungkinkan pemilik situs untuk mengukur hasil dan meningkatkan tingkat konversi situs.

Baca juga : Cara Memasang Iklan Yang Baik dan Tepat

Pada November 2015, Google merilis versi 160 halaman dari Panduan Penilaian Kualitas Pencarian untuk publik, menunjukkan pergeseran fokus mereka ke “kegunaan” dan pencarian mobile.

Dalam beberapa tahun terakhir, pasar seluler telah tumbuh eksplosif dan telah melampaui penggunaan desktop, seperti yang ditunjukkan StatCounter pada Oktober 2016 di mana mereka menganalisis 2,5 juta situs web dan menemukan bahwa 51,3% halaman dimuat oleh perangkat seluler.

Google telah menjadi salah satu perusahaan yang memanfaatkan popularitas penggunaan ponsel dengan mendorong situs web.

Untuk menggunakan Google Search Console mereka, tes ramah seluler, yang memungkinkan perusahaan untuk mengukur situs web mereka terhadap hasil mesin pencari dan betapa mudahnya menggunakannya. .

SEO dapat memberikan pengembalian investasi yang memadai.

Namun, mesin pencari tidak dibayar untuk lalu lintas pencarian organik, algoritma mereka berubah, dan tidak ada jaminan rujukan berkelanjutan.

Karena kurangnya jaminan dan kepastian, perusahaan yang sangat bergantung pada lalu lintas mesin pencari dapat menderita kerugian besar jika mesin pencari tidak lagi mengirim pengunjung.

Mesin pencari dapat mengubah algoritme mereka, yang memengaruhi penempatan situs web, yang berpotensi menyebabkan hilangnya lalu lintas serius.

Menurut CEO Google Eric Schmidt, Google membuat lebih dari 500 perubahan algoritma pada 2010 – hampir 1,5 hari.

Ini dianggap sebagai praktik bisnis yang masuk akal bagi operator situs web untuk menghilangkan ketergantungan lalu lintas mesin pencari.

Selain aksesibilitas dalam hal perayap web (dibahas di atas), aksesibilitas pengguna web semakin penting untuk SEO.

Pangsa Pasar

Teknik optimasi sangat disesuaikan dengan mesin pencari yang dominan di pasar sasaran.

Pangsa pasar mesin pencari bervariasi dari satu pasar ke pasar lainnya, demikian pula persaingan.

Pada tahun 2003, Danny Sullivan menyatakan bahwa Google mewakili sekitar 75% dari semua pencarian.

Link sponsor :

Di pasar di luar Amerika Serikat, pangsa Google sering kali lebih besar dan Google akan tetap menjadi mesin pencari dominan di seluruh dunia pada 2007.

Pada 2006, Google memiliki pangsa pasar 85-90% di Jerman.

Sementara ada ratusan perusahaan SEO di AS pada saat itu, hanya ada sekitar lima di Jerman.

Pada Juni 2008, pangsa pasar Google di Inggris hampir 90%, menurut Hitwise.

Pangsa pasar dicapai di sejumlah negara.

Pada 2009, hanya ada beberapa pasar utama di mana Google bukan mesin pencari terkemuka.

Dalam kebanyakan kasus, ketika Google tidak memimpin di pasar tertentu, ia tertinggal dari pemain lokal.

Pasar contoh yang paling terkenal adalah Cina, Jepang, Korea Selatan, Rusia dan Republik Ceko, di mana Baidu, Yahoo! Jepang, Naver, Yandex dan Seznam adalah pemimpin pasar.

Optimasi pencarian yang berhasil untuk pasar internasional mungkin memerlukan terjemahan profesional halaman web, pendaftaran nama domain dengan domain tingkat atas di pasar target, dan hosting web yang menyediakan alamat IP lokal.

Jika tidak, elemen dasar dari optimasi pencarian pada dasarnya sama terlepas dari bahasanya.

Sumber

k" data-ad-client="ca-pub-2354269854877183" data-ad-slot="8273968190" data-ad-format="auto" data-full-width-responsive="true">

You may also like...

Leave a Reply