wiblogger

HTML <table> : Cara membuat tabel di postingan blog

HTML <table> : Cara membuat tabel di postingan blog

Daftar isi:
  1. Cara membuat tabel di postingan blogger
  2. HTML table sederhana
  3. Menggabungkan cell antar baris dan kolom


1. Cara membuat tabel dipostingan blog

Kita tahu bahwa salah satu keterbatasan yang terdapat pada post editor blogger adalah tidak tersedianya toolbar untuk membuat tabel. Untuk membuat tabel, kita harus membuat dan memasukkan kode HTML secara manual dengan cara: Masuk ke antarmuka post editor, pada mode penulisan post, pilih mode HTML. Paste kode html tabel pada posisi yang anda kehendaki.



2. HTML Tabel sederhana

HTML1: HTML Tabel sederhana
<table>
    <tbody>
        <tr>
            <td>Cell baris 1, kolom 1</td>
            <td>Cell baris 1, kolom 2</td>
        </tr>
        <tr>
            <td>Cell baris 2, kolom 1</td>
            <td>Cell baris 2, kolom 2</td>
        </tr>
    </tbody>
</table>


Hasil HTML 1
Cell baris 1, kolom 1 Cell baris 1, kolom 2
Cell baris 2, kolom 1 Cell baris 2, kolom 2


Keterangan HTML 1:
tableTag untuk membuat tabel
tbody Tag yang mendefinisikan tubuh tabel. Khususnya pada antarmuka post editor blogger, tag ini bersifat optional (tidak harus digunakan). Dengan kata lain, tanpa tag tbody sekalipun, tabel tetap dapat ditampilkan dengan benar. Jika tag ini tidak didefinisikan, sistem blogger akan secara otomatis melengkapi tag tbody ini ketika post diterbitkan
tr Tag untuk membuat baris baru pada tabel. Sebuah tabel setidaknya terdiri dari satu baris
td Tag untuk membuat Cell baru pada tabel. Sebuah baris tabel setidaknya terdiri dari satu cell. Tag ini selalu digunakan didalam tag tr. Jumlah kolom pada tabel sama dengan jumlah cell per baris.


Pada HTML 1, semua cell didefinisikan dengan menggunakan tag td. Terdapat dua jenis cell pada tabel, yaitu Standard cell dan Header cell. Standard cell didefinisikan dengan tag td, dan Header cell didefinisikan dengan tag th. Header cell digunakan untuk memberikan label pada baris atau kolom tertentu. Berikut adalah contoh penggunaan header cell.

HTML2: Penggunaan Tag TH
<table>
    <tbody>
        <tr>
            <th>Nama</th>
            <th>Umur</th>
        </tr>
        <tr>
            <td>Mawar</td>
            <td>17</td>
        </tr>
        <tr>
            <td>Melati</td>
            <td>19</td>
        </tr>
    </tbody>
</table>


Hasil HTML 2
Nama Umur
Mawar 17
Melati 19


3. Menggabungkan cell antar baris dan kolom

Kita bisa menggabungkan (Marge) cell antar baris atau kolom dengan menggunakan atribut rowspan dan colspan.

rowspan Menggabungkan cell antar baris. Atribut ini digunakan pada tag td atau th
colspan Menggabungkan cell antar kolom. Atribut ini digunakan pada tag td atau th.


HTML 3: Penggunaan rowspan
<table>
    <tbody>
        <tr>
            <td rowspan='2'>Baris 1-2, kolom 1</td>
            <td>Baris 1, kolom 2</td>
        </tr>
        <tr>
            <td>Baris 2, kolom 2</td>
        </tr>
        <tr>
            <td>Baris 3, kolom 1</td>
            <td>Baris 3, kolom 2</td>
        </tr>
    </tbody>
</table>


Hasil HTML 3
Baris 1-2, kolom 1 Baris 1, kolom 2
Baris 2, kolom 2
Baris 3, kolom 1 Baris 3, kolom 2


Keterangan HTML 3 Pada HTML 3 diatas, cell pertama baris 1 memiliki atribut rowspan dengan value 2. Ini artinya, cell tersebut akan mengambil Space sebanyak 2 baris. Oleh karena itu, hanya satu cell didefinisikan pada baris 2 (satu space cell lagi telah diambil oleh cell dengan rowspan yang bersangkutan).


HTML 3: Penggunaan colspan
<table>
    <tbody>
        <tr>
            <th>Baris 1, kolom 1</th>
            <th colspan='2'>Baris 1, kolom 2-3</th>
        </tr>
        <tr>
            <td>Baris 2, kolom 1</td>
            <td>Baris 2, kolom 2</td>
            <td>Baris 2, kolom 3</td>
        </tr>
        <tr>
            <td>Baris 3, kolom 1</td>
            <td>Baris 3, kolom 2</td>
            <td>Baris 2, kolom 3</td>
        </tr>
    </tbody>
</table>


Hasil HTML 4
Baris 1, kolom 1 Baris 1, kolom 2-3
Baris 2, kolom 1 Baris 2, kolom 2 Baris 2, kolom 3
Baris 3, kolom 1 Baris 3, kolom 2 Baris 2, kolom 3


Keterangan HTML 4 Pada HTML 4 diatas, cell ke-2 baris pertama memiliki atribut colspan dengan value 2. Ini artinya, cell tersebut akan mengambil Space sebanyak 2 kolom. Oleh karena itu, cell ke-3 pada baris 1 tidak didefinisikan (space ke-3 telah diambil oleh cell dengan colspan yang bersangkutan).
EasyAdsPage: Buat halaman iklan (Safelink-like) Anda sendiri dengan sangat mudah

EasyAdsPage: Buat halaman iklan (Safelink-like) Anda sendiri dengan sangat mudah

EasyAdsPage adalah theme sekaligus AdsPage Creator (pembuat halaman iklan) untuk blogger dengan sistem yang sangat user friendly. Anda dapat membuat halaman iklan versi anda sendiri dengan sangat mudah.

Apa itu AdsPage ?

AdsPage sendiri tidak ubahnya seperti blog safelink. Ya, anda bisa menyebutnya dengan blog safelink. Namun, karena fungsi blog ini hanya untuk kepentingan iklan (bukan untuk berbagai kegiatan keamanan lainnya), saya lebih suka menyebutnya sebagai blog AdsPage ^_^.

Belum familiar dengan istilah safelink ?, baca Apa itu safelink ?

Fitur EasyAdsPage

Berikut adalah beberapa fitur yang akan anda dapatkan pada EasyAdsPage.

EasyAdsPage Dashboard: Konfigurasi super mudah

EasyAdsPage dilengkapi dengan dashboard khusus yang akan sangat memudahkan anda dalam proses instalasi maupun editing dikemudian hari. Anda hanya perlu mengakses dashboard untuk melakukan konfigurasi keseluruhan baik itu konfigurasi untuk blog utama maupun konfigurasi untuk blog iklan (blog AdsPage).


EasyAdsPage dashboard ini dapat anda akses dengan url:
domain-blog-adspage.com/dashboard


Integrasi hingga ke 3 blog utama

Anda dapat mengintegrasikan hingga 3 blog utama pada satu blog AdsPage. Proses integrasi juga akan sangat mudah.



Support Blogger Theme Designer

EasyAdsPage juga mendukung theme designer yang tentunya akan sangat memudahkan anda dalam menyesuaikan berbagai desain yang tersedia. Hal ini seperti mengganti background header, tombol serta berbagai elemen lainnya.



Clear Documentation

Selain dukungan custom dashboard yang user freindly, berbagai pentunjuk serta informasi terkait EasyAdsPage ini telah kami buat dengan sangat jelas pada halaman dokumentasi. Anda dapat mengakses halaman dokumentasi dengan URL:



Premium support (Layanan, bantuan) seumur hidup

Meskipun hampir semua hal telah kami dokumentasikan dengan sangat jelas, kami juga memberikan support untuk EasyAdsPage. Adapun masa berlaku support adalah seumur hidup (selama wiBlogger.com masih beroperasi). Ya, selama wiBlogger.com masih beroperasi, anda bisa menghubungi kami untuk masalah apapun yang dihadapi terkait EasyAdsPage.

Lainnya

  • Responsive
  • Custom pesan cookie policy
  • Dukungan konfigurasi Lebar maksimal konten blog AdsPage yang bisa disesuaikan
  • Dukungan konfigurasi lokasi penempatan tombol (Header atau Middle)
  • Dukungan konfigurasi tipe tombol (Square atau Circle)
  • Dukungan Random artikel
  • Dukungan konfigurasi halaman tujuan berbeda untuk masing-masing blog utama
  • Dukungan Custom Text Header untuk masing-masing blog utama
  • Dukungan Custom Text Tombol untuk masing-masing blog utama
  • And more...


Wajib baca !

Pastikan apa yang kami tawarkan telah sesuai dengan apa yang anda butuhkan. Kami tidak akan menerima keluhan apapun yang disebabkan oleh ke-tidak-pahaman anda terkait produk yang kami tawarkan. Sebelum anda memutuskan untuk membeli produk ini, pastikan anda membaca dan setuju dengan berbagai ketentuan berikut:

  • Anda telah paham tentang apa itu blog safelink dan bagaimana sistem kerja blog safelink. Pada halaman Dokumentasi EasyAdsPage, kami telah membuat langkah-langkah serta hal apa saja yang dibutuhkan untuk membuat blog AdsPage (Tab Instalasi > Persiapan). Pastikan semua hal tersebut memungkinkan bagi anda.
  • Paket EasyAdsPage
    Kami hanya menyediakan paket berupa theme untuk blog AdsPage dan integrasi ke blog utama. Dengan kata lain, paket yang kami berikan tidak termasuk pada berbagai hal terkait lainnya seperti Akun Adsense, Domain, Artikel dan Laman untuk blog AdsPage (anda harus menyediakannya sendiri).
  • Tidak ada garansi peningkatan earning
    Meskipun kami percaya bahwa metode ini sangat efektif dalam meningkatkan penghasilan blog, kami tidak menjanjikan apapun terkait earning.
  • Tidak ada garansi keamaan (banned) akun adsense
    Dengan memutuskan untuk membeli produk ini, anda telah paham betul tentang resiko yang mungkin disebabkan oleh metode AdsPage (safelink). Kami tidak memberikan garansi serta tanggung jawab apapun terkait keamanan akun adsense anda.


Lisensi

Anda (sebagai pembeli) tidak diizinkan untuk:
  • Menggunakan EasyAdsPage untuk blog utama berkonten ilegal seperti blog download software crack, dan lain sebagainya.
  • Menggunakan EasyAdsPage untuk blog utama berkonten porno
  • Menjual ulang EasyAdsPage
  • Menjadikan EasyAdsPage sebagai bonus


Apa itu blog Safelink ?, Pengertian, Cara kerja, dan Fungsi

Apa itu blog Safelink ?, Pengertian, Cara kerja, dan Fungsi

Apa itu safelink ?

Safelink adalah sebuah blog atau halaman (anggaplah) transit yang dibuat untuk berbagai tujuan. Hal ini seperti misalnya untuk meng-encrypt URL tujuan link, menscan berbagai potensi malware pada URL tujuan link dan lain sebagainya. Diantara banyak tujuan ini, satu yang paling identik dengan pembuatan safelink adalah untuk meningkatkan pendapatan blog utama melalui media periklanan.

Pada artikel ini, kita akan fokus pada fungsi safelink sebagai upaya meningkatkan pengahasil blog utama. Untuk tujuan lainnya, ini tidak akan kita bahas. Ya, hal ini karena sebagian besar blogger memanfaatkan safelink untuk tujuan meningkatkan penghasilan blog, bukan untuk berbagai tujuan keamanan seperti yang disebutkan.


Sistem Safelink

Pada umumnya, sistem safelink melibatkan 2 buah blog. Dua buah blog ini adalah Blog utama dan Blog safelink itu sendiri.

Blog utama

Blog yang telah memiliki banyak pengunjung.

Blog safelink

Blog yang akan dipasang iklan. Sumber pengunjung blog ini umumnya hanya berasal dari blog utama


Sistem safelink bekerja dengan cara memanipulasi url tujuan link yang terdapat pada blog utama dan mengarahkannya ke halaman blog safelink. Pada halaman blog safelink yang bersangkutan, terdapat sebuah link (umumnya berupa tombol) yang akan mengarahkan pengunjung ke url tujuan asli sesuai dengan url yang terdapat pada blog utama.

Misal, pada blog utama terdapat link dengan url tujuan http://example.com (kita sebut ini tujuan asli). Setelah script safelink diinstal pada blog utama, url tujuan link tersebut tidak lagi berupa tujuan asli, melainkan akan berupa url baru yang mengarah pada salah satu halaman blog safelink, misal http://safelinkdomain.com/p/page.html?BlaBlaBla (kita sebut ini sebagai halaman blog safelink). Ketika pengunjung mengklik salah satu link yang terdapat pada blog utama, pengunjung akan diarahkan ke halaman blog safelink terlebih dahulu. Pada halaman blog safelink tersebut, terdapat tombol untuk menuju ke tujuan asli.

sistem safelink


Bagaimana safelink bisa meningkatkan penghasilan blog ?

Pada halaman blog safelink, selain tombol menuju ke URL tujuan asli, pemilik blog biasanya juga menampilkan iklan. Penempatan iklan yang dipilih juga biasanya cukup "ganas" sehingga dapat meningkatkan CTR iklan. Mengenai CTR iklan pada blog safelink, umumnya relative tinggi, biasanya berkisar antara 6-10% atau lebih (tergantung nice, dan mayoritas perangkat pengunjung).

Sistem blog safelink


Apakah safelink aman untuk adsense ?

Berbicara tentang aman atau tidaknya, banyak blogger yang beranggapan bahwa penggunaan safelink sangat rawan banned adsense. Hal ini kembali lagi pada face and fate masing-masing. Namun, jika anda bertanya pendapat saya yang juga merupakan pengguna metode ini, aman atau tidaknya tergantung dari konten sumber pengunjung (blog utama).

Ya, pemanfaatan safelink lebih umum diterapkan pada blog jenis download. Sehubungan dengan ini, tidak sedikit blogger yang memanfaatkan safelink untuk blog utama yang berbasis download software ilegal (crack). Hal ini jelas melanggar pelaturan adsense dan bukan merupakan etika blogger yang baik.
Cara mencari gambar tanpa Hak Cipta (Copyrights) di google

Cara mencari gambar tanpa Hak Cipta (Copyrights) di google

Seperti yang telah disinggung pada postingan Cara membuat postingan yang SEO friendly, salah satu hal yang harus diperhatikan dalam membuat postingan adalah sumber gambar. Pada kasus tertentu (atau untuk tipe-tipe post tertentu), sering kali menuntut kita menggunakan gambar yang tidak bersumber dari karya sendiri. Jika demikian, pastikan gambar yang anda gunakan bebas copyrights (Hak cipta). Hal ini mungkin jarang dipedulikan oleh kebanyakan blogger. Namun, perlu diketahui bahwa google sangat-sangat care dalam hal copyrights. Jangan sampai blog anda mendapatkan penalty google karena pelanggaran hak cipta. Selain itu, terlepas dari faktor SEO dan penalty google, menggunakan aset yang memiliki copyrights bukan merupakan etika blogger yang baik.

Langkah-langkah:
  1. Kunjungi images.google.com dan masukkan keyword gambar yang anda cari. Pada contoh ini saya menggunakan keyword blogger
  2. Pada antarmuka hasil pencarian, klik Setelan > Penelusuran lanjutan.

    Cara mencari gambar gratis tanpa hak cipta di google
  3. Anda akan dibawa pada formulir penelusuran lanjutnya dengan beberapa input yang dapat disesuaikan. Untuk mengatur agar google hanya menampilkan gambar tanpa hak cipta, Scroll ke bagian paling bawah, pada opsi Hak penggunaan, pilih Bebas digunakan atau dibagikan, bahkan secara komersial. Terakhir klik Penelusuran lanjutan.

    Cara mencari gambar gratis di google


Dengan langkah-langkah diatas, google hanya akan menampilkan gambar tanpa hak cipta. Untuk kasus tertentu, karena gambar dengan lisensi ini bisa dikatakan agak jarang, hasil penelusuran kemungkinan besar akan jauh lebih sedikit (dibandingkan tanpa filter). Atau bahkan mungkin tidak ada.


Kalau gak ada gimana ?

Bikin sendiri

Gak bisa bikin sendiri

Ganti topik

Apa itu duplikat konten ? Cara mengatasi duplikat konten di blogger

Bagi anda yang masih baru dalam blogging, anda mungkin sering kali membaca artikel yang menyinggung tentang duplikat konten, terlebih jika itu merupakan artikel yang membahas seputar teknik SEO.


Apa itu duplikat konten ?

Duplikat konten adalah keadaan dimana suatu situs memiliki dua atau lebih halaman yang sama atau sangat mirip.

Duplikat konten itu ketika terdapat postingan yang sama pada blog kita ya ?

Tepat !

Ketika postingan blog kita sama dengan postingan blog lain (copas artikel orang), apakah itu juga duplikat konten ?

Bukan !
Duplikat konten hanya sebatas pada blog yang sama. Untuk kasus copas artikel orang, ini disebut plagiat konten. Plagiat konten sendiri kasusnya jauh lebih "berat" dibandingkan duplikat konten. Ya, hal ini jelas karena plagiat konten adalah pelanggaran hak cipta. Mesin pencari google sangat-sangat care dengan ini. Blog yang terdeteksi sebagai plagiat konten akan dihapus dari mesin pencari (deindex).

Kalau duplikat konten gimana ?

Kita bahas diluar dialog.


Penyebab duplikat konten

Sebelum membahas tentang seberapa besar dampak duplikat konten terhadap SEO blog, akan kita bahas mengenai hal yang menyebabkan duplikat konten.

POIN:
Pada kasus normal, setiap blog umumnya akan memproduksi duplikat konten.

Ya, duplikat konten tergolong kasus yang wajar. Hal ini karena sistem dari blog itu sendiri yang umumnya akan menampilkan suatu konten pada beberapa halaman (URL) yang berbeda. Kita misalkan untuk blog dengan platform blogging blogger.com, ketika anda menerbitkan postingan, postingan ini akan ditampilkan pada beberapa halaman, yaitu halaman item (halaman postingan itu sendiri), label, arsip dan search. Sistem inilah yang menyebabkan terdeteksinya duplikat konten oleh mesin pencari, terlebih lagi jika anda menampilkan post secara penuh pada halaman index (homepage, label, search). Hal ini akan memproduksi banyak halaman yang memiliki konten serupa.


Dampak duplikat konten terhadap SEO blog

Mengenai dampak duplikat konten terhadap ranking blog di mesin pencari, pada kasus umum, mesin pencari akan memilih mana halaman yang lebih diprioritaskan dan hanya menampilkan satu dari halaman-halaman yang serupa pada hasil pencarian. Untuk kasus seperti ini, google tidak akan menjatuhkan penalty (hukuman) untuk blog yang bersangkutan. Namun, ada kasus dimana mesin pencari google menganggap bahkan duplikat konten yang terdeteksi merupakan hasil dari tindakan manipulasi yang bertujuan menjaring trafik dengan banyak keyword dan konten yang tidak relevan. Untuk kasus seperti ini, google mungkin akan menghapus index blog yang bersangkutan (deindex). Informasi google tentang duplikat konten bisa anda baca di: https://support.google.com/webmasters/answer/66359?hl=id.


Mengatasi / mencegah duplikat konten

Meskipun belum tentu duplikat konten akan berdampak pada ranking blog di mesin pencari, melakukan tindakan pencegahan merupakah salah satu praktek SEO yang umumnya diterapkan oleh para webmaster. Dengan mencegah dan meminimalisir produksi duplikat konten, mesin pencari setidaknya tidak perlu serangkaian proses untuk menentukan prioritas konten.

Berikut adalah beberapa halaman yang dapat menyebabkan duplikat konten, halaman-halaman ini (umumnya) memang tidak perlu diindex oleh mesin pencari.

Halaman Format URL
Label www.example.com/search/label/nama%20label
Search by query www.example.com/search?q=guery
Search by published www.example.com/search?update-max=date
Arsip
www.example.com/tahun/bulan
www.example.com/tahun_bulan_archive.html

Info: Beberapa waktu yang lalu, konfigurasi robots.txt untuk mencegah duplikat konten juga memblock index untuk halaman mobile. Untuk update algoritma google saat ini, konfigurasi yang memblock halaman mobile sudah tidak relevan. Hal ini karena google telah mulai menerapkan Mobile-first index. Jadi, jangan block index untuk halaman mobile.


Langkah 1: Setting robots.txt
  1. Login ke dashboard blog dan menuju menu Setelan > Preferensi penelusuran. Pada bagian Perayapan dan pengindeksan, klik edit pada robots.txt.
  2. Masukkan konfigurasi robots.txt berikut pada textarea dan simpan perubahan.

    User-agent: Mediapartners-google
    Disallow :

    User-agent : Googlebot
    Disallow : /search/
    Disallow : /search?q=
    Disallow : /search?update-max=

    Sitemap : https://www.example.com/atom.xml

    Petunjuk: Ganti URL pada sitemap sesuai dengan domain blog anda.

    Konfigurasi robots.txt diatas akan memblock index mesin pencari untuk semua halaman bertipe search (by label, by query dan by published). Pada konfigurasi robots.txt diatas, intruksi untuk memblok index halaman arsip belum disertakan. Untuk memblok index halaman arsip, akan jauh lebih efektif jika dilakukan melalui meta robots.


Langkah 2: Tambahkan meta robots pada tema blog
  1. Login ke dashboard blog dan menuju menu Tema > Klik Edit HTML
  2. Pada antarmuka HTML editor yang terbuka, cari kode </head>
  3. Tambahkan meta robots berikut tepat sebelum kode </head>

    Meta robots
    <b:if cond='data:view.isSearch or data:view.isArchive'>
    <meta content='noindex, follow' name='robots'/>
    </b:if>

Info: Semua tema yang berasal dari wiblogger.com telah menyertakan tag robots untuk mencegah duplikat konten. Jadi, jika anda menggunakan tema yang berasal dari wiblogger.com, langkah 2 ini tidak perlu anda lakukan. Untuk pengguna tema yang berasal dari pengembang lainnya, ada kemungkinan tag robots ini juga telah disertakan. Oleh karena itu, sebelum melakukan langkah ini, disarankan untuk menghubungi pengembang tema yang anda gunakan.


Format (sintak) penulisan Robots.txt Blog / Website

Format (sintak) penulisan Robots.txt Blog / Website

Materi pendukung:

Pengertian beberapa istilah
Crawler Adalah Mesin / software / program penjelajah web yang digunakan oleh pihak tertentu untuk keperluan tertentu. Dalam konteks ini, crawler yang dimaksud lebih ditujukan pada crawler mesin pencari, yaitu program yang dibuat untuk mengindex konten web (Halaman, file atau aset lainnya). Istilah lain dari crawler yang juga sering digunakan adalah Spider dan Bot.
User Agent Adalah Identitas / nama / token untuk menyebutkan satu atau sekelompok crawlers. Satu user agent dapat mewakili satu atau lebih crawlers.
Index (me-ngindex) Proses atau keadaan dimana konten web diambil oleh mesin pencari dan diletakkan dalam database mereka. Konten yang telah diindex oleh mesin pencari dapat ditemukan pada hasil penelusuran mesin pencari yang besangkutan.


Contoh konfigurasi robots.txt

User-agent : *
Disallow : /search
Allow : /search/label/

User-agent : Mediapartners-google
Disallow :

Sitemap : http://www.wiblogger.com/atom.xml


Bagian-bagian konfigurasi robots.txt:

Diatas adalah contoh konfigurasi robots.txt. Adapun beberapa bagian konfigurasi robots.txt diatas dapat dilihat pada gambar berikut:

konfigurasi robots.txt blog


Format (sintak)

Format penulisan konfigurasi pada robots.txt adalah sebagai berikut:

User-agent : Nama user agent 1
Intruksi : Path URL
Intruksi : Path URL

User-agent : Nama user agent 2
Intruksi : Path URL
Intruksi : Path URL

User-agent : Nama user agent n
Intruksi : Path URL
Intruksi : Path URL

Sitemap : URL sitemap xml

Informasi tentang bagaimana cara mendefinisikan user agent, intruksi serta aturan-aturan didalamnya akan dijelaskan pada poin-poin selanjutnya.


Grup Intruksi

Grup Intruksi (selanjutnya disebut grup) adalah bagian utama dari konfigurasi robots.txt. Grup merupakan kumpulan intruksi yang akan diterapkan untuk satu atau sekelompok crawlers. Sebuah grup selalu dimulai dengan mendefinisikan target user agent yang akan terpengaruh oleh intruksi-intruksi yang didefinisikan setelahnya (didalamnya). Dengan kata lain, semua intruksi yang didefinisikan dalam grup tertentu hanya akan berlaku untuk target user agent yang didefinisikan pada grup yang bersangkutan. Kita misalkan format konfigurasi robots.txt adalah sebagai berikut:

User-agent : Nama target user agent grup 1
Intruksi-intruksi grup 1..................

User-agent : Nama target user agent grup 2
Intruksi-intruksi grup 2..................

Pada konfigurasi robots.txt diatas, intruksi-intruksi grup 1 hanya akan digunakan oleh user agent grup 1. Begitupula dengan intruksi-intruksi grup 2, ini hanya akan digunakan oleh user agent grup 2.

PENTING:
Setiap crawler (user agent) hanya akan menjalankan 1 (satu) grup intruksi.


Intruksi (directives)

Setiap intruksi didefinisikan setelah target user agent (pembuka grup) didefinisikan. Setiap grup setidaknya memiliki satu intruksi. Terdapat 2 intruksi yang umumnya digunakan, yaitu: Disallow dan Allow.

User-agent : Nama target user agent grup
Disallow : Path URL
Allow : Path URL

Keterangan:
  • Disallow : Path URL
    Tidak mengizinkan target user agent grup yang bersangkutan untuk dapat mengindex konten dengan path URL yang bersangkutan.
  • Allow : Path URL
    Mengizinkan target user agent grup yang bersangkutan untuk dapat mengindex konten dengan path URL yang bersangkutan.

POIN
Intruksi default robots.txt adalah Allow. Ketika tidak terdapat intruksi Disallow untuk URL yang bersangkutan, konten dengan url tersebut akan diindex. Dengan kata lain, intruksi Allow digunakan sebagai pengecualian untuk intruksi Disallow.

Untuk mendapatkan pemahaman yang lebih baik, sedikit akan kita tinjau mengenai contoh konfigurasi yang telah anda jumpai diawal.

User-agent : *
Disallow : /search
Allow : /search/label/

User-agent : Mediapartners-google
Disallow :

Sitemap : http://www.wiblogger.com/atom.xml

Keterangan:
  • User-agent : * Mulai grup 1. Nama user agent diisi dengan simbol *. Hal ini berarti pengaturan yang terdapat pada grup 1 diperuntukkan untuk semua crawlers. Lebih jauh tentang simbol * akan kita bahas nanti.
  • Disallow : /search Intruksi yang diterapkan untuk grup 1. Tidak mengizinkan target crawlers grup 1 untuk dapat mengindex konten dengan path URL yang dimulai dengan query /search
  • Allow : /search/label/ Intruksi lainnya yang juga diterapkan untuk grup 1. Mengizinkan target crawlers grup 1 untuk dapat mengindex konten dengan path URL yang dimulai dengan query /search/label/
  • User-agent: Mediapartners-google Mulai grup 2. Nama user agent ditentukan secara spesifik (Mediapartners-google). Hal ini berarti intruksi yang terdapat pada grup 2 hanya diperuntukkan untuk crawler dengan nama Mediapartners-google. Dalam hal ini, Mediapartners-google adalah nama user agent untuk crawler Google adsense.
  • Disallow: Intruksi yang diterapkan untuk grup 2. Pada intruksi ini, Path URL tidak didefinisikan. Fungsi dari pengaturan ini adalah mengizinkan crawler yang disebutkan pada grup 2 untuk dapat mengindex semua konten web.
  • Sitemap : http://www.wiblogger.com/atom.xml Menginformasikan URL sitemap xml kepada semua crawlers. Ini bertujuan untuk mempermudah crawler dalam mengindex setiap konten yang dikehendaki (untuk diindex).



Sampai pada paragraf ini, anda telah memiliki pemahaman dasar terkait format penulisan serta bagian-bagian yang terdapat didalam konfigurasi robots.txt. Sekarang, akan kita bahas mengenai setiap bagian ini secara lebih dalam.


Mendefinisikan Target User Agent (Pembuka grup)

Setiap crawler mesin pencari memiliki user agent yang berbeda. Pada konfigurasi robots.txt, pendefinisian user agent dilakukan dengan 2 cara, yaitu:

  1. Mengisi target user agent dengan * (simbol bintang).
  2. Menyebutkan target user agent secara spesifik


1. Mengisi target user agent dengan simbol bintang
User-agent : *
Intruksi-intruksi grup...........

Ini adalah cara untuk menyebutkan semua user agent. Dengan kata lain, semua intruksi yang terdapat pada grup bersangkutan diperuntukkan untuk semua crawlers.

2. Menyebutkan target user agent secara spesifik
User-agent : Googlebot
Intruksi-intruksi grup...........

Intruksi yang terdapat pada grup yang bersangkutan hanya diperuntukkan untuk user agent Googlebot. Googlebot sendiri merupakan user agent untuk crawler google yang bertugas mengindex konten web. Informasi mengenai user agent google dan daftar user agent untuk pihak lainnya akan anda jumpai nanti.


Prioritas Grup

Seperti yang telah disampaikan sebelumnya, setiap crawler (user agent) hanya akan menjalankan (mengeksekusi) 1 grup saja. Pada konfigurasi robots.txt, terdapat kasus dimana suatu crawler memiliki kecocokan terhadap beberapa grup (lebih dari satu grup). Dalam kasus ini, crawler akan memilih 1 grup yang akan dijalankan.

POIN:
Grup dengan target user agent yang didefinisikan secara spesifik memiliki prioritas lebih tinggi dibandingkan dengan grup dengan target user agent yang didefinisikan menggunakan simbol bintang

Untuk lebih mudahnya, kita ambil contoh penulisan konfigurasi robots.txt dilakukan seperti berikut:

User-agent : *
Intruksi-intruksi grup 1...........

User-agent : Googlebot
Intruksi-intruksi grup 2...........

Pada konfigurasi diatas, terdapat grup yang menyebutkan semua crawlers (grup 1). Selain itu, terdapat juga grup yang menyebutkan crawler dengan user agent Googlebot (grup 2). Pada kasus ini, crawler dengan user agent Googlebot juga memiliki kecocokan terhadap grup 1. Hal ini karena grup 1 diperuntukkan untuk semua crawler.

Berdasarkan prioritas grup, pada konfigurasi diatas, semua crawlers selain Googlebot akan mengeksekusi grup 1. Untuk crawler Googlebot, grup yang akan dieksekusi adalah grup 2.


POIN:
Urutan grup akan diabaikan. Dengan kata lain, prioritas grup tidak dipengaruhi oleh urutan grup.

Konfigurasi dibawah ini memiliki peranan yang sama dengan konfigurasi sebelumnya.

User-agent : Googlebot
Intruksi-intruksi grup 1...........

User-agent : *
Intruksi-intruksi grup 2...........

Semua crawlers selain Googlebot akan mengeksekusi grup 2. Untuk crawler Googlebot, grup yang akan dieksekusi adalah grup 1.


Mendefinisikan Path URL pada intruksi

Path URL merupakan lokasi file di dalam sebuah situs relative terhadap domain utama (hostname). Lebih jauh tentang Path URL telah dijelaskan pada post: Pengertian dan bagian-bagian URL. Pada konfigurasi robtos.txt, penulisan path url tidak harus dilakukan secara lengkap. Perhatikan contoh penulisan path url berikut:

User-agent : *
Disallow : /search

Keterangan Tidak mengizinkan semua crawlers untuk mengindex halaman dengan path URL yang dimulai dengan /search. Beberapa contoh halaman berikut tidak akan diindex (Semua path URL dimulai dengan /search).

http://www.wiblogger.com/search
http://www.wiblogger.com/search/label/SEO
http://www.wiblogger.com/search?q=Belajar+blogger
http://www.wiblogger.com/searchwhateverhere



User-agent : *
Disallow : /p/

Keterangan Tidak mengizinkan semua crawlers untuk mengindex halaman dengan path URL yang dimulai dengan /p/. Beberapa contoh halaman berikut tidak akan diindex.

http://www.wiblogger.com/p/tentang-kami.html
http://www.wiblogger.com/p/sanggahan.html
http://www.wiblogger.com/p/apapun-disini-ya-boleh


POIN:
Penulisan path url yang dilakukan secara standar (tanpa menggunakan simbol spesial) berarti berlaku untuk semua url yang memiliki kecocokan di awal (path url).


Prioritas Intruksi

Seperti halnya prioritas grup, Intruksi dengan path yang didefinisikan lebih spesifik memilik prioritas yang lebih tinggi.

User-agent : *
Disallow : /p/
Allow : /p/tentang-kami.html

Keterangan: Tidak menginzinkan semua crawlers untuk mengindex halaman statis blog kecuali untuk halaman tentang kami.

URL Izin pengindeksan
http://www.wiblogger.com/p/hubungi-kami.html Tidak diizinkan
http://www.wiblogger.com/p/sanggahan.html Tidak diizinkan
http://www.wiblogger.com/p/kebijakan-privasi.html Tidak diizinkan
http://www.wiblogger.com/p/tentang-kami.html Diizinkan


Penggunaan simbol * (bintang) dan $ (dollar) pada Path URL

Pada konfigurasi robots.txt, terdapat 2 simbol spesial yang bisa digunakan, yaitu simbol * dan simbol $.

Simbol * Menerima karakter apapun yang terletak pada posisi yang bersangkutan.

Simbol $ Menentukan akhiran URL.


Penggunaan simbol *

Penggunaan simbol * pada Path URL umumnya dikombinasikan dengan karakter sebelum atau setelahnya. Perhatikan beberapa contoh penggunaan simbol * pada Path URL berikut:

Contoh penulisan Keterangan
/abc* Berlaku untuk:
http://www.wiblogger.com/abc
http://www.wiblogger.com/abcdef
http://www.wiblogger.com/abc/def
http://www.wiblogger.com/abcapapun-disini-ya-boleh

Tidak berlaku untuk:
http://www.wiblogger.com/
http://www.wiblogger.com/def/abc
http://www.wiblogger.com/defabc
http://www.wiblogger.com/ghi-abc
/abc*ghi Berlaku untuk:
http://www.wiblogger.com/abcdefghi
http://www.wiblogger.com/abc-def-ghi
http://www.wiblogger.com/abc/def/ghi
http://www.wiblogger.com/abc/def/ghi/hij

Tidak berlaku untuk:
http://www.wiblogger.com/defabc
http://www.wiblogger.com/ghi-abc


PENTING:
Penggunaan simbol * seperti diatas hanya berlaku untuk Path URL, untuk penggunaan pada nama user agent (untuk menyebutkan semua crawler), penulisan dilakukan tanpa karakter lainnya.


Penggunaan simbol $

Simbol $ digunakan untuk menentukan akhiran URL. Karena fungsinya ini, simbol $ selalu diletakkan diakhir path url. Untuk lebih mudahnya, perhatikan beberapa contoh penggunaan simbol $ berikut:

Contoh penulisan Keterangan
abc$ Berlaku untuk:
http://www.wiblogger.com/abc
http://www.wiblogger.com/search/abc
http://www.wiblogger.com/whatever/abc
http://www.wiblogger.com/whatever-abc

Tidak berlaku untuk:
http://www.wiblogger.com/
http://www.wiblogger.com/abc.html
http://www.wiblogger.com/whatever-abc.html
/abc$ Berlaku untuk:
http://www.wiblogger.com/abc
http://www.wiblogger.com/search/abc
http://www.wiblogger.com/whatever/abc

Tidak berlaku untuk:
http://www.wiblogger.com/
http://www.wiblogger.com/whateverabc
http://www.wiblogger.com/whatever-abc
http://www.wiblogger.com/whatever-abc.html

POIN:
Simbol $ umumnya digunakan untuk mengatur perizinan akses untuk konten berupa file. Sebut saja misalnya file gambar, pdf, dan lain sebagainya.



Mengenai URL Sitemap

Seperti yang telah anda jumpai diawal, sebuah file robots.txt dapat menyertakan URL sitemap. Sitemap pada robots.txt bersifat global. Dengan kata lain, URL sitemap tersedia untuk semua crawlers. Ini akan memudahkan crawler menjelajahi setiap konten yang dikehendaki (untuk diindex).

User-agent : Nama user agent
Intruksi : Patch URL .........
Sitemap : Absolute URL


Tidak seperti pada intruksi yang menuliskan URL hanya berupa Path, pada sitemap, URL harus didefinisikan secara lengkap (Absolute URL).

User-agent : *
Disallow : /search/
Sitemap : http://www.wiblogger.com/atom.xml



Mengenai User Agent Crawlers Google

Berbagai contoh yang akan anda jumpai selanjutnya akan menggunakan crawler milik google sebagai target user agent. Perlu diketahui bahwa user agent Googlebot yang telah anda jumpai pada contoh-contoh sebelumnya adalah user agent untuk menyebutkan semua crawler google yang bertugas mengindex konten (semua jenis konten).

Berdasarkan halaman daftar user agent google, hingga saat ini, terdapat beberapa crawler yang bertugas mengindex konten. Diantaranya adalah:

User agent Kebutuhan
Googlebot Mengindex konten web (Crawler utama)
Googlebot
Googlebot-Image
Mengindex konten berupa gambar (images.google.com)
Googlebot
Googlebot-News
Mengindex konten untuk google news (news.google.com)
Googlebot
Googlebot-Video
Mengindex konten berupa video

Ketika kita mendefinisikan user agent dengan Googlebot, hal ini berarti grup tersebut berlaku untuk semua crawler yang disebutkan pada tabel diatas. Jika anda menginginkan konfigurasi grup yang hanya diperuntukkan untuk user agent google tertentu saja. Hal ini bisa dilakukan dengan menuliskan nama user agent dengan lebih spesifik. Perhatikan beberapa contoh konfigurasi berikut:

Konfigurasi:
User-agent : *
Intruksi-intruksi grup 1...........

User-agent : Googlebot-Image
Intruksi-intruksi grup 2...........

Keterangan:
User agent Grup yang dijalankan
Bingbot (crawler mesin pencari Bing.com) Grup 1
Googlebot Grup 1
Googlebot-Video Grup 1
Googlebot-Image Grup 2


Konfigurasi:
User-agent : *
Intruksi-intruksi grup 1...........

User-agent : Googlebot
Intruksi-intruksi grup 2...........

User-agent : Googlebot-Image
Intruksi-intruksi grup 3...........

Keterangan:
User agent Grup yang dijalankan
Bingbot Grup 1
Googlebot Grup 2
Googlebot-Video Grup 2
Googlebot-Image Grup 3


Informasi user agent untuk berbagai crawler

Diatas merupakan daftar sebagian crawler miliki google. Ada beberapa lagi lainnya dengan fungsi yang berbeda-beda, secara lengkap daftar crawler ini bisa anda lihat di: https://support.google.com/webmasters/answer/1061943?hl=en.

Untuk crawlers dari pihak lainnya, informasi user agent ini bisa anda dapatkan di: http://www.robotstxt.org/db.html.


Contoh-contoh

Berikut adalah beberapa contoh konfigurasi robots.txt beserta fungsinya. Semua contoh ini menggunakan format URL blogger.com.

Contoh 1:
User-agent : *
Disallow : /search/

Keterangan: Tidak mengizinkan semua crawlers untuk mengindex konten yang terdapat pada halaman bertipe search.


Contoh 2:
User-agent : *
Disallow : /search/

User-agent : Mediaparners-google
Disallow :

Keterangan: Berfungsi seperti halnya pada contoh 1 sebelumnya, namun, terdapat pengecualian yang didefinisikan melalui grup 2 yaitu tetap menginzinkan crawler google adsense untuk dapat mengindex semua konten.


Contoh 3:
User-agent : *
Disallow : *noindex

Keterangan: Tidak mengizinkan semua crawlers untuk mengindex konten dengan URL yang terdapat query noindex.

URL Izin pengindeksan
http://www.wiblogger.com/p/noindex.html Tidak diizinkan
http://www.wiblogger.com/2018/06/noindex-post.html Tidak diizinkan
http://www.wiblogger.com/search/label/noindex Tidak diizinkan
http://www.wiblogger.com/search?q=noindex Tidak diizinkan


Contoh 4:
User-agent : *
Disallow : .jpeg$
Disallow : .png$

Keterangan: Tidak menginzinkan semua crawlers untuk mengindex file gambar dengan format .jpeg dan .png

Apa itu Robots.txt ? Fungsi Robots.txt pada Website dan Blog

Apa itu Robots.txt ? Fungsi Robots.txt pada Website dan Blog

pengertian, fungsi, peranan robots.txt

Daftar isi:
  1. Apa itu robots.txt ?
  2. Fungsi robots.txt
  3. Cara kerja robots.txt
  4. Beberapa informasi lainnya terkait robots.txt
  5. Kapan webmaster membutuhkan robots.txt ?
  6. Apakah setiap website harus memiliki robots.txt ?


Apa itu robots.txt ?

Robots.txt adalah sebuah file text yang dibuat untuk mengatur bagaimana cara web crawlers dalam menjelajahi halaman website / blog. Ini merupakan robots exclusion protocol (REP), yaitu bagian dari standar web yang mengatur bagaimana web crawlers seharusnya bekerja. Adapun web crawlers yang dimaksud disini umumnya lebih ditujukan untuk crawlers mesin pencari.

Fungsi robots.txt

Melalui robots.txt, webmaster (pemiliki situs) dapat membatasi akses crawler mesin pencari. Ya, pada kasus tertentu, webmaster mungkin menginginkan untuk tidak mengizinkan crawler mesin pencari untuk dapat mengindek halaman / file tertentu. Hal ini dapat dilakukan melalui konfigurasi robots.txt.

Cara kerja robots.txt

Seperti yang telah diuraikan pada halaman Belajar SEO blog, cara mesin pencari menemukan halaman-halaman baru adalah dengan mengikuti link yang terdapat pada suatu halaman dan membawa mereka pada halaman lainnya. Berhubungan dengan ini, terdapat 2 prosedur utama yang dilakukan oleh crawler mesin pencari.

  1. Menjelajahi konten halaman
  2. Mengindek halaman (meletakkan halaman pada database mereka) untuk akhirnya akan ditampilkan pada hasil penelusuran.

Masih mengenai prosedur diatas, ketika crawler mesin pencari tiba di sebuah halaman, tahap awal yang mereka lakukan adalah menemukan file robots.txt. Crawler akan membaca konfigurasi robots.txt ini sebelum melanjutkan untuk menjelajahi halaman. Jika ditemukan konfigurasi khusus, crawler akan patuh pada konfigurasi ini.


Beberapa informasi lainnya terkait robots.txt

  • Untuk dapat ditemukan oleh web crawler, file robots.txt harus berada pada direktori akar website. File robots.txt adalah file publik. Dengan kata lain, semua orang dapat melihat file robots.txt ini dengan mengetikkan "robots.txt" setelah domain utama (misal http://www.wiblogger.com/robots.txt).
  • Penamaan file robots.txt bersifat case sensitive, nama file harus berupa "robots.txt" (huruf kecil semua).
  • Setiap subdomain memiliki file robots.txt yang berbeda dari domain utama. Dengan kata lain, crawler tidak menggunakan file robots.txt yang terdapat pada domain example.com untuk subdomain blog.example.com.
  • Semua mesin pencari pupoler akan patuh pada konfigurasi robots.txt. Namun, perlu anda ketahui bahwa tidak semua crawlers akan mengikuti intruksi yang terdapat dalam file robots.txt. Ada banyak pihak yang menjalankan crawler untuk tujuan tertentu di internet, sebut saja misalnya program email scrapers. Crawlers jenis ini tentu akan mengabaikan robots.txt. Jadi, penerapan robots.txt ini tidak menjamin halaman / data anda tertutup untuk semua pihak.


Kapan webmaster membutuhkan robots.txt ?

Berikut adalah beberapa kasus umum yang menjadi alasan pemilik situs untuk menggunakan robots.txt.

  • Mencegah duplikat konten pada mesin pencari
  • Mencegah mesin pencari untuk mengindek file tertentu pada website (Misal: file gambar, PDF atau lainnya)
  • Memberikan informasi lokasi sitemap


Apakah setiap website harus memiliki (mengaktifkan) robots.txt ?

File robots.txt digunakan untuk mengontrol akses crawler mesin pencari. Dalam hal ini, jika anda tidak memiliki konfigurasi khusus yang diinginkan, anda tidak harus mengaktifkan robots.txt.


Selanjutnya:
Cara membuat halaman sitemap (daftar isi) blog otomatis

Cara membuat halaman sitemap (daftar isi) blog otomatis

Apa sih fungsi Halaman Sitemap ? Apakah halaman sitemap memang merupakan halaman (anggaplah) wajib untuk sebuah situs / blog ? Sebelum membahas tentang bagaimana cara membuat sitemap blog secara otomatis, sedikit akan kita tinjau mengenai apa itu Sitemap blog.

Dalam blogging, kata sitemap digunakan untuk mewakili 2 jenis konten. Pertama, Sitemap XML, yaitu sebuah file XML yang berisi URL-URL postingan blog. Lebih jauh tentang Sitemap XML telah dibahas pada modul SEO: Cara submit sitemap blog di google search console.

Selain untuk Sitemap XML, kata ini juga sering kali digunakan untuk mewakili Halaman daftar isi blog. Dengan kata lain, kata sitemap juga bisa mengarah pada halaman html yang berisi link menuju ke semua postingan blog. Halaman daftar isi blog ini bisa kita sebut sebagai Halaman Sitemap.

Antara Sitemap XML dan Halaman Sitemap jelas berbeda. Sementara Sitemap XML merupakan sebuah file XML, Halaman Sitemap tidak ubahnya seperti halaman web pada umumnya.

Dilihat dari fungsinya, sitemap xml dan halaman sitemap memiliki fungsi yang sama yaitu untuk memudahkan crawler mesin pencari dalam menjelajahi / mengindeks halaman blog.

Jika saya sudah melakukan submit sitemap xml di google search console, apakah saya juga perlu membuat halaman sitemap ?

Seperti yang telah disampaikan pada postingan cara submit sitemap di google search console, proses penambahan sitemap XML tidak akan banyak membantu untuk keperluan indeks halaman yang akan diterbitkan selanjutnya. Dengan kata lain, crawler google tidak melakukan scan ulang terhadap file sitemap XML yang ditambahkan secara berkala.

Untuk lebih jelasnya, saya misalkan blog anda memiliki 20 postingan yang belum terindeks oleh google. Ketika anda menambahkan URL sitemap XML di google search console, crawler google hanya akan membaca file sitemap ini satu kali. Postingan yang akan anda terbitkan selanjutnya tidak akan secara otomatis ditambahkan pada daftar konten yang tersubmit.


Fungsi Halaman Sitemap

Untuk keluar dari keterbatasan diatas, pembuatan halaman sitemap menjadi langkah yang sangat tepat. Sedikit mengulang apa yang telah disampaikan pada halaman utama belajar SEO, cara crawler mesin pencari dalam menemukan halaman-halaman baru adalah dengan mengikuti link-link pada suatu halaman yang akan membawa mereka pada halaman lainnya. Disinilah kekuatan Halaman sitemap bekerja. Dengan membuat halaman sitemap, kita “memberikan jalan” kepada crawler mesin pencari untuk dapat meng-crawl semua postingan / konten blog dengan lebih mudah.


Cara membuat halaman sitemap

  • Pertama, buat halaman statis baru.

    Cara membuat halaman blog
  • Beri judul "Daftar isi" atau "Sitemap" (atau apapun yang anda kehendaki). Copy dan paste semua kode dibawah ini kedalam Editor Laman dengan mode HTML.

    Kode (CSS & Javascript)
    <!-- Sitemap by wiBlogger.com -->
    <style>
    #w-sitemap-wrapper {font-size:13px}
    #w-sitemap-wrapper li {position:relative;padding:.385em 0 .385em 6.923em;border-top:none;border-bottom:1px solid #f6f6f6}
    #w-sitemap-wrapper span {position:absolute;left:0;color:#bd8b56}
    #w-sitemap-wrapper a {font-weight:bold}
    #w-sitemap-loading-msg {height:100px;line-height:100px;text-align:center;font-weight:bold;letter-spacing:1px;font-size:18px;color:#bbbbbb}
    </style>

    <script>
    (function(c,m){var h=window;var l=document;var e="w-sitemap-wrapper";var g="w-sitemap-loading-msg";var b=h.location;var n=b.protocol;var f=b.hostname;var k=0;l.write("<div id='"+e+"'><ol></ol><div id='"+g+"'>"+m+"</div></div>");var a=l.getElementById(e);var d=l.getElementById(g);var j=l.getElementById(e).getElementsByTagName("ol")[0];function i(o){var p=l.createElement("script");p.src=n+"//"+f+"/feeds/posts/summary?alt=json-in-script&callback=wijs_get_sitemap&start-index="+o+"&max-results=150";a.appendChild(p)}h.wijs_get_sitemap=function(E){var A=E.feed.entry;var u=parseInt(E.feed.openSearch$totalResults.$t);var x=A.length;var w="";for(var s=0;s<x;s++){var o=A[s];var C=o.title.$t;var p;var D=o.link;var y=D.length;for(var r=0;r<y;r++){if(D[r].rel==="alternate"){p=D[r].href;break}}var z=o.published.$t;var q=z.substring(0,4);var t=z.substring(5,7);var v=z.substring(8,10);var B=c.replace("dd",v).replace("mm",t).replace("yyyy",q);w+="<li><span>"+B+"</span><a href='"+p+"'>"+C+"</a></li>"}j.innerHTML+=w;k+=x;if(k<u){i(k+1)}else{d.parentNode.removeChild(d)}};i(1)})("dd/mm/yyyy","Loading......");
    </script>
  • Publikasikan laman.

    cara membuat halaman daftar isi secara otomatis


Hasil

Hasil pembuatan sitemap dengan kode diatas kurang lebih seperti gambar dibawah (Warna link akan mengikuti style / CSS blog). Anda juga bisa menambahkan paragraf awal atau akhir pada konten sitemap seperti yang diterapkan pada halaman daftar isi wiBlogger.com.

membuat halaman sitemap simpel


Info:
Pada script diatas, label setiap postingan sengaja tidak saya sertakan. Hal ini untuk menghindari resiko terdeteksi spam oleh crawler mesin pencari (terlalu banyak duplikat link).


Tambahan

Pada kode diatas, beberapa bagian yang ditandai dengan warna merah bisa anda sesuaikan.

  • 13px
    Ukuran font
  • 18px
    Ukuran font text loading
  • #f6f6f6
    Kode warna HTML untuk border
  • #bd8b56
    Kode warna HTML untuk waktu publikasi
  • #bbbbbb
    Kode warna HTML untuk text loading
  • Loading......
    text yang ditampilkan pada proses loading
  • dd/mm/yyyy
    Format waktu publikasi. dd adalah tanggal, mm adalah bulan, yyyy adalah tahun. Misal, jika format ini anda ganti menjadi dd-mm-yyyy, hasil akan berupa 28-01-2018. Selain pembatas, anda juga bisa menyesuaikan urutan data.


Menambahkan sitemap pada menu navigasi blog

Agar halaman sitemap ini dapat dengan mudah ditemukan oleh crawler mesin pencari, langkah selanjutnya yang sangat penting adalah menambahkan link halaman yang telah dibuat ke navigasi blog. Sebagai contoh, link sitemap blog wiBlogger.com ini saya letakkan pada navigasi halaman dibagian bawah blog (footer).

menambahkan link sitemap ke navigasi blog

Setiap tema (template) memiliki struktur dan dukungan widget yang berbeda, ikuti panduan tema yang anda gunakan untuk menambahkan link sitemap ke navigasi blog.


Tips:
  • Untuk mempercepat proses indeks postingan, selalu luangkan waktu untuk melakukan fetch as google setiap kali anda menerbitkan postingan baru.
  • Terkait fitur Fetch as google di google search console, anda bisa melakukan fetch halaman sitemap ini dengan memilih opsi mode pengindeksan "Rayapi URL ini dan link langsungnya".

    Cara mengindeks postingan blog sekaligus

    Direkomendasikan untuk melakukan hal ini setidaknya satu bulan sekali untuk menjaga agar setiap postingan anda tetap terindek oleh google.


Rekomendasi postingan:
Berlangganan Artikel
Dengan berlangganan artikel kami, anda akan mendapatkan setiap update yang diterbitkan pada situs wiBlogger.com langsung melalui akun email anda. Pastikan juga anda mengkonfirmasi alamat email anda untuk dapat mengaktifkan layanan.
×
Jangan tampilkan lagi