Analisis Web
Pengukuran Web (ukuran, unjuk kerja)
BAB I
PENDAHULUAN
Analisis Web adalah pengukuran, pengumpulan, analisis dan pelaporan data internet untuk tujuan memahami dan mengoptimalkan penggunaan web. Disini ada beberapa tools yang digunakan untuk mengukur website dari segi kecepatan akses dan performanya, serta mengukut banyaknya pengunjung suatu website, berikut ini penjelasan mengenai beberapa tools yang digunakan untuk mengukur kecepatan akses website.
MATERI
1.PINGDOM TOOLS
Pingdom Tools merupakan sebuah alat ukur kecepatan website
dapat di akses, nilai dari sebuah website, dan berapa ukuran dari sebuah
website tersebut.Beberapa kelebihannya di kategorikan sebagai berikut :
· Performance Grade :
melihat nilai kecepatan performa halaman web, dari akses DNS, browser cache,
combine external css dan lain-lain.
· Waterfall
: melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan
sampai seberapa cepat script tersebut dapat di akses.
· Page
Analysis : melihat detail analisa halaman web.
· History
: melihat detail akses dari beberapa hari lalu.
Kekurangan yang terdapat pada tools ini, sama seperti tools alat ukur akses web pada umumnya yaitu Membutuhkan akses internet yang stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap website tersebut tidak stabil/berjalan dengan baik.
2.GTMETRIX
GTmetrix adalah website untuk menganalisa kecepatan web yang tersedia secara gratis, dengan menggunakan google page speed dan Yahoo Yslow sebagai analyze engine dan untuk menampilkan hasil serta rekomendasi yang harus dilakukan. Dengan GTmetrix juga dapat membandingkan beberapa URL sekaligus dan jika mendaftar sebagai anggota maka dapat:
GTmetrix adalah website untuk menganalisa kecepatan web yang tersedia secara gratis, dengan menggunakan google page speed dan Yahoo Yslow sebagai analyze engine dan untuk menampilkan hasil serta rekomendasi yang harus dilakukan. Dengan GTmetrix juga dapat membandingkan beberapa URL sekaligus dan jika mendaftar sebagai anggota maka dapat:
-
Melihat tes sebelumnya untuk membandingkan hasilnya
-
Menjadwalkan cek website secara otomatis
-
Menyimpan laporan
-
Memilih hasil laporan untuk ditampilkan ke public atau tidak
Kelebihan GTmetrix :
- Dapat
menggunakan google page speed dan YSLOW sebagai analyze engine
- Dapat
membandingkan beberapa URL sekaligus
-
Menjadwalkan cek website secara otomatis
- Dapat
menyimpan laporan
-
Memilih hasil laporan untuk ditampilkan kepublic atau tidak.
Kekurangan GTmetrix : Jika menggunakan GTmetrix harus
menggunakan internet yang cepat.
3.ALEXA RANK
Alexa Internet, Inc. adalah perusahaan yang berbasis di
California yang mengoperasikan situs yang menyediakan informasi mengenai
banyaknya pengunjung suatu situs dan urutannya. Alexa Internet didirikan pada
tahun 1996 oleh Brewster Kahle dan Bruce Gilliat. Cara kerja Alexa rank Alexa
memberikan peringkat ke sebuah situs berdasarkan jumlah pengunjung unik.
Semakin rendah alexarank dari situs berarti situs memiliki sedikit
pengunjung unik.Jadijika Anda bisa mendapatkan lebih banyak traffic ke
situs Anda, Anda akan mendapatkan lebih rendah alexa rank.
Kelemahan Alexa:
1. Jika
pengguna internet (pengakses situs anda tidak menginstal Alexa Toolbar di
browsernya) maka sekalipun ada 1000 pengunjung situs anda dalam sehari, Alexa
akan tetap menilai situs anda tidak ada pengunjungnya.
2. Jika
dalam sehari ada yang mengakses situs anda 20 kali dengan alamat IP (Internet
protocol) yang sama, maka akan dianggap situs anda hanya dikunjungi oleh 1 satu
orang hanya dapat poin 1, akan berbeda jika situs anda dikunjungi oleh 20 orang
dengan alamat IP berbeda (unik) maka situs anda akan memperoleh nilai 20 (nilai
ini hanya pengandaian, Alexa mempunyai formula sendiri dalam menentukan nilai
sebuah web) .
Kelebihan Alexa :
1. Alexa
rank akan menampilkan tingkat popularitas dari sebuah situs web yang dibandingkan
dengan web milik kita,termasuk jangkauan,tampilan halaman,dan masih banyak
lagi.
2. Pencarian
analisa akan menampilkan kepada kita yang merupakan syarat untuk kita untuk
berkompetisi untuk mendapatkan sebuah traffic 3.Data pengunjung akan menampilkan
kepada kita apa yang menarik dari website kita yang dilihat oleh pengunjun –
pengunjung website kita 4.Data clickstream akan menampilkan kepada kita sebagai
pemilik website dimana dalam mendapatkan traffic dari program keanggotaan dan
kemitraan.
Crawlers
Crawler bertugas untuk mengindeks, membuat rangking, menyusun
dan menata halaman dalam bentuk indeks terstruktur agar bisa dicari dalam waktu
yang sangat cepat.Obyek dari crawler adalah isi halaman, file, folder dan
direktori web, sedangkan subyek dari robots.txt adalah mesin
pencari/search engine crawler.Crawler ini penting dipahami untuk SEO.
Crawler akan berhadapan dengan robotsg.txt yang
akan memandu mesin pencari/search engine seperti google, yahoo dan bing untuk
mengindeks sebuat blog atau website, sehingga crawler akan tahu mana halaman,
folder atau file yang boleh diindeks atau tidak, semakin lengkap sebuah panduan
dalam robots.txt akan lebih baik, dengan demikian robot crawler akan
dengan cepat mengindeks isi website, kebanyakan halaman situs berisi link ke
halaman lain.
BEBERAPA CONTOH WEB CRAWLER :
1.Teleport Pro
2.HTTrack
BEBERAPA CONTOH WEB CRAWLER :
1.Teleport Pro
2.HTTrack
3.Googlebot
4.Yahoo!Slurp
5.YaCy
4.Yahoo!Slurp
5.YaCy
Search engines
Mesin pencari web
bekerja dengan cara menyimpan informasi tertang banyak halaman web, yang
diambil secara langsung dari www. Halaman ini di ambil dengan web
crawler-browsewr web yang otomatis mengikuti setiap pranala yang di lihatnya.
Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya
(misalnya kata-kata di ambil dari judul, subjudul, atau field khusus yang di
sebut meta tag ).
Contoh – Contoh Search Enginess:
1. GOOGLE
2. Yahoo
Contoh – Contoh Search Enginess:
1. GOOGLE
2. Yahoo
Web Archiving
Pengarsipan web (Web Archiving) adalah proses mengumpulkan
bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip,
misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum
pada masa datang.
Cara Kerja Web Archiving :
Yang paling umum web pengarsipan teknik menggunakan web
crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler
biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user
yang menggunakan web browser untuk menemukan website yang ingin dicari.
Berikut Ini adalah Beberapa Contoh Layanan yg melayani jasa
Web Archiving:
· Archive-it
: Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah
institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu
sendiri
· Archive.is :
Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga
Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.
· Iterasi
: Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan, organisasi
Finansial, brand heritage,dll.
Review jurnal :
Pada jurnal ini yang berjudul Analisis Web menjelaskan tentang pengukuran, pengumpulan, analisis dan pelaporan data internet untuk tujuan memahami dan mengoptimalkan penggunaan web. Pada bab ini ada beberapa tools yang digunakan seperti PINGDOM TOOLS, GTMETRIX, dan ALEXA RANK. Setiap tools memiliki kelebihan dan kelemahan contohnya PINGDOM TOOLS memiliki kelemahan Membutuhkan akses internet yang stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap website tersebut tidak stabil/berjalan dengan baik.
Disini juga ada Crawleryang bertugas untuk mengindeks, membuat rangking, menyusun dan menata halaman dalam bentuk indeks terstruktur agar bisa dicari dalam waktu yang sangat cepat. Search Engines adalah mesin pencari web bekerja dengan cara menyimpan informasi tertang banyak halaman web, yang diambil secara langsung dari www. Pengarsipan web (Web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang.
p
Daftar Pustaka : http://dididasilva1996.blogspot.co.id/2016/04/analisis-web.html
https://elsietelibertador76.wordpress.com/tag/pengukuran-web/ https://tantanoxavia.wordpress.com/2014/06/27/analisis-web/
Review jurnal :
Pada jurnal ini yang berjudul Analisis Web menjelaskan tentang pengukuran, pengumpulan, analisis dan pelaporan data internet untuk tujuan memahami dan mengoptimalkan penggunaan web. Pada bab ini ada beberapa tools yang digunakan seperti PINGDOM TOOLS, GTMETRIX, dan ALEXA RANK. Setiap tools memiliki kelebihan dan kelemahan contohnya PINGDOM TOOLS memiliki kelemahan Membutuhkan akses internet yang stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap website tersebut tidak stabil/berjalan dengan baik.
Disini juga ada Crawleryang bertugas untuk mengindeks, membuat rangking, menyusun dan menata halaman dalam bentuk indeks terstruktur agar bisa dicari dalam waktu yang sangat cepat. Search Engines adalah mesin pencari web bekerja dengan cara menyimpan informasi tertang banyak halaman web, yang diambil secara langsung dari www. Pengarsipan web (Web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang.
p
Daftar Pustaka : http://dididasilva1996.blogspot.co.id/2016/04/analisis-web.html
https://elsietelibertador76.wordpress.com/tag/pengukuran-web/ https://tantanoxavia.wordpress.com/2014/06/27/analisis-web/
Tidak ada komentar:
Posting Komentar