Friday, July 14, 2017

TUGAS SOFTSKILL MENGANALISA WEBSITE

TUGAS SOFTSKILL MENGANALISA WEBSITE


 Web analytics adalah pengukuran, pengumpulan, analisis dan pelaporan data internet untuk tujuan pemahaman dan mengoptimalkan penggunaan web.

Web analytics bukan hanya sebuah alat untuk mengukur lalu lintas situs Web, namun dapat digunakan sebagai alat untuk penelitian bisnis dan riset pasar. Analisis Web aplikasi dapat juga membantu perusahaan mengukur hasil kampanye iklan cetak tradisional. Ini membantu orang untuk memperkirakan bagaimana lalu lintas ke situs web berubah setelah peluncuran kampanye iklan baru. Web analytics menyediakan data tentang jumlah pengunjung, tampilan halaman dll untuk mengukur popularitas situs yang akan membantu untuk melakukan riset pasar.

Ada dua kategori analisis Web; off-site dan on-site web analytics.

Off-site web analisis mengacu pada pengukuran dan analisis web tidak peduli apakah Anda sendiri atau mempertahankan sebuah website. Ini mencakup pengukuran potensi sebuah situs web penonton (kesempatan), berbagi suara (visibilitas), dan buzz (komentar) yang terjadi di Internet secara keseluruhan.

On-site web analytics mengukur perjalanan sekali pengunjung di website Anda. Ini termasuk yang driver dan konversi, misalnya halaman arahan yang mendorong orang untuk melakukan pembelian. On-site analisis Web mengukur kinerja situs dalam konteks komersial. Data ini biasanya dibandingkan terhadap indikator kinerja kunci kinerja, dan digunakan untuk meningkatkan situs web atau kampanye pemasaran respons penonton.

Secara historis, analisis Web telah disebut di-pengukuran pengunjung situs. Namun dalam beberapa tahun terakhir ini telah kabur, terutama karena vendor yang memproduksi alat-alat yang span kedua kategori.

On-site web analytics teknologi

Banyak vendor yang berbeda memberikan on-site perangkat lunak analisis Web dan layanan. Ada dua pendekatan teknologi utama untuk mengumpulkan data. Metode pertama, analisis logfile, membaca logfiles di mana server web catatan semua transaksi. Metode kedua, tag halaman, menggunakan JavaScript pada setiap halaman untuk memberitahukan pihak ketiga server jika suatu halaman yang diberikan oleh browser web. Keduanya mengumpulkan data yang dapat diolah untuk menghasilkan laporan lalu lintas Web.
Ada beberapa tools yang digunakan untuk mengukur website dari segi kecepatan akses dan performanya, serta mengukur banyaknya pengunjung suatu website. Dibawah ini akan dipaparkan beberapa tools tersebut:
1. Pingdom Tools
 
Merupakan sebuah alat ukur kecepatan website dapat di akses, nilai dari sebuah website, dan beberapa ukuran dari sebuah website tersebut.
Beberapa kelebihannya di kategorikan sebagai berikut :
Performance Grade : melihat nilai kecepatan performa halaman web, dari akses DNS, browser cache, combine external css dan lain-lain.
Waterfall : melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan sampai seberapa cepat script tersebut dapat di akses.
Page Analysis : melihat detail analisa halaman web.
History : melihat detail akses dari beberapa hari lalu.
Kekurangan yang terdapat pada tools ini, sama seperti tools alat ukur akses web pada umumnya yaitu Membutuhkan akses internet yang stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu website kalau akses internet kita terhadap website tersebut tidak stabil/berjalan dengan baik.
2. GTmetrix
 
      GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.
Kelebihan dari GTmetrix :
  1. dapat membandingkan beberapa URL secara bersamaan.
  2. dapt menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan.
kekurangan dari GTmetrix :
Dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.
  • Keynote Internet Testing Environment (KITE)
  • Alat pengujian dan pengukur berbasis desktop yang digunakan untuk merekam atau mengedittransaksi web dan menganalis kinerja dari aplikasi web. KITE sangat mudah untuk digunakan dan sebagai salah satu alat yang sudah cukup terkenal didunia.
  • CloudStatus

3. Alexa Rank
 
      Alexa Internet, Inc. adalah perusahaan yang mengoperasikan situs yang menyediakan informasi mengenai banyaknya pengunjung suatu situs dan urutannya. Cara kerja Alexa rank Alexa memberikan peringkat ke sebuah situs berdasarkan jumlah pengunjung unik. Semakin rendah alexarank dari situs berarti situs memiliki sedikit pengunjung unik.Jadi jika Anda bisa mendapatkan lebih banyak traffic ke situs Anda, Anda akan mendapatkan lebih rendah alexa rank.

Selain tools-tools diatas, masih banyak tools serupa lainnya yang bisa dicari sendiri di Search Engine.

Crawlers

 

Crawlers adalah proses pengambilan sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern
Cara kerja :
suatu data dikumpulkan oleh web crawler kemudian digunakan oleh mesin pencari untuk memberikan link situs yang relavan bagi pengguna ketika mereka melakukan pencarian. web crawler menangkap banyak hal yang berbeda ketika mereka memindai situs. Informasi diperoleh dari metatag, konten itu sendiri dan link. untuk mendapatkan ide yang baik dari apa situs adalah tentang. Crawler digunakan sebagai scan situs anda. jika ada bagian-bagian tertentu dari situs yang seharusnya tidak diindeks, mereka harus mencatat dalam file ini. setelah mendapat instruksi crawler dari file ini, akan mulai dengan merangkak halaman situs anda.
Ini kemudian akan melanjutkan ke indeks konten, dan kemudian akhirnya akan mengunjungi link di situs Anda. Jika crawler mengikuti link dan tidak menemukan halaman, maka akan dihapus dari indeks. Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam database, yang kemudian digunakan oleh mesin pencari.

Search Engine
 
adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS


Archiving Web
Adalah proses pengumpulan bagian-bagian dari World Wide Web untuk memastikan informasi tersebut diawetkan dalam arsip bagi para peneliti di masa depan, sejarawan, dan masyarakat umum. Web Archivist biasanya menggunakan web crawler untuk menangkap otomatis karena ukuran besar dan jumlah informasi di Web. Organisasi terbesar web pengarsipan berdasarkan pendekatan bulk crawling adalah Internet Archive yang berusaha untuk mempertahankan sebuah arsip dari seluruh Web.
Web Archive adalah Sebuah file format terkompresi, didefinisikan oleh Java EE standar, untuk menyimpan semua sumber daya yang diperlukan untuk menginstal dan menjalankan aplikasi Web dalam satu file.
Teknik yang paling umum digunakan dalam pengarsipan Web adalah dengan menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama seperti yang user biasa lihat pada Web. Contoh pengarsipan web yang menggunakan web crawlers diantaranya adalah :
1. Heritrix
 
Heritrix adalah crawler web yang dirancang untuk keperluan Web Archiving. Heritrix ditulis oleh Internet Archive. Heritrix berlisensi free software dan ditulis dalam bahasa Java. Interface utama dapat diakses menggunakan Web Browser,, ada beberapa baris perintah yang opsional dapat digunakan untuk menginisiasi Crawler.
Heritrix dikembangkan bersama oleh Internet Archive dan perpustakaan nasional Nordic pada awal 2003. Rilis resmi pertama adalah pada bulan Januari 2004, dan telah terus ditingkatkan oleh karyawan dari Internet Archive dan pihak lain yang berkepentingan.
Heritrix bukan crawler utama yang digunakan untuk menjelajah konten untuk koleksi web Internet Archive selama bertahun-tahun. Penyumbang terbesar untuk koleksi adalah Alexa Internet. menjelajah web untuk keperluan sendiri, dengan menggunakan crawler bernama ia_archiver. Alexa kemudian menyumbangkan materi ke Internet Archive. Internet Archive sendiri melakukan crawlingnya sendiri menggunakan Heritrix, tetapi hanya pada skala yang lebih kecil.
Mulai tahun 2008, Internet Archive mulai peningkatan kinerja untuk melakukan Crawling skala luas sendiri, dan sekarang telah mengumpulkan sebagian besar isinya.
2. HTTrack
 
HTTrack merupakan Web Crawler yang gratis dan bersifat open source, dikembangkan oleh Xavier Roche dan berlisensi di bawah Lisensi GNU General Public License Versi 3. HTTrack memungkinkan pengguna untuk men-download situs World Wide Web dari Internet ke komputer lokal. HTTrack juga dapat mengupdate situs mirror yang ada dan melanjutkan download terputus. HTTrack dikonfigurasi dengan option dan oleh filter (include/exclude), dan memiliki sistem bantuan yang terintegrasi. Ada versi baris perintah dasar dan dua versi GUI (WinHTTrack dan WebHTTrack)
HTTrack menggunakan crawler Web untuk men-download website. Beberapa bagian dari situs web tidak dapat didownload secara default karena protokol exclusion robot dinonaktifkan selama program. HTTrack dapat mengikuti link yang dihasilkan dengan dasar JavaScript dan di dalam Applet atau Flash, tapi bukan kompleks link (dihasilkan dengan menggunakan fungsi atau ekspresi) atau peta gambar server-side.
3. Wget
 
GNU Wget, seringkali hanya disebut wget, adalah sebuah program komputer sederhana yang mengambil materi dari web server, dan merupakan bagian dari Proyek GNU. Namanya diturunkan dari World Wide Web dan get, konotatif dari fungsi primernya. Program ini mendukung pengunduhan melalui protokol HTTP, HTTPS, dan FTP, protokol berbasis TCP/IP yang paling luas digunakan untuk penjelajahan web.
Fitur-fiturnya meliputi pengunduhan rekursif, konversi pranala untuk peninjauan offline dari HTML lokal, mendukung proxy, dan lebih banyak lagi. Pertama kali muncul pada tahun 1996, dilatarbelakangi oleh ledakan penggunaan Web, menyebabkan penggunaan yang luas di antara para pengguna Unix dan distribusi Linuxterkemuka. Ditulis menggunakan bahasa C portabel, Wget dapat diinstal secara mudah pada sistem mirip-Unix apa saja dan telah diportasi ke beberapa lingkungan, termasuk Mac OS X, Microsoft Windows, OpenVMS danAmigaOS.
Wget digunakan sebagai basis program-program GUI semisal Gwget untuk desktop GNOME. Dirilis di bawah Lisensi Publik Umum GNU v3, Wget adalah perangkat lunak bebas.

Cara kerja Web Archiving
1.   Menemukan Informasi Website lewat crawling web
Bagaimana cara kerja web crawling Google ? Google memiliki software khusus untuk proses perayapan website/blog yang bisa diakses secara umum. Secara sederhana cara kerja web crawler Google menggunakan aplikasi yang disebut Googlebot.
Crawler Googlebot akan merayapi setiap halaman website/blog seperti ketika sobat belajar online membuka link lewat browser, kemudian mengikuti link setiap halaman web dan membawa data dari website/blog tersebut ke server Google.
Proses crawling web oleh googlebot dimulai dari crawling alamat utama web (domain), kemudian ke sitemap (peta situs) yang dibuat oleh pemilik website.
adanya sitemap website akan memudahkan google bot google dalam proses crawling web/blog tersebut.
Pada akhirnya program google bot akan menentukan situs mana yang ramai pengunjung dan selalu diupdate, berapa banyak konten yang ada, untuk menentukan posisinya.
Google tidak menerima bayaran dalam memposisikan website. Website/blog yang menurut mesin pencari google bagus maka akan berada di posisi pertama hasil pencarian Google. Mengapa Google tidak mau menerima bayaran dalam merayapi dan mengindeks website ? Hal ini tentu saja berkaitan dengan manfaat untuk pengguna yang mencari informasi lewat mesin pencari google, karena itu merupakan bisnis utama mesin pencari Google.
2.   Mengorganisasi informasi hasil proses crawling web
Setelah proses crawling web, maka mesin pencari google kemudian memasukkannya dalam daftar indeks Google. Gambaran internet itu ibarat perpustakaan dengan miliaran buku, namun sayangnya tidak mempunyai katalog khusus dan pengarsipan utama. Dari situ, maka google mengumpulkan alamat dan isi halaman-halaman web yang dicrawl oleh google bot kemudian membuat indeks. Dengan begitu mesin pencari google tahu persis bagaimana Google melihat halaman yang bersangkutan.
Gambaran bagaimana google membuat indeks dari miliaran web yang ada di dunia, coba sobat belajar online buka indeks buku yang ada di bagian belakang. Indeks Google juga berisi tentang informasi kata-kata dan lokasi kata tersebut.
Dengan perkembangan web generasi kedua, ditambah dengan html 5 yang memberikan kesempatan kepada developer web untuk membuat web dinamis semakin banyak jenis konten yang harus diindeks google, dari teks, gambar dan video. Google pun juga menyempurnakan pengindekan konten-konten yang ada di internet untuk memahami apa yang diinginkan oleh pencari informasi lewat mesin pencari Google.
3.   Pengaturan crawling pada pemilik website/blog
Walaupun Google dapat merayapi setiap halaman web, namun mesin pencari juga memberikan kebebasan kepada pemilik situs yang tidak ingin websitenya dirambah dan diindeks mesin pen31cari Google.
Untuk memilih dan memberitahu google bot agar tidak merayapi dan mengindeks halaman sensitif yang berbahaya apabila diakses oleh umum, maka sobat dapat menggunakan file robot.txt. Sobat dapat mengakses Google Webmasters Tool untuk mendapatkan file robots.txtdan mengisi bagian mana yang tidak boleh dirayapi dan diindeks dari website/blog sobat oleh Google crawl


NAMA KELOMPOK :
1.      Andre Bagas Kurniawan
2.      Aji Pangestu Dwi Saputra

3.      Syahrul Setiyawan

Wednesday, April 26, 2017

Tutorial Membuat Website dari Blogger

Cara Membuat Blog di Blogger atau Blogger Gratis

Untuk cara membuat blog di Blogspot gratis, silahkan menuju blogger.com dan login menggunakan akun Google. Jika belum memiliki akun Google (akun Gmail), silahkan menuju tutorial ” Cara Membuat Email Baru Lengkap Gambar “. Setelah anda mempunyai akun gmail atau akun google, silahkan kunjungi ” www.blogger.com ” dan kita akan melihat halaman login seperti gambar berikut.


Setelah login kita akan menghadapi pilihan untuk menggunakan identitas seperti dibawah ini, atau kita dapat memilih profil Google plus atau menggunakan profil Blogspot. Lebih di sarankan memilih profil Google plus.

Langsung tekan tombol ” Lanjutkan ke Blogger “.
Setelah itu kita akan melihat halaman membuat blog di blogspot seperti gambar berikut. Pada halaman ini kita akan melihat daftar blog yang telah dibuat, karena kita baru akan memulai dalam membuat blog maka kita belum melihat daftar blog tersebut, untuk memulai membuat blog silahkan klik tombol ” Blog Baru “.

Memberi Nama dan Alamat Blog di Bloggspot/Blogger
Setelah kita klik tombol ” Blog Baru ” kita akan melihat sebuah halaman baru untuk memulai dengan menambahkan nama dan memilih nama domain. Untuk tips trik dalam memilih nama domain silahkan anda kunjungi tutorial ” Tips Cara Memilih Nama Domain Blog atau Website “.
Untuk lebih jelasnya silahkan perhatikan gambar membuat blog di blogspot berikut:
Keterangan nomor pada gambar
  • Nomor 1 adalah tempat kita untuk memberi judul atau nama blog
  • Nomor 2 adalah tempat kita untuk memberi alamat blog kita
  • Nomor 3 adalah tempat kita untuk memilih template blog kita, kita bisa merubah-nya nanti pada halaman template, jadi untuk sementara pilih saja yang standar
  • Nomor 4 merupakan keterangan alamat blog yang kita ketik tersedia atau tidak, pastikan alamat blog tersedia.
  • Nomor 5 adalah tombol untuk mengakhiri , tekan tombol ini jika anda sudah merasa puas dengan nama dan alamat yang anda pilih.

Mengenal Dashboard di Blogspot/Blogger
Sekarang blog kita sudah dibuat tetapi belum selesai sepenuhnya. Ada beberapa pengaturan yang perlu kita lakukan pada blog yang baru dibuat, agar membuat blog di Blogspot kita semakin SEO, seperti merubah template dan menambah halaman. Sekarang kita berada di dashboard Blogspot di mana kita akan melihat backend blog dan bisa pergi ke pengaturan dan membuat perubahan untuk meningkatkan visibilitas blog. Berikut adalah screenshot dashboard beserta penjelasan:
Keterangan nomor pada gambar
  • Nomor 1 merupakan tombol yang bisa kita gunakan jika ingin membuat blog baru
  • Nomor 2 merupakan tombol yang bisa kita gunakan jika ingin membuat post baru
  • Nomor 3 merupakan tombol yang bisa kita gunakan jika ingin melihat blog secara live
  • Nomor 4 merupakan daftar shortcut menuju pengaturan, post, dan lain-lain
  • Nomor 5 merupakan area artikel dari blog yang kita ikuti atau follow
  • Nomor 6 merupakan area identitas atau profil kita di google, dalam area ini kita bisa login dan logut.
Setelah kita mengenal fungsi dari dashboard blogspot/blogger, silahkan anda klik menu “ Ikhtisar ” untuk melihat daftar menu dalam memulai membuat post, halaman, sampai mengatur adsense pada blog kita.
Untuk melihat tampilan blog yang sudah dibuat, silahkan klik tombol no 3 pada nomor diatas, maka tampilan blog akan terlihat seperti gambar dibawah ini. Perhatikan bahwa template sudah sesuai dengan template yang telah dipilih sebelumnya.

Wednesday, March 22, 2017

MAKALAH PENGANTAR WEB SCIENCE

MAKALAH
PENGANTAR WEB SCIENCE







Nama :     Andre Bagas Kurniawan
Kelas :                 2IA11         
NPM :               50415707
Jurusan:    Teknik Informatika



Fakultas Teknologi Industri

UNIVERSITAS GUNADARMA












KATA PENGANTAR


Puji syukur atas kehadirat Allah SWT atas limpahan rahmat dan anugrah dari-Nya saya dapat menyelesaikan makalah tentang “Pengantar Web Science”  ini. Sholawat dan salam  semoga senantiasa tercurahkan kepada junjungan besar kita Nabi Muhammad SAW yang telah menunjukkan kepada kita semua  ke jalan yang lurus berupa ajaran agama islam yang sempurna dan menjadi anugrah terbesar bagi seluruh alam semesta.

Demikian yang dapat saya sampaikan, semoga makalah ini dapat bermanfaat bagi para pembaca. Saya mengharapkan kritik dan saran terhadap makalah ini agar kedepannya dapat saya perbaiki. Karena saya  sadar, makalah yang saya buat ini masih banyak terdapat kekurangannya.



DAFTAR ISI


Kata Pengantar..............................................................................ii
Daftar Isi.......................................................................................iii
Bab I  : Pendahuluan......................................................................4
             Latar Belakang....................................................................4
             Tujuan dan Manfaat...........................................................4
Bab II : Pembahasan......................................................................5
Pengertian Web Science................................................................5
Sejarah Web...................................................................................5
Arsitektur Web...............................................................................6
Konsep dan Pengamanan Web.......................................................8
Bab III : Penutup............................................................................12
Daftar Pustaka...............................................................................12



PENDAHULUAN


1.1.        Latar Belakang

 Perkembangan Ilmu Pengetahuan membuat kita dituntut untuk bisa lebih kompetitif dalam mengembangkan teknologi yang dapat mendukung Perkembangan Ilmu Pengetahuan. Hanya saja seberapa jauh perkembangan teknologi yang dapat ditemukan oleh manusia? Tentu ukuran tersebut hanya bisa diketahui dengan melihat sejarah dari perkembangan teknologi. Perkembangan Teknologi selalu berkembang dari waktu kewaktu, hal ini dapat mempengaruhi bentuk dan kemampuan dari wajah Teknologi tersebut.



1.2.        Tujuan dan Manfaat


Tujuan dan manfaat pembuatan makalah ini adalah :

1.     Definisi Web Sience
2.     Sejarah Web
3.     Arsitektur Web
             4.     Konsep dan pengamanan Web 




BAB II
PEMBAHASAN

2.1.     Pengertian Web Science
Web Science dapat kita artikan web yang artinya jaringan dan science yang berarti ilmu pengetahuan namun dalam hal lain Web Science dapat diartikan: Suatu sistem di internet yang menyediakan informasi secara elektronik, dimana informasi tersebut dapat diakses oleh berbagai institusi ilmu pengetahuan agar bisa menyediakan dan memberikan informasi. Informasi dapat berupa Data-data seperti Tulisan, gambar, video dan suara dan dapat diakses kapanpun oleh institusi ilmu pengetahuan tersebut. Latar belakang dibuatnya web science adalah untuk mengoptimalkan para ahli ilmu pengetahuan dalam melakukan penelitian dan mengembangkan teknologi yang berguna bagi umat manusia. namun kita tentu saja tau bahwa manusia selalu terbatas dalam ruang dan waktu.
Tetapi dengan adanya Web science, kita dapat melampaui ruang dan waktu tanpa batas. karna dengan menggunakan Web Science kita dapat menyediakan dan memberikan berbagai informasi melalui Web dengan waktu yang sangat singkat dengan sarana jaringan internet.

2.2.     Sejarah Web Science
            Perkembangan Web Science didorong oleh pergerakan generasi Web dari Web 1.0 ke Web 3.0. Sejak diperkenalkan Web pada tahun 1990 oleh Tim Berners-Lee, perkembangan yang terjadi sangat luar biasa. Pada saat ini, kita berada pada pergerakan dari Web 2.0 ke arah Web 3.0. Perbedaan utama dari setiap generasi adalah pada Web 1.0 masih bersifat read-only, pada Web 2.0 bergerak ke arah read-write, sedangkan pada Web 3.0 mengembangkan hubungan ‘manusia-manusia, manusia-mesin, dan mesin-mesin’.
Pada Web 2.0 kegiatan sosial sudah dimulai, dengan semakin popularnya berbagai fasilitas seperti wikipedia, blog, friendster dan sebagainya. Tetapi kendala utama pada Web 2.0 adalah penangan untuk pertukaran data atau interoperabilitas masih sulit. Contoh sederhana, pada saat kita mencari sebuah informasi di search engine popular seperti Google, hasil pencarian yang sesuai dengan kebutuhan kita hanya 5% atau kurang dari daftar yang ditemukan pada Google.
Web 3.0 mencoba menyempurnakan Web 2.0 dengan memberikan penekanan penelitian pada Semantic Web, Ontology, Web Service, Social Software, Folksonomies dan Peer-to-Peer. Penelitian tersebut sangat memperhatikan ‘budaya’ sebuah komunitas terhadap kebutuhan akan sebuah data atau informasi.
Web semantik merujuk kepada kemampuan aplikasi komputer untuk lebih memahami bahasa manusia, bukan hanya bahasa yang baku dari para penggunanya tetapi juga bahasa yang lebih kompleks, seperti dalam percakapan sehingga memudahkan penggunanya untuk berkomunikasi dengan mesin. Web semantik dapat mengolah bahasa dan mengenali homonim, sinonim, atau atribut yang berbeda pada suatu database.
Istilah web semantik itu sendiri diperkenalkan oleh Tim Berners-Lee, penemu World Wide Web. Sekarang, prinsip web semantik disebut-sebut akan muncul pada Web 3.0, generasi ketiga dari World Wide Web. Bahkan Web 3.0 itu sendiri sering disamakan dengan web semantik. Web semantik menggunakan XML, XMLS (XML Schema), RDF, RDFS (Resources Description Framework Schema) dan OWL
Dalam hal ini Teknik Informatika menjadi sarana penghubung antara berbagai ilmu pengetahuan untuk melakukan penelitian. dengan adanya Web Science yang dibuat oleh Teknologi Informatika maka para ilmuwan dapat saling tukar menukar informasi dengan cepat dan mudah untuk mengembangkan teknologi.

2.3.     Arsitektur Web

            Arsitektur Website adalah suatu pendekatan terhadap desain dan perencanaan situs. Seperti dalam arsitektur tradisional, fokusnya adalah benar pada pengguna dan kebutuhan pengguna. Hal ini memerlukan perhatian khusus pada konten web, rencana bisnis, kegunaan, desain interaksi, informasi dan desain arsitektur web. Untuk optimasi mesin pencari yang efektif perlu memiliki apresiasi tentang bagaimana sebuah situs Web terkait dengan World Wide Web. Website arsitektur akan datang dalam ruang lingkup estetika dan teori kritis dan kecenderungan ini dapat mempercepat dengan munculnya web semantik dan web 2.0.
Website arsitektur memiliki potensi untuk menjadi istilah yang digunakan untuk disiplin intelektual mengatur konten website. ”Web desain”, dengan cara kontras, menggambarkan tugas-tugas praktis, bagian-bagian-grafis dan teknis, dari merancang dan menerbitkan sebuah situs web. Perbedaan tersebut dibandingkan dengan yang antara tugas mengedit sebuah koran atau majalah dan desain grafis dan pencetakan. Setiap halaman website hendaknya tidak lebih dari 2 (dua) level kedalaman atau 2 (dua) kali klik dari halaman depan (home).
Struktur 3 (tiga) lapisan ini menghasilkan sebuah website yang mudah ditelusuri bagi pengunjung. Terdapat pula halaman-halaman yang tersedia pada sebuah website:

     1. Halaman Depan (Home Pages)

Setiap website memiliki halaman depan.  Halaman depan merupakan halaman pertama yang dilihat oleh pengunjung dan juga merupakan halaman yang paling penting dalam mendapatkan urutan pencarian yang tinggi dari mesin pencari, karena mesin pencari memberikan lebih banyak bobot kepada halaman depan darimana halaman lainnya. Halaman depan harus memberikan informasi yang jelas dan singkat.

2. Halaman Produk/Jasa

Bagian utama dari website berisi penawaran produk dan/atau jasa. Pada bagian ini harus menggambarkan secara singkat dan tepat apa yang ditawarkan. Jumlah halaman produk/jasa hendaknya disesuaikan dengan jumlah produk/jasa yang ditawarkan. Apabila jumlah produk/jasa yang ditawarkan banyak, maka halaman utama produk/jasa bisa berisi ringkasan dari keseluruhannya.

3. Halaman Informasi

Profil: berisi sejarah mengenai bisnis atau perusahaan, visi dan misi, siapa saja pengurus inti website atau perusahaan, dan hal-hal penting lainnya mengenai bisnis atau perusahaan.
FAQ (Frequently Asked Question): berisi pertanyaan-pertayaan umum mengenai produk atau jasa.
Testimoni: berisi kesaksian pelanggan mengenai penggunaan produk dan/atau jasa yang ditawarkan.
Surat kabar elektronik: berisi berita-berita mengenai produk dan/atau jasa baru, tips-tips, promo-promo yang diadakan, serta pengumuman-pengumuman lainnya.

4.Halaman Keanggotaan

Halaman keanggotaan merupakan bagian yang penting sekali untuk pengembangan website di masa mendatang. Dengan mengetahui siapa saja pengunjung dan perkembangan jumlah pengunjung aktif .

5. Halaman Kontak

Halaman kontak berisi cara-cara untuk menghubungi pengurus website, bisa melalui email, telepon, fax, chatting, surat, ataupun dengan cara mengisi formulir pertanyaan atau komentar secara online. Hal ini akan memberikan rasa nyaman kepada pengunjung karena mereka bisa berhubungan dengan pemilik website.
Bagian-bagian dari Arsitektur Website:

      1. Hypertext Transfer Protocol (HTTP)

HTTP adalah sebuah protokol jaringan lapisan aplikasi yang digunakan untuk sistem informasi terdistribusi, kolaboratif, dan menggunakan hipermedia.

2.WWW (World Wide Web)

WWW (World Wide Web) merupakan kumpulan web server dari seluruh dunia yang berfungsi menyediakan data dan informasi untuk dapat digunakan bersama.
      
      3. URL (Universal Resource Locator) 

URL( universal resource locator) merupakan suatu konsep penamaan lokasi standar dari suatu file,direktori,computer, dan lokasi komputernya sesuai dengan metode yang digunakan. URL tidak hanya dapat menunjuk ke suatu file tapi dapat juga menunjuk suatu query, dokumen dalam suatu database atau hasil dari perintah finger atau perintah archie .

4. XML (Extensible Markup Language) 

XML (Extensible Markup Language) merupakan bahasa web turunan dari SGML (Standart Generalized Markup Language) yang ada sebelumnya. XML hampir sama dengan HTML, dimana keduanya sama-sama turunan dari SGML.

5. JavaScript

JavaScript adalah bahasa pemrograman berbasis prototipe yang berjalan disisi klien. jika kita berbicara dalam konteks web, sederhananya, kita dapat memahami JavaScript sebagai bahasa pemrograman yang berjalan di browser. Javascript dipanggil untuk memberikan fungsi pada halaman web dengan meletakannya secara internal pada halaman html diantara tag atau dibuat pada file terpisah ( eksternal ).

6. AJAX

AJAX disini adalah singkatan dari Asynchronous JavaScript and XML. Ajax merupakan gabungan beberapa teknologi yang bertujuan untuk menghindari page reload.

2.4.     Konsep dan Pengamanan Web

Web Service memberikan paradigma baru dalam mengimplementasikan sistem terdistribusi melalui Web dengan menggunakan standard protokol SOAP, WSDL dan UDDI yang berbasis XML. Dengan teknologi Web Service, konsep sistem terdistribusi yang biasanya digunakan pada sistem yang bersifat tertutup dan proprietary (DCOM, CORBA, RMI) dapat diterapkan kedalam sistem yang bersifat terbuka (non-propriertary) berbasis Web. Penerapan Web Service akan memudahkan proses integrasi dan kolaborasi antar aplikasi pada lingkungan platform yang heterogen baik melalui jaringan Intranet maupun Internet, dengan biaya yang lebih murah dan dalam waktu yang relative lebih cepat. Namun demikian, masih banyak yang ragu untuk segera menerapkan Web Service, khususnya jika digunakan untuk mendukung transaksi bisnis melalui Internet (global). Alasan utama yang menjadi perhatian adalah pada aspek keamanan dan kerentanan (vulnerability) yang terdapat pada teknologi Web Service. Sementara itu standard keamanan yang biasa digunakan untuk mengamankan aplikasi berbasis Web pada umumnya tidak cukup mampu untuk mengamankan transaksi Web Service. Pada makalah ini dibahas berbagai arsitektur keamanan dan spesifikasi standard keamananan untuk Web Service.
            Teknologi keamanan yang biasa digunakan untuk mengatasi aspek keamanan pada sistem berbasis Web pada umumnya, seperti Secure socket Layer (SSL)/ Transport Secure Layer (TSL), tidak cukup memadai jika diterapkan pada system berbasis Web Service. Hal ini dikarenakan SSL/TLS menyediakan solusi kemanan dengan konteks point-to-point pada level transport layer. Sementara karakteristik transaksi Web Service, membutuhkan pengamanan dalam konteks end-to-end pada level application layer. Teknologi Firewall yang menyediakan pengamanan pada level Network Layer juga tidak cukup memadai, karena karakteristik transaksi Web Service yang menggunakan standard internet (HTTP, SMTP, FTP) akan dilewatkan oleh Firewall karena dianggap Sebagai trafik Internet pada umumnya (firewall friendly).

STANDAR PENGAMANAN WEB

XML signatures merupakan dokumen XML yang berisi informasi mengenai tanda tangan digital. Tanda tangan digital dapat dilakukan terhadap dokumen dengan tipe apapun, termasuk dokumen
XML. XML signatures dapat ditambahkan pada dokumen XML yang ditandatangani ataupun dapat berupa sebuah dokumen XML tersendiri.
Secara garis besar, struktur XML signatures adalah sebagaimana (dimana “?” menandakan nol atau satu kemunculan, “+” menandakan satu atau lebih kemunculan, dan “*” menandakan nol atau lebih kemunculan).

Kode XML

Salah satu keuntungan penggunaan standar XML signature adalah dapat dilakukannya penandatanganan sebuah dokumen XML oleh lebih dari satu pihak. Pihak tertentu hanya akan menandatangani elemen XML yang menjadi tanggung jawabnya.

XML Encryption 

Pengamanan terhadap data yang dipertukarkan merupakan salah satu kebutuhan yang muncul pada proses pertukaran data. W3C telah merekomendasikan Enkripsi XML sebagai metode alternatif untuk pengamanan data dengan menggunakan format XML. Namun demikian, Enkripsi XML dirancang untuk dapat diterapkan baik pada data XML maupun data non XML.
Implementasi Enkripsi XML memungkinkan penggabungan data yang telah dienkripsi dengan data yang tidak dienkripsi di dalam satu dokumen XML. Dengan demikian, proses enkripsi maupun dekripsi dapat dilakukan hanya pada data yang memang perlu diamankan saja.
Enkripsi XML telah diimplementasikan baik pada level aplikasi maupun pada level parser. Pada level aplikasi, implementasi Enkripsi XML paling banyak dibuat dengan menggunakan DOM, Document Object Model.

Sementara pada level parser, implementasi Enkripsi XML di antaranya dibuat dengan menggunakan parser Xerces. Enkripsi XML secara umum dapat dianggap sebagai proses transformasi dokumen XML yang belum terenkripsi ke dokumen XML yang sudah terenkripsi. W3C telah merekomendasikan XSLT, Extensible Stylesheet Language Transformations, sebagai bahasa transformasi untuk dokumen XML. Dengan demikian, maka XSLT sebagai bahasa transformasi untuk XML dapat digunakan untuk mengimplementasikan Enkripsi XML.

Xml Key Management Specification

XML key management specification (XMKS) merupakan sebuah spesifikasi infrastruktur yang digunakan untuk pengamanan transaksi berbasis XML. Pada web services digunakan format komunikasi data berbasis XML dan untuk keamanan data-data tersebut digunakan teknik kriptografi kunci-publik. Pengelolaan terhadap kunci-publik ditentukan dengan adanya public-key infrastructure (PKI).

XKMS juga merupakan bentuk pengembangan berikutnya dari PKI yang ada saat ini (PKIX) dan juga melakukan perubahan standar PKI sebagai salah satu bentuk web services. Dengan demikian XKMS dapat melakukan proses registrasi pasangan kunci-publik (private-key dan public-key), penentuan lokasi penyimpanan kunci-publik, validasi kunci-publik, pencabutan (revoke) kuncipublik, dan pemulihan (recover) kuncipublik. Oleh karena itu, keseluruhan struktur PKI akan dikembangkan ke dalam lingkungan berbasis XML. XML Key Management Specification yang diterapkan sebagai web service akan mengurangi bentuk “ketergantungan” terhadap fungsi PKI yang terintegrasi dalam aplikasi. Sebelumnya penyedia PKI haruslah mengembangkan fungsi-fungsi khusus yang diterapkan pada produk aplikasi yang akan digunakan sedangkan dengan adanya XKMS sebagai web service, pada pengembangan produk aplikasi cukup dibuat fungsi untuk menentukan pengguna (client) yang mengakses fungsi/layanan yang disediakan oleh XKMS. Fungsi-fungsi pada XMKS meliputi:

 *  Registration (registrasi). Layanan pada XKMS dapat digunakan untuk mendaftarkan (registrasi) pasangan kunci dengan menggunakan fungsi “register”. Pembangkitan pasangan kunci-publik dapat dilakukan oleh client ataupun layanan. Pada saat kunci-kunci telah terdaftarkan, layanan XKMS akan melakukan pengelolaan pencabutan ataupun pemulihan kunci-kunci, yang dibangkitkan oleh server ataupun client.
*    Locating. Pada XKMS terdapat fungsi yang digunakan untuk mendapatkan kembali kunci-publik yang terdaftar.
*    Validation (validasi). Fungsi validasi digunakan untuk memastikan bahwa kunci-publik yang telah didaftarkan dengan layanan XKMS valid dan tidak kadaluarsa ataupun telah dicabut.

WEB SCIENCE SECURITY

WS-Security atau juga dikenal sebagai Web Service Security Core Language (WSS-Core) merupakan spesifikasi keamanan Web Service yang mendefinisikan mekanisme pengamanan pada level pesan SOAP untuk menjamin message integrity & confidentiality.
Standard WS-Security saat ini dikembangkan secara resmi oleh OASIS berdasarkan spesifikasi yang diusulkan oleh Microsoft, IBM, dan VerySign pada 11 April 2002. Selanjutnya, OASIS melalui Web Service Security Technical Committee (WSS) melanjutkan pengembangan WS-Security dengan menetapkan beberapa spesifikasi teknis terpisah, seperti Core Specification, SAML Profile, XMrL Profile, X.509 Profile, dan Karberos Profile. Produk WSS untuk Core Specification (WSS-Core) adalah WSS: Soap Message Security. Spesifikasi lain yang merupakan bagian dari Core Specification ini adalah WSS: User Name Token Profile dan WSS: X.509 Certificate Token Profile.

BAB III
PENUTUP


Dari pembahasan yang didapatkan dapat disimpulkan bahwa pengertian  Web Sience adalah ilmu pengetahuan untuk membuat dan memanipulasi web. Website yang kita kenal sekarang ditemukan oleh  Sir Timothy John “Tim” Barners- Lee dan terus melakukan perkembangan yang signifikan. Lalu arsitektur Web sendiri terbagi menjadi tiga yaitu Homepage, Halaman Produk/Jasa, dan Halaman Informasi. Lalu untuk pengaman web atau dengan kata lain Web Service dalam mengimplementasikan sistem terdistribusi melalui Web dengan menggunakan standard protokol SOAP, WSDL dan UDDI yang berbasis XML.


DAFTAR PUSTAKA