Mengamankan Sebuah Sistem
Mengamankan Sebuah Sistem, Judul posting yang gw angkat dari tema keamanan jaringan komputer merupakan pertemuan ke-4 dari mata kuliah keamanan jaringan. Banyak sekali pertemuan-pertemua yang bakal dibahas di blog eksplore ini. Dan mengenai pertemuan tentang mengamankan sebuah sistem gw ga bisa cerita banyak panjang lebar tentang pengamanan sebuah sistem yang dijabarkan di modul bsi diantaranya mengatur akses kontrol, setting user dan password, pengaturan hak akses, menutup service, dan memasang proteksi. Dari semua sub judul tentang mengamankan sebuah sistem gw pengen bahas sedikit yang udah gw ketahui tentang mengatur hak akses aja, klo mau tau tentang yang lainnya lw bisa temuin di blog-blog berikut : h4nd0y0, arisjogja, mayaihara, ato cari di google aja. :p
Apa itu robots.txt? Robots.txt bukanlah sebuah robot bukan juga sebuah mesin, melainkan sebuah file bertype text/plaintext berextensi .txt yang berfungsi mengizinkan atau tidak mengizinkan sebuah mesin pencari melakukan pekerjaannya. Mesin pencari (Google, Yahoo!, Live, AOL, dll) adalah sebuah mesin yang berfungsi mencari konten sebuah website sehingga hasil pencariannya dapat dipergunakan dan dimanfaatkan oleh orang lain yang membutuhkannya. Sekarang gw berfikir hebat banget ya mesin pencari itu, konten/web di internet kan jumlahnya milyaran tapi mereka bisa mencari dengan cepat dan tepat! Knapa?
Hak Akses
Salah satu cara yang digunakan untuk mengamankan sistem informasi adalah dengan mengatur hak akses tentang siapa saja yang berhak dan mempunyai akses untuk menggunakan informasi yang ada di sebuah sistem. Karena gw lebih sering berkutat di dunia internet, blogging, dan search engine maka kontrol hak akses yang gw bicarain adalah kontrol hak akses dengan menggunakan file bernama robots.txtApa itu robots.txt? Robots.txt bukanlah sebuah robot bukan juga sebuah mesin, melainkan sebuah file bertype text/plaintext berextensi .txt yang berfungsi mengizinkan atau tidak mengizinkan sebuah mesin pencari melakukan pekerjaannya. Mesin pencari (Google, Yahoo!, Live, AOL, dll) adalah sebuah mesin yang berfungsi mencari konten sebuah website sehingga hasil pencariannya dapat dipergunakan dan dimanfaatkan oleh orang lain yang membutuhkannya. Sekarang gw berfikir hebat banget ya mesin pencari itu, konten/web di internet kan jumlahnya milyaran tapi mereka bisa mencari dengan cepat dan tepat! Knapa?
Mesin Pencari mempunyai mesin crawl yang bertugas menjelajahi seluk-beluk internet dan kemudian hasil temuan mesin crawl itu disave/diindex pada server mereka. Itu tadi sekilas tentang mesin pencari, lalu apa hubungannya dengan keamanan informasi sebuah sistem? Sebuah website adalah sistem yang mempunyai bagian sensitif, seperti direktori yang menyimpan password, atau ada bagian halaman website yang sifatnya rahasia jadi tidak boleh diketahui siapa-siapa, sehingga website ini tentunya memerlukan pengamanan. Defaultnya mesin pencari tidak pandang bulu terhadap website apapun jadi mesin pencari menjelajahi setiap jengkal informasi yang ada di internet walaupun itu data-data sensitif seperti no kartu kredit.
Untuk mengantisipasi mesin pencari yang kebablasan menjelajahi setiap jengkal informasi yang ada di website lw, maka diperlukanlah robots.txt yang berfungsi mencegah mesin pencari menjelajahi setiap jengkal informasi yang ada di website.
Bagaimana cara kerja robots.txt dan cara penggunaannya? pastinya lw harus dulu mengenal robots.txt dsini :D
0 Response to "Mengamankan Sebuah Sistem"
Posting Komentar