Persamaan ini merumuskan bagaimana caranya membuat komunikasi lebih cepat dan mengkodenya dalam ukuran file yang lebih kecil, membuat internet menjadi mungkin.

Persamaan tersebut diterbitkan pada tahun 1949 di buku berjudul The Mathematical Theory of Communication, ditulis oleh Claude Shannon dan Warren Weaver. Sebuah persamaan yang elegan untuk mengubah suatu informasi (seberapa banyak seseorang mengetahui sesuatu dan waktu itu belum bisa dikuantifikasi) menjadi suatu kode berbentuk matematis yang dapat diukur, dimanipulasi dan dikirim. Persamaan tersebut juga menjadi start bagi ilmu “teori informasi”, sebuah disiplin ilmu yang memungkinkan umat manusia membangun internet, komputer digital, dan sistem telekomunikasi. Ketika seseorang berbicara tentang revolusi informasi dan revolusi industri 4.0, sebenarnya persamaan dari Shannon yang mereka bicarakan.

Claude Shannon adalah seorang ahli matematika dan insinyur elektro yang bekerja di Bell Labs Amerika Serikat pada pertengahan abad ke-20. Tempat kerjanya adalah salah satu laboratorium riset dan pengembangan yang terkenal dari Perusahaan Bell Telephone, perusahaan satu-satunya yang menyediakan layanan telepon Amerika hingga 1980-an dan kemudian bubar karena perusahaannya yang bersifat monopoli. Selama perang dunia kedua, Shannon bekerja untuk membuat kode dan membuat metode pengiriman informasi secara efisien dan aman pada jarak yang jauh, pekerjaan yang menjadi benih bagi teori yang kemudian dicetuskannya dan masuk ke dalam 17 persamaan matematika paling penting.

Teori informasi dapat secara efektif mengatasi masalah ini. Shannon mendefinisikan sebuah satuan informasi, potongan terkecil yang tidak dapat dibagi lagi, menjadi apa yang disebutnya sebagai “bits” atau bit dalam bahasa Indonesia ” (singkatan dari BInary digiTS atau angka biner), “sesuatu” yang dapat digunakan untuk menyandikan informasi apa pun. Kode digital yang secara umum digunakan dalam elektronik modern didasarkan pada bit yang hanya dapat memiliki satu dari dua nilai yakni 0 atau 1.

Gagasan “sederhana” ini merevolusi kualitas komunikasi. Suatu informasi (huruf demi huruf, piksel demi piksel, dst) dikonversi menjadi kode yang terbuat dari “0” dan “1” (disebut sebagai sinyal digital), kemudian suatu baris panjang yang terdiri dari 0 dan 1 ini dikirimkan melalui kabel/fiber optik/udara. Setiap “0” diwakili oleh sinyal bernilai rendah dan setiap “1” diwakili oleh sinyal bernilai tinggi. Sinyal-sinyal ini tentu saja akan mengalami masalah yang sama seperti sinyal analog, yaitu pelemahan dan noise. Tetapi sinyal digital memiliki keuntungan, 0 dan 1 merupakan dua keadaan yang sangat berbeda (rendah dan tinggi) sehingga meskipun mengalami pelemahan sinyal yang parah, keadaan aslinya dapat direkonstruksi di ujung kabel. Bandingkan dengan sistem analog, sinyalnya banyak dan bervariasi, sedangkan pada sistem digital sinyalnya hanya ada dua, 0 dan 1. Ditambah dengan adanya metode ampifikasi atau penguatan yang relatif mudah, maka sinyal digital dapat dikuatkan dan dapat menempuh jarak yang sangat jauh.

Shannon merumuskan kekuatan sebenarnya dari bit-bit ini dengan menempatkannya ke dalam kerangka matematis. Persamaannya mendefinisikan kuantitas, H, yang dikenal sebagai entropi Shannon dan dapat dianggap sebagai ukuran suatu informasi, diukur dalam bit.

Baca juga:

Dalam sebuah informasi, kemungkinan atau probablitas munculnya simbol tertentu (disimbolkan oleh “x”) dirumuskan dalam bentuk matematis sebagai p(x). Sisi di kanan tanda “=” dari persamaan Shannon merangkum (tanda sigma) probabilitas dari berbagai simbol yang mungkin muncul dalam suatu informasi, dihubungkan (tanda logaritma) dengan jumlah bit yang diperlukan untuk mewakili simbol x.

Bingung ya? Kita pakai contoh pelemparan koin Rp. 500. Pelemparan koin tersebut memiliki dua hasil yang memungkinkan (simbol “x” bisa menjadi simbol untuk angka atau garuda). Setiap hasil kejadian memiliki kemungkinan 50%  dan dalam hal ini, p(angka) dan p(garuda) masing-masing ½. Teori Shannon menggunakan basis 2 untuk logaritma dan –2log(½) adalah 1. Angka 1 itu memberitahu kita bahwa besarnya informasi dalam melemparkan koin adalah 1 bit.

Contoh lainnya adalah satu huruf yang diambil dari paket alfabet yang berjumlah 27 huruf (26 A-Z dan 1 spasi) memiliki sekitar 4,76 bit informasi (didapatkan dari –2log(1/27)). Dengan perhitungan ini, pesan dalam sistem alfabet membutuhkan lebar penyimpanan atau transmisi (bandwidth) sebesar jumlah karakter yang dikirimkan dikalikan dengan 4,76.

Tetapi kita tahu bahwa, ada huruf yang lebih banyak dipakai dalam suatu informasi, misalnya huruf “a” lebih sering dipakai dari “z”. Jika detail statistik ini dihitung dan dimasukkan ke dalam persamaan Shannon, maka adalah mungkin tuntuk memperkecil nilai bit. Hal tersebut sangat berguna jika kita ingin mempercepat suatu komunikasi atau memakai lebih memori penyimpanan dalam smart phone atau komputer kita.

Teori informasi dirumuskan untuk membuat suatu kode yang lebih baik, lebih efisien dan menemukan batasan seberapa cepat suatu alat (smartphone, komputer, dll) dapat memproses sinyal digital. Setiap informasi digital adalah hasil dari kode yang telah diperiksa dan diperbaiki menggunakan persamaan Shannon. Persamaan Shannon telah memberikan dasar matematika untuk peningkatan penyimpanan, kompresi, dan pengiriman data. File seperti Zip, MP3, JPG, dan video tidak akan ada tanpa persamaan Shannon. Dan tidak akan ada video live streaming dengan kualitas HD tanpa persamaan Shannon.

Artikel ini disadur dari Without Claude Shannon’s information theory there would have been no internet pada 27 Desember 2018.

 

Sosial Media

Nur Abdillah Siddiq

Founder at Warstek.com
Mahasiswa S3 Fisika ITS, menekuni bidang Optoelektronik dan Elektromagnetika Terapan. Sangat mencintai aktivitas membaca dan mendesain. Profil lebih lengkap dapat dilihat di www.facebook.com/fisrek .
Nur Abdillah Siddiq
Sosial Media
Artikel Berhubungan:

Sponsor Warstek.com:

Tinggalkan Balasan