Ilmuwan dari IBM Mempercepat Proses Komputasi Memori hingga 200x untuk Aplikasi Kecerdasan Buatan

Perkembangan teknologi komputer telah banyak membantu manusia dalam menyelesaikan setiap persoalan yang mustahil dilakukan menjadi mungkin. Salah satunya adalah komputer dapat menghitung jauh lebih cepat dan akurat dibandingkan dengan manusia. Pada sistem komputer konvensional menggunakan arsitektur Von Neumann, dimana melakukan proses komputasi (perhitungan) dengan berulang kali mentransfer data antara unit proses dan memori dilakukan terpisah dari unit fisiknya (memori dan CPU terpisah)[1]. Arsitektur Von Neumann menggunakan bus secara bergantian (share) ketika akan mengakses instruksi (program) dan data, sehingga untuk mengakses instruksi dan data harus dijalankan secara sekuensial, tidak bisa dilakukan secara simultan. Jangan lihat keribetan bahasanya ya! Intinya antara memori dan prosesor berada di lokasi terpisah tidak dalam satu tempat[2]. Sehingga, arsitektur Von Neumann, untuk saat ini dianggap lambat dan kurang hemat energi.

Skema arsitektur komputer Von Neumann, di mana memori dan proses komputasi terpisah secara fisik. (Sumber: https://www.nature.com/articles/s41467-017-01481-9/figures/1)

Pada 24 Oktober 2017, telah terbit makalah di jurnal peer-review Nature Communications yang bersifat open access, berjudul “Temporal correlation detection using computational phase-change memory” oleh Abu Sebastian et al. Abu Sebastian merupakan seorang ilmuwan dari IBM Research–Zurich, Switzerland. Dalam makalah tersebut dijelaskan bahwa mereka telah merancang dan membuat sebuah memori yang mampu menyimpan dan memproses informasi sekaligus dalam satu tempat yang disebut sebagai memori komputasi. Memori komputasi ini secara teori bertentangan dengan konsep dari arsitektur komputer Von Neumann dimana proses komputasi dan penyimpanan dilakukan secara terpisah.

(A) Sebuah arsitektur alternatif di mana f (A) dilakukan di lokasi memori yang sama, (B) Salah satu cara untuk mewujudkan memori komputasi adalah dengan mengandalkan dinamika keadaan koleksi besar perangkat memori risistif. (Sumber: https://www.nature.com/articles/s41467-017-01481-9/figures/1)

Konsep dari arsitektur memori komputasi tersebut kemudian dibuat ke dalam sebuah perangkat satu juta biner (bilangan berbasis 0 dan 1) PCM (phase change memory), yang kemudian digunakan oleh para ilmuwan dari IBM untuk menjalankan algortima mesin belajar tanpa pengawasan (unsupervised machine-learning algorithm) dan berhasil menemukan korelasi (hubungan) sementara dari berkas data yang tidak diketahui. Purwarupa (prototype) tersebut bila dibandingkan dengan keadaan normal dari komputasi pada komputer klasik, mampu menghasilkan perbaikan sebesar 200x dalam kecepatan dan efisien energi. Kedepannya purwarupa ini sangat cocok untuk perangkat hemat daya, sangat banyak komponen tapi kecil (ultra-dense), dan sintem komputasi paralel yang besar untuk aplikasi di bidang Kecerdasan Buatan.

Perangkat PCM (phase change memory) (Sumber: https://www.ibm.com/blogs/research/2017/10/ibm-scientists-demonstrate-memory-computing-1-million-devices-applications-ai/)

Para peneliti menggunakan perangkat PCM yang terbuat dari paduan antimon telluride germanium, yang ditumpuk dan dijepit di antara dua elektroda. Ketika para Ilmuwan mengalirkan arus listrik kecil untuk material memori, kemudian panasnya mengubah keadaan dari keadaan amorf (susunan atom menjadi teratur) untuk kristal. Kemudian dengan menggunakan dinamika kristal tersebutlah para ilmuan menggunakan proses komputasi dalam satu fisik dengan memori.

Menurut Dr Evangelos Eleftheriou yang merupakan anggota dan juga penulis dari makalah, “Hal tersebut merupakan sebuah langkah maju yang penting dalam penelitian di bidang fisika kecerdasan buatan, membahas material dari perangkat keras baru, dan perangkat sekaligus arsitektur”. Kemudian beliau juga mengatakan bahwa “sebagai sistem CMOS (Complementary metal oxide semiconductor) pemecah masalah sistem karena dari keterbatsan teknologi, terobosan prosesor yang tergabung dengan memori sekaligus, sangat diperlukan untuk mengurangi keterbatasan pada komputer saat ini. Mempertimbangkan dari sifat kesederhanaan, kecepatan tinggi, dan mengkonsumsi energi yang sedikit pada memori komputasi, hal itu luar biasa dan hasil tersebut sangat mirip dengan arsitektur klasik yang dijalankan pada komputer Von Neumann”.

Sebuah ilustrasi skematik dari algoritma komputasi dalam memori. (Sumber: https://www.ibm.com/blogs/research/2017/10/ibm-scientists-demonstrate-memory-computing-1-million-devices-applications-ai/)

Secara rinci hasil demontrasi dari tenologi tersebut dijelaskan dalam makalah yang mereka tulis, dimana penulis makalah memilih dua contoh berbasis waktu dan membandingkan hasil mereka dengan metode yang ada pada mesin belajar tradisional seperti pengelompokan k-means (k-means clustering):

  • Simulasi data: satu juta biner (0 atau 1) dijalankan secara acak pada grid 2D dengan ukuran 1000 x 1000 pixel berwarna hitam dan putih yang diambil dari gambar profil Alan Turing matematikawan terkenal dari Inggris. Kemudian, para ilmuwan IBM membuat piksel berkedip dan mematikannya dengan tingkat yang sama, tetapi piksel hitam dinyalakan dan dimatikan dengan cara berkorelasi dengan lemah. hal Ini berarti ketika pixel hitam berkedip, ada kemungkinan sedikit lebih tinggi bahwa piksel hitam lain juga akan berkedip. Proses acak  tersebut dijalankan pada satu juta perangkat PCM, dan menjalankan algoritma pembelajaran sederhana. Pada setiap kedipan, pembelajaran pada PCM array, dan perangkat PCM sesuai dengan proses akan berkorelasi pada keadaan konduktansi tinggi. Dengan cara ini, peta konduktansi dari perangkat PCM menyusun ulang gambar Alan Turing.
  • Data Real: dengan data curah hujan aktual, yang dikumpulkan selama enam bulan dari 270 stasiun cuaca di seluruh Amerika Serikat pada interval (jeda) satu jam. Jika hujan dalam waktu satu jam diberi label “1” dan jika tidak hujan bernilai “0”. Pengelompokan klasik yang disebut k-means clustering dan dengan pendekatan komputasi didalam memori, menyetujui klasifikasi 245 dari 270 stasiun cuaca. Di dalam memori komputasi diklasifikasikan 12 stasiun yang saling berhubungan dan telah ditandai berkorelasi dengan pendekatan k-means clustering (pengelompokan k-means). Begitu juga pada memori yanng menggunakan pendekatan komputasi diklasifikasikan 13 stasiun cuaca sebagai hubungan yang telah ditandai berkorelasi dengan k-means clustering.
Pengelompokan k-means pada foto Alan Turing (Sumber: https://phys.org/news/2017-10-ibm-scientists-in-memory-million-devices.html)

Dr. Abu Sebastian mengatakan bahwa “telah kita ketahui bahwa memori hanya digunakan sebagai tempat penyimpanan informasi. Namun dalam karya tersebut, dengan memanfaatkan dari sifat fisika pada perangkat memori untuk melakukan komputasi konvensional yang jauh lebih cepat. Hasil dari perhitungan juga disimpan dalam perangkat memori dan konsep tersebut terinspirasi dari proses otak bekerja[3][4][5].”

Berikut video penjelasan dari Abu Sebastian, PhD tentang memori komputasi,

 

Referensi:

  1. Sebastian, Abu et all. 2017. “Temporal correlation detection using computational phase-change memory“. Nature Communications, 24 Oktober 2017 (https://www.nature.com/articles/s41467-017-01481-9) diakses pada 5 Januari 2017
  2. Syahrul. 2012. “Mikrokontroler AVR ATmega 8535, Menjelajahi: Prinsip-prinsip, Antarmuka, dan Aplikasi Mikrokontroler dengan Assembler (Bahasa Rakitan)“. Bandung: Informatika Bandung
  3. Sciacca, Chris. 2016. “IBM scientist Abu Sebastian develops future memory and computer paradigms with prestigious European grant”. IBM Research, 20 Maret 2016 (https://www.ibm.com/blogs/research/2016/03/ibm-scientist-abu-sebastian-develops-future-memory-computer-paradigms-prestigious-european-grant/) diakses pada 6 Januari 2017
  4. Sebastian, Abu. 2017. “IBM Scientists Demonstrate In-memory Computing with 1 Million Devices for Applications in AI”. IBM Research, 24 Oktober 2017 (https://www.ibm.com/blogs/research/2017/10/ibm-scientists-demonstrate-memory-computing-1-million-devices-applications-ai/) diakses pada 6 Januari 2017
  5. IBM Research Blog. 2017. “IBM scientists demonstrate in-memory computing with 1 million devices for applications in AI”. Phys Org, 24 Oktober 2017 (https://phys.org/news/2017-10-ibm-scientists-in-memory-million-devices.html) diakses pada 6 Januari 2017
Artikel Berhubungan:

Sponsor Warstek.com:
Wayan Dadang

Wayan Dadang

Mahasiswa S1 Teknik Elektro Universitas Sriwijaya, menekuni Kecerdasan Buatan, Sistem Kontrol, dan Robotika. Mencintai kegiatan membaca Paper Sains, Belajar, Menulis, dan Riset.

Yuk Ajukan Pertanyaaan atau Komentar