CPU vs GPU: Apa Bedanya?

CPU vs GPU: Apa Bedanya?

CPU (kiri) dan GPU (kanan)

Patut diakui, dunia komputer bukanlah merupakan suatu hal yang sederhana. Ada banyak sekali istilah rumit yang kadang tidak dipahami oleh masyarakat awam, seperti processor, memory, storage, dan istilah lainnya. Namun, ada dua istilah yang cukup mirip dan cukup sering (dan memang cukup penting) disinggung ketika seseorang akan memilih sebuah unit laptop atau merakit komputer nya sendiri. Dua istilah tersebut hanya berbeda 1 huruf saja, namun memiliki fungsi yang mirip namun sebetulnya sangat berbeda. Kedua istilah ini adalah CPU (Central Processing Unit) dan GPU (Graphics Processing Unit).

Apa itu CPU?

Sebelum membahas GPU, ada baiknya kita membahas tentang CPU terlebih dahulu. CPU dapat dikatakan sebagai otak daripada sebuah komputer. Secara fisik, CPU merupakan rangkaian elektronika terintegrasi yang dicetak pada sebuah piringan berbahan silicon (microchip) yang jika dilihat akan berbentuk sangat mirip dengan kaca yang biasa disebut silicon wafer. Piringan silicon yang telah dicetak oleh rangkaian elektronika ini kemudian akan dikemas dalam kemasan plastic atau logam yang kemudian akan menjadi CPU yang biasa kita lihat di pasaran.

Silicon Wafer (kiri) dan CPU pasaran (kanan)

Sesuai namanya, dalam arsitektur komputer CPU (Central Processing Unit) berfungsi sebagai “sentral” dari seluruh pemrosesan matematika. Perlu diingat, sejati-nya sebuah komputer merupakan alat hitung super canggih (computer, compute = menghitung). Jika secara sederhana dikatan bahwa sebuah “komputer” merupakan sebuah alat hitung, maka pada CPU-lah seluruh operasi perhitungan matematika nya dilakukan. Fungsi inilah yang membuat CPU dikatakan sebagai otak daripada sebuah komputer, karena jika sebuah komputer tidak bisa melakukan perhitungan, maka alat tersebut kurang dapat didefinisikan sebagai sebuah “komputer”. Ohya, smartphone yang kamu gunakan sehari-hari (dan mungkin sedang kamu gunakan untuk membaca artikel ini) juga termasuk “komputer” loh!

Dalam melakukan perhitungannya, CPU menerima input dari berbagai macam sumber baik itu dari perangkat keras yang biasa kita gunakan (keyboard, mouse, joystick, touchscreen) ataupun perangkat lunak untuk kemudian diproses. Tentu saja hasil pemrosesan tidak didiamkan begitu saja, melainkan akan ditampilkan kembali melalui perangkat keras lainnya (monitor, speaker). CPU sendiri terdiri dari beberapa komponen yang membuatnya dapat melakukan perhitungan seperti Control Unit dan Arithmetic Logic Unit. Secara singkat control unit berfungsi untuk mengatur instruksi perhitungan apa yang akan dilakukan, sedangkan arithmetic logic unit merupakan eksekutor instruksi perhitungan yang telah diatur (seperti kalkulator super efisien). Selain kedua komponen tersebut, terdapat 2 komponen lain yang berfungsi sangat mirip yaitu tempat CPU menyimpan dan mengambil seluruh data yang akan diolah. Kedua komponen ini disebut cache dan system memory (atau biasa disebut RAM).

Apa itu GPU?

Secara fisik, GPU akan tampak sangat mirip dengan CPU yaitu rangkaian elektronika terintegrasi pada silicon wafer. Jika CPU merupakan pusat pemrosesan matematika sentral, maka GPU merupakan pusat pemrosesan matematika untuk kebutuhan grafis. Berdasarkan fungsi nya yang untuk memroses penampilan grafis, maka dapat dikatakan bahwa setiap komputer memiliki “GPU” nya sendiri secara perangkat keras. GPU dapat dibagi menjadi 2 kategori, yaitu integrated dan diskrit.

Sebelumnya, telah dijelaskan bahwa setiap komputer tentu nya membutuhkan unit pemrosesan grafis-nya masing-masing agar dapat menampilkan sesuatu pada layar monitor (jika tidak, kita tidak akan bias melihat apa-apa saat menggunakan komputer, hehe). Maka dari itu, CPU yang didesain masa kini hampir semuanya telah memiliki integrated GPU yang secara perangkat keras sudah terintegrasi pada rangkaian elektronika CPU itu sendiri, sama seperti namanya. Namun GPU yang telah terintegrasi pada CPU ini akan berbagi system memory dalam pemrosesan nya, karena itu performa nya kadang dianggap kurang cukup untuk pemakaian intens seperti bermain game atau menonton film dalam resolusi tinggi.

Besarnya memory yang dipakai oleh GPU integrated rata-rata berada pada orde satuan megabyte. Didesain lah GPU Diskrit yang secara perangkat keras sudah terpisah dari CPU. GPU Diskrit memiliki system rangkaian elektronika yang terpisah dengan CPU utama sehingga dapat bekerja tanpa mengganggu performa CPU utama. GPU Diskrit memiliki memory nya sendiri yang dinamakan video memory (biasa disebut VRAM). Karena memiliki memory sendiri, VRAM pada GPU Diskrit dapat berukuran jauh lebih besar dibandingkan GPU integrated, dengan rata-rata VRAM mencapai 2 ~ 6 gigabyte. Gambar GPU yang teman-teman lihat di awal artikel ini merupakan gambar GPU Diskrit. GPU Diskrit juga sering disebut video card.

GPU sendiri memiliki komponen yang sangat mirip dengan CPU. GPU memiliki control unit, arithmetic logic unit, cache, dan memory nya sendiri. Tidak heran, secara mendasar fungsi keduanya memang sama: melakukan operasi matematika. Namun, arsitektur dari bagaimana komponen-komponen tersebut  disusun secara fungsi dan jumlah membuat CPU dan GPU bermanfaat dalam dua hal yang berbeda loh!

Apa Bedanya?

Untuk mencapai performa maksimal, dalam arsitektur komputer CPU dan GPU bekerja bersama melaksanakan fungsi nya masing-masing. CPU yang disebut sebagai “otak” sebuah komputer lebih terspesialisasi untuk mengerjakan kalkulasi matematika yang abstrak, rumit, dan bersifat sekuensial. Bayangkan CPU sebagai beberapa orang yang sangat pintar yang dapat melakukan perhitungan super rumit. Tugas ini memang penting untuk dapat dilakukan oleh sebuah komputer karen memang itu tugas komputer 😊.

Sedangkan GPU lebih terpesialisasi untuk mengerjakan kalkulasi matematika sederhana dalam jumlah masif dan sangat cepat. Bayangkan GPU sebagai anak-anak yang hanya dapat melakukan operasi kali bagi tambah kurang namun dalam jumlah yang sangat masif. Contoh tugas ini dalam ranah komputer adalah: tepat sekali, menampilkan visual grafis pada layar. Tentu saja beban grafis akan berbeda-beda bergantung kepada jenis kegiatan. Beban grafis untuk sekedar mengerjakan dokumen pada aplikasi word atau powerpoint akan sangat jauh berbeda dengan beban grafis bermain video game atau menonton video dengan resolusi tinggi. Digunakan teknik dengan nama parallel computing untuk melakukan tugas GPU tersebut.

Muncul satu pertanyaan: walaupun memiliki komponen yang serupa, mengapa CPU dan GPU dapat berfungsi sedemikian berbeda? Hal ini disebabkan karena CPU dan GPU didesain dengan arsitektur yang berbeda. Ingat si orang pintar pada CPU? Pada rangkaian elektronika, orang pintar ini disebut sebagai core yang berisi arithmetic logic unit. Core pada CPU didesain sedemikian rupa sehingga dapat melaksanakan operasi dan instruksi matematis yang rumit. Dewasa ini, CPU sudah memiliki multi-core atau lebih dari satu core sehingga dalam satu buah CPU terdapat “beberapa orang pintar” yang dapat melakukan komputasi secara bersamaan. Sebagai contoh, CPU keluaran intel dengan nomor seri i5-8250U memiliki 4 core, CPU ini dapat diibaratkan memiliki 4 “orang pintar”. CPU juga didesain agar dapat menggunakan system memory (atau RAM) sebagai tempat penyimpanan data dalam operasi nya.

Berbeda dengan GPU, GPU didesain agar memiliki core dengan jumlah yang sangat banyak melampaui jumlah core pada CPU. Hanya saja core pada GPU hanya dapat melakukan operasi dan instruks matematis yang sederhana, seperti anak-anak yang hanya dapat melakukak kalibataku. Jumlah core pada GPU yang sangat banyak ini membuat GPU sangat cocok untuk melakukan operasi matematis yang sederhana namun berjumlah sangat banyak. Sebagai contoh sederhana, seri kartu grafis diskrit keluaran Nvidia dengan seri GTX 1050 memiliki jumlah core mencapai 640. Tentu saja arsitektur GPU tidak se sederhana perbedaan jumlah core jika dibandingkan dengan CPU, namun untuk memberikan gambaran, penyederhanaan ini cukup mewakili.

Saling Melengkapi atau Menggantikan?

Jika GPU memiliki jumlah core yang jauh lebih banyak dibandingkan CPU, apakah GPU dapat menggantikan CPU? Atau, jika CPU memiliki core dengan kemampuan matematis yang jauh lebih tinggi dibandingkan GPU, apakah CPU dapat menggantikan GPU? Jawabannya adalah tidak. CPU dan GPU didesain secara berbeda karena terdapat kebutuhan yang berbeda pula. CPU tercanggih sekalipun akan tetap didesain dengan bekal GPU paling minimum untuk menampilkan grafis pada layar. Sedangkan GPU tercanggih tidak akan dapat melakukan instruksi-instruksi dasar yang menjadikan sebuah komputer “sebuah komputer” tanpa CPU. Walaupun prinsip kerja kedua elemen komputer ini mirip, namun masing-masing didesain untuk saling melengkapi dan memastikan bahwa kita, manusia, dapat mendapatkan pengalaman terbaik dalam menikmati teknologi komputer.

Referensi :

  1. Maneesh Singh. “Difference between CPU and GPU”. geeksforgeeks.org. Diakes pada 13 November 2019
  2. Computer Hope. “CPU”. computerhope.com. 04/02/2019. Diakses pada 13 November 2019
  3. Scharon Harding. What Is a GPU? A Basic Definition of Graphics Cards. Tom’s Hardware. December 13, 2018. Diakses pada 13 November 2019

Hukum Moore : “Kiblat” Industri Mikroprosesor

Gordon Moore

”With unit cost falling as the number of components per circuit rises, by 1975 economics may dictate squeezing as many as 65,000 components on a single silicon chip”

Kalimat diatas mengawali paper fenomenal yang ditulis oleh Gordon E. Moore, dikenal sebagai pencipta ’Hukum Moore’ yang menjadi kiblat kompetisi fabrikasi chip silikon di era mikroelektronika modern. Paper yang ditulis pada tahun 1965 tersebut lah yang tidak lain dan tidak bukan menjadi inspirasi bagi pada stakeholder bidang semikonduktor untuk berkompetisi dalam risetnya untuk memperkecil ukuran transistor dalam rangka memenuhi tren yang disitasi pada Hukum Moore. Hukum Moore sendiri didefinisikan bahwa ”kompleksitas sebuah mikroprosesor akan meningkat dua kali lipat tiap 18 bulan sekali”.

Gordon Moore

Walaupun demikian, pada paper nya, Moore tidak menyebutkan sama sekali mengenai istilah ”Hukum Moore”. Istilah ”Hukum Moore” sendiri dipopulerkan oleh seorang profesor dari Caltech yang bernama Carver Mead. Paper yang ditulis oleh Gordon E. Moore sendiri tidak didasari oleh dasar saintifik atau engineering, melainkan hanya refleksi dan proyeksi seperti apa masa depan daripada teknologi semikonduktor.

Dari 12 bulan, 24 bulan, hingga 18 bulan

Pada paper nya, Moore memberikan proyeksi nya mengenai jumlah komponen dalam suatu chip per fungsi ter integrasi. Pada proyeksi tersebut, Gordon E. Moore memproyeksikan bahwa jumlah komponen bertambah sebanyak dua kali lipat setiap 12 bulan. Proyeksi ini ditampilkan hingga tahun 1975, dan dapat dianggap akurat dengan kenyataan nya sampai beberapa dekade kedepan setelah paper tersebut dirilis.

Proyeksi Moore pada Paper nya

Namun, pada tahun 1975, Moore merevisi perkiraan nya pada IEEE International Electron Devices Meeting. Moore mengatakan bahwa kompleksitas devais akan terus bertambah dua kali lipat setiap tahunnya hingga tahun 1980, dimana laju pertambahannya akan berkurang hingga akhirnya bertambah dua kali lipat setiap dua tahunnya.

Angka bahwa jumlah komponen bertambah dua kali lipat setiap 18 bulan tidak pernah disitasikan oleh Moore sendiri. Angka tersebut muncul dari seorang karyawan Intel bernama David House yang memperhitungkan bahwa performa transistor terus meningkat, dan menyimpulkan bahwa angka 24 bulan terlalu lama untuk peningkatan jumlah transistor dan menyebutkan angka 18 bulan. Angka 18 bulan tersebut diterima secara luas oleh para industri yang berkompetisi dalam bidang semikonduktor.

Hukum yang mulai terhalang

Teknologi baru teris diciptakan dalam kompetisi untuk memenuhi Hukum Moore dalam industri mikroprosesor. Penciptaan teknologi seperti strained siliconhigh-k dielectric material, dan tri-gate transistor untuk pemenuhan Hukum Moore ini tidaklah tanpa kesulitan. Teknologi canggih seperti strained silicon dan tri-gate transistor membutuhkan waktu hingga lebih dari 10 tahun untuk produksinya. Fenomena fisika pada skala kuantum tidak dapat dihindari ketika transistor terus diperkecil hingga pada skala atomik. Sebagai contoh, prosesor komputer yang banyak beredar di pasaran pada tahun 2019 ini sudah menggunakan transistor dengan ukuran 14 nanometer, sedangkan jika suatu saat transistor mencapai ukuran 2 nanometer, maka transistor tersebut hanya akan memiliki lebar 10 buah atom silikon! Pada skala ini, fisika mulai bertingkah laku berbeda dengan fisika klasik yang dipelajari saat SMA, dan fenomena fisika yang berbeda ini dinamakan fisika kuantum.

Terdapat juga hukum lain, bernama ”Hukum Rock” (Rock’s Law) atau kadang juga disebut ”Hukum Moore Kedua” (Moore’s Second Law) yang menyatakan bahwa biaya fabrikasi chip akan berlipat dua setiap 4 tahun. Teknologi dapat memberikan cara untuk terus meningkatkan jumlah elektron dalam 1 chip, namun aspek ekonomi tetap menjadi tantangan dimana harga dari teknologi tersebut tentunya tidak murah. Hal ini menjadi rintangan yang sangat berat dimana tujuan dari industri ini adalah pembuatan prosesor yang lebih kecil dan lebih murah.

Hukum Moore kini dan nanti

Setelah mengalami kesulitan yang telah tertulis sebelumnya, kini Hukum Moore tidak lagi menjadi kiblat tunggal dalam kompetisi industri mikroprosesor. Terdapat sebuah set dokumen dengan nama International Technology Roadmap for Semiconductors (ITRS) yang disusun oleh para ahli dalam industri mikroprosesor yang berasal dari Amerika Serikat, Jepang, China, Korea Selatan dan Taiwan. Set dokumen ini berisi opini-opini terbaik dari para ahli dalam menentukan arah riset dalam industri mikroprosesor. Pada bulan April 2014, komite ITRS mengumumkan bahwa mereka akan mengatur ulang arah riset pada industri mikroprosesor agar tidak hanya berfokus pada mengecilkan ukuran transistor seperti pada Hukum Moore saja. Arah riset yang dinamakan “ITRS 2.0” ini mengatakan bahwa elemen lain akan ditambahkan dalam fokus industri mikroprosesor ini seperti integrasi sistem, konektivitas sistem luaran, integrasi pabrik, dan fokus-fokus lainnya.

Referensi:

  1. Moore, Gordon E. (1965-04-19). “Cramming more components onto integrated circuits”.
  2. Bellis, Mary. “Biography of Gordon Moore”. ThoughtCo, Jun. 13, 2018. Diakses pada 13 Oktober 2019.
  3. Bright, Peter. “Moore’s law really is dead this time”. Ars Technica. 2/11/2016. Diakses pada 13 Oktober 2019.
  4. P. Gargini, “The International Technology Roadmap for Semiconductors (ITRS): “Past, present and future”, GaAs IC Symposium. IEEE Gallium Arsenide Integrated Circuits Symposium. 22nd Annual Technical Digest 2000. (Cat. No.00CH37084), Seattle, WA, USA, 2000, pp. 3-5.