Kartu grafis atau GPU disebut-sebut sebagai komponen canggih dalam dunia teknologi, terutama dalam artificial intelligence atau AI. Bagaimana tidak, komponen unik ini merupakan pondasi dari era AI generatif yang ada saat ini.
Terdapat tiga alasan mengapa GPU sangat penting untuk AI, yaitu karena komponen ini menggunakan parallel processing, bisa ditingkatkan hingga mencapai kekuatan super komputer, dan software stack GPU untuk AI sangat meluas dan mendalam.
Karena alasan di atas, GPU mampu menghasilkan komputasi teknis dengan lebih cepat dan efisien jika dibandingkan dengan CPU. Inilah mengapa GPU memiliki performa terbaik untuk melatih AI serta semakin banyak digunakan untuk aplikasi yang membutuhkan komputasi cepat dan kuat.
Artikel ini akan membahas lebih jauh tentang bagaimana GPU merupakan pondasi dari perkembangan AI serta bagaimana komponen ini dapat meningkatkan performa aplikasi kecerdasan buatan.
Kartu Grafis dalam ChatGPT
ChatGPT merupakan chatbot berbasis AI yang mulai populer sejak tahun 2022 lalu. Program ini merupakan contoh kuat betapa GPU merupakan komponen yang sempurna untuk AI. Bagaimana tidak, suatu program large language model (LLM) yang dilatih oleh ribuan kartu grafis NVIDIA menjalankan layanan generative AI yang digunakan oleh lebih dari 100 juta orang.
MLPerf yang merupakan standar industri AI sejak tahun 2018 menjelaskan rincian angka yang menunjukkan performa tinggi GPU NVIDIA pada pelatihan program AI. Keunggulan yang didapatkan beberapa diantaranya adalah NVIDIA TensorRT-LLM yang mampu meningkatkan kinerja hingga 8 kali lebih tinggi dan mengurangi penggunaan energi hingga lebih dari 5 kali.
Pada bulan Februari, GPU dari NVIDIA ternyata memimpin dalam hal inferensi karena kemampuannya menghasilkan ribuan inferensi per detik untuk pekerjaan paling menuntut performa tinggi di STAC-ML Market. STAC-ML Market merupakan ukuran kinerja teknologi utama dalam industri jasa keuangan.
Cara kerja graphic card untuk pengoperasian AI
Jika melihat komponen GPU, Anda akan paham mengapa perangkat ini sangat cocok untuk mengoperasikan AI.
AI atau sering juga disebut sebagai jaringan neural, pada dasarnya adalah lapisan-lapisan matematika yang dibuat dari lapis demi lapis persamaan aljabar linier. Setiap persamaan mewakili kemungkinan bahwa satu bagian data berhubungan dengan bagian data lainnya.
GPU berisi ribuan inti kalkulator super kecil yang bekerja secara paralel untuk menganalisis matematika yang membentuk model AI. Pada tingkat yang lebih tinggi, seperti inilah cara kerja komputasi AI.
Berikut ini adalah komponen GPU dan bagaimana mereka bekerja untuk pengoperasian AI:
1. Paralelisme Massal
GPU dibuat dengan ribuan inti pemrosesan kecil yang bekerja secara paralel. Komponen dengan susunan ini memungkinkan kartu grafis untuk menangani sejumlah besar tugas komputasi secara bersamaan. Model seperti ini sangat cocok untuk algoritma AI yang membutuhkan komputasi paralel yang intensif.
Dalam konteks cara kerja AI, sejumlah besar operasi matematika dilakukan secara bersamaan. Dalam hal inilah GPU bekerja dengan memanfaatkan ribuan inti pemrosesan ini agar tugas-tugas AI dapat dilakukan secara efektif dan efisien.
2. Tensor Core
Beberapa GPU modern dilengkapi dengan unit pemrosesan tensor khusus yang disebut dengan tensor core. Komponen ini dirancang khusus untuk melakukan operasi tensor, yaitu operasi matematika yang umum dilakukan oleh AI seperti perkalian matriks dan operasi perkalian skalar-tensor.
Dengan menggunakan Tensor Core, GPU dapat melakukan operasi tensor dengan kecepatan dan efisiensi yang jauh lebih tinggi jika dibandingkan dengan inti pemrosesan biasa.
3. Optimasi Algoritma AI
Perusahaan GPU seperti NVIDIA dan AMD mengoptimalkan perangkat keras dan lunak untuk bisa mendorong kinerja AI dengan lebih baik. Optimasi tersebut bisa dilakukan pada driver GPU, API AI seperti CUDA, TensorFlow, dan PyTorch.
Ketika driver GPU sudah dioptimasi dan disertai dengan API AI yang efisien, maka pengguna akan dapat memanfaatkan kekuatan penuh perangkat keras mereka untuk mempercepat kinerja AI. Jadi, peneliti akan dapat mengembangkan dan menerapkan solusi AI dengan lebih efektif.
4. Training dan Inference
GPU digunakan untuk pelatihan dan inferensi model AI. Dalam pelatihan GPU memproses besarnya data untuk menyesuaikan bobot model. Kemudian, dalam inferensi, GPU memproses data yang dimasukkan untuk membuat prediksi berdasarkan model yang telah dilatih sebelumnya.
5. Memori dan Bandwidth
Memori yang besar dan bandwidth yang tinggi dalam GPU akan mengakomodasi pengolahan data yang intensif. Hal ini memungkinkan GPU mengakses data dengan cepat dan efisien.
GPU memainkan peran kunci dalam dua tahap tersebut. Jadi memori dan bandwidth yang berkualitas tinggi pada GPU juga akan mempercepat proses pelatihan model dan kecepatan inferensi. Hasilnya adalah penggunaan model AI yang lebih efektif dalam berbagai jenis penggunaan.
Graphic Card dengan Highly Tuned Tensor Cores
Perkembangan kebutuhan model AI juga membuat produsen GPU terus melakukan inovasi untuk menghasilkan perangkat yang lebih canggih lagi. GPU dari NVIDIA misalnya, sudah menyertakan Tensor Cores 60 kali lebih bertenaga dibandingkan generasi pertamanya.
Selain itu, mesin transformer juga ditambahkan untuk meningkatkan kinerjanya.. Mesin ini dapat menyesuaikan diri ke presisi optimal untuk memproses model transformator. Model ini merupakan kelas jaringan saraf yang menghasilkan generative AI.
Seiring waktu, setiap generasi GPU yang dihasilkan disertai lebih banyak memori dengan teknik yang lebih efisien untuk menyimpan seluruh model AI dalam satu atau sekumpulan GPU.
Perkembangan Kartu Grafis yang Mengikuti Perkembangan AI
Model AI telah berkembang hingga 10 kali lebih baik dalam setahun. LLM tercanggih saat ini, yaitu GPT4, memiliki lebih dari satu triliun parameter. Angka ini menunjukkan peningkatan yang sangat tinggi karena pada tahun 2018, LLM yang populer saat itu hanya memiliki 100 juta parameter.
Sistem GPU terus mengimbangi kecepatan perkembangan yang terjadi pada AI. Bahkan peningkatan tersebut sudah mencapai apa yang disebut dengan superkomputer. Misalnya, model DGX GH200 yang merupakan superkomputer AI dengan memori besar menggabungkan hingga 256 NVIDIA GH200 Grace Hopper Superchips ke dalam satu pusat data GPU tunggal dengan memori bersama sebesar 144 terabyte.
AI akan terus berkembang dan kemajuannya diperkirakan akan memberi dampak besar pada perekonomian global. Oleh karena itu, seiring dengan berkembangnya permintaan adanya Ai dengan performa yang lebih kuat dan kinerja yang lebih efisien, maka hal ini juga akan disertai dengan perkembangan GPU.
Saat ini, lebih dari 40 ribu perusahaan menggunakan kartu grafis dari NVIDIA untuk AI dan akselerasi komputasi dan telah menarik perhatian 4 juta komunitas developer secara global. Bersama-sama, mereka menggunakan teknologi ini untuk mengembangkan industri di bidang sains, kesehatan, keuangan, dan bahkan berbagai industri lainnya.