- AI generatif kini perlahan bergeser dari cloud menuju perangkat edge.
- Pergeseran ini menawarkan latensi rendah dan privasi data yang maksimal.
- Arsitektur hybrid antara cloud dan edge menjadi solusi paling optimal.
Suara.com - Tren kecerdasan buatan (AI) generatif kini mulai mengalami pergeseran arsitektur yang signifikan. Jika sebelumnya komputasi berat AI terpusat pada data center (pusat data) dan komputasi awan (cloud), kini kemampuan tersebut secara bertahap mulai bergerak menuju perangkat edge atau perangkat ujung.
Transisi ini mencakup integrasi AI pada perangkat keras yang beroperasi langsung di lapangan, mulai dari node IoT (Internet of Things) industri, telepon pintar, hingga sistem komputasi otomotif otonom.
Dean Leo, Senior Staff Marketing Manager Edge AI Business Unit Microchip Technology Inc., menyoroti bahwa pergeseran dari pusat data ke edge ini bukanlah sekadar tren sesaat, melainkan solusi atas berbagai kendala teknis.
"Perpindahan ini didorong oleh kebutuhan akan latensi yang lebih rendah, konektivitas yang lebih andal, perlindungan privasi data yang lebih baik, serta pengurangan biaya bandwidth cloud," jelas Dean Leo.
Untuk merealisasikan komputasi AI generatif di perangkat keras yang memiliki keterbatasan daya dan ruang, pendekatan optimasi sangat diperlukan.
Pelaku industri seperti Microchip berfokus pada teknik optimasi seperti kuantisasi dan pemangkasan (pruning) agar model bahasa atau algoritma kompleks dapat berjalan mulus di perangkat berskala kecil.
Hal ini turut didorong oleh penyematan akselerasi berbasis Neural Processing Unit (NPU) pada cip modern.
Meski komputasi edge terus berkembang, keberadaan komputasi cloud tidak serta-merta ditinggalkan. Menurut Dean, AI Cloud dan AI Edge memiliki keunggulan komparatif masing-masing yang sering kali menjadi nilai tukar (trade-off) bagi para pengembang.
AI cloud dengan kapasitas komputasi masif tetap mendominasi untuk kebutuhan pelatihan (training) dan pembaruan model berat.
Di sisi lain, AI edge mengambil peran dalam eksekusi inferensi lokal yang instan tanpa harus bergantung pada koneksi internet yang stabil.
"Microchip membantu pelanggan menetapkan arsitektur hybrid yang tepat antara edge versus cloud sesuai kebutuhan optimal aplikasi mereka," tambah Dean Leo.
Tuntutan untuk mendistribusikan beban kerja ke perangkat edge juga sejalan dengan proyeksi kondisi pusat data di masa depan. Pada tahun 2026, lanskap data center AI diprediksi akan sangat terbebani oleh tuntutan kinerja dan konsumsi energi yang masif.
Pembangunan fasilitas hyperscaler baru bahkan membutuhkan pasokan listrik hingga hitungan gigawatt serta sistem pendinginan cair (liquid cooling) berkapasitas tinggi.
Dengan mengalihkan sebagian beban inferensi ke perangkat edge, konsumsi daya dan beban server pusat dapat ditekan secara signifikan.
Lebih jauh, adopsi AI di perangkat ujung tidak hanya bergantung pada cip yang mutakhir, melainkan juga ekosistem perangkat lunaknya.