Sementara itu, pengumpulan dan pemanfaatan data pribadi secara ekstensif untuk pengaplikasian teknologi AI menimbulkan pertanyaan tentang privasi data.
"Hal ini berpotensi pada pelanggaran data hingga penyalahgunaan informasi pribadi," urai dia.
Lebih dari itu, semakin canggihnya serangan siber yang didukung AI pun turut membawa ancaman serius terhadap keamanan online. Dengan minimnya keterampilan literasi internet yang diajarkan dalam sistem pendidikan di Indonesia, risiko penipuan yang didukung AI menjadi semakin meresahkan.
Untuk itulah Jonathan menyarankan, perusahaan-perusahaan di Indonesia perlu mengambil serangkaian upaya untuk memastikan penggunaan AI yang bertanggung jawab.
Untuk mengurangi risiko bias dalam penggunaan AI, Jonathan mencontohkan, perusahaan dapat melakukan audit pada data yang digunakan untuk melatih model AI. Sebab penting untuk memastikan bahwa pengumpulan data dan pelabelan data bersifat netral serta mencakup representatif demografi yang merata.
Pada tahap desain dan pengembangan model AI, perusahaan juga perlu menetapkan pedoman etika yang jelas dan sejalan dengan nilai-nilai masyarakat dan standar hukum yang berlaku.
"Serta melakukan uji coba dan pengecekan secara berkala untuk mendeteksi masalah-masalah keamanan dan privasi yang berpotensi timbul di kemudian hari," saran dia.
Hal terakhir yang perlu diperhatikan oleh perusahaan adalah memastikan transparansi dengan memberikan penjelasan terperinci mengenai cara sistem AI beroperasi dan mengambil keputusan.
"Dengan menerapkan serangkaian upaya-upaya ini, perusahaan-perusahaan di Indonesia diharapkan dapat semakin berkembang dengan dukungan dan penerapan AI yang bertanggung jawab," tandasnya.
Baca Juga: 10 Istilah Teknologi AI Ini Perlu Kamu Tahu!