- Anthropic menolak keras penggunaan teknologi AI mereka untuk aplikasi militer AS, berbeda dengan OpenAI yang justru menjalin kerja sama.
- Akibat penolakan prinsip tersebut, Anthropic ditetapkan sebagai risiko rantai pasokan dan dilarang dalam lembaga pemerintah AS.
- OpenAI menjalin kemitraan dengan Departemen Perang AS, di mana klaim Sam Altman tentang larangan pengawasan dibantah pemerintah.
Suara.com - Perlombaan teknologi kecerdasan buatan (AI) global kini bersinggungan langsung dengan sektor militer dan etika kemanusiaan.
Perbedaan sikap yang mencolok baru saja dipertontonkan oleh dua raksasa AI, Anthropic dan OpenAI, terkait kerja sama dengan Departemen Perang (Kementerian Pertahanan) Amerika Serikat.
Dilansir melalui media Window Central, Anthropic secara tegas menolak teknologi mereka digunakan untuk militer, sementara OpenAI justru masuk mengambil alih peran tersebut.
"Tidak ada peserta yang berbudi luhur dalam perlombaan kecerdasan buatan, tetapi jika ada, mungkin itu adalah Anthropic," dikutip melalui Window Central, pada Senin (2/3/2026).
Sikap kukuh Anthropic, pengembang AI Claude, memicu kemarahan pemerintahan AS saat ini.
Imbasnya, Anthropic secara tiba-tiba ditetapkan sebagai "risiko rantai pasokan" dan dilarang secara paksa untuk digunakan di seluruh lembaga pemerintah AS.
Menurut laporan tersebut, pelarangan ini dipicu oleh sikap tegas perusahaan.
"Hal itu berputar di sekitar dua garis merah utama mereka tidak ada AI Claude untuk digunakan dalam senjata otonom, atau pengawasan massal terhadap warga negara Amerika Serikat," tulisnya.
Di era yang semakin kehilangan moralitas administratif, keberanian perusahaan teknologi besar seperti Anthropic untuk mengambil sikap tegas menentang pemerintah adalah sesuatu yang mengejutkan.
Baca Juga: Personel Militer AS Tewas, Publik Amerika Tak Dukung Aksi Donald Trump
OpenAI Masuk, Celah Hukum Terbuka
Di saat Anthropic 'ditendang' karena mempertahankan prinsipnya, CEO OpenAI, Sam Altman, dilaporkan langsung menjalin kerja sama dengan Departemen Perang AS untuk menyediakan ChatGPT dan teknologi OpenAI lainnya.
Dalam unggahannya di platform X @BullTheoryio, Altman mengklaim bahwa model OpenAI tidak akan digunakan untuk pengawasan massal. Namun, klaim tersebut langsung dibantah oleh pihak pemerintah AS.
Klaim Altman segera dibantah oleh seorang pejabat pemerintah AS, yang mengatakan bahwa model OpenAI akan digunakan untuk 'semua cara yang sah.'
Pernyataan "sah" ini dinilai berbahaya. Di bawah Undang-Undang Patriot (Patriot Act, the post-9/11 U.S), pengawasan massal terhadap warga negara AS dianggap sah dalam beberapa skenario, termasuk pengumpulan metadata komunikasi secara massal.
Hal tersebut secara tajam membandingkan filosofi kedua perusahaan: Anthropic menginginkan kendali atas cara teknologi mereka digunakan, sebaliknya, Altman dengan senang hati membiarkan pemerintah AS memutuskan bagaimana sistem OpenAI digunakan.