Banyak permasalahan yang timbul dari kecerdasan buatan berasal dari cara kerjanya dan privasi data yang disediakannya, sehingga membiarkan komunitas keamanan nasional untuk memimpin AI hanya akan memperburuk keadaan.
Gedung Putih di bawah kepemimpinan Presiden Joe Biden baru-baru ini mengeluarkan sebuah “memorandum”.memajukan kepemimpinan Amerika Serikat dalam kecerdasan buatan” termasuk arahan untuk menjadikan aparat keamanan nasional sebagai pemimpin dunia dalam penggunaan kecerdasan buatan.
Atas perintah Gedung Putih, negara keamanan nasional diperkirakan akan mengambil posisi kepemimpinan ini dengan memanfaatkan pemikiran-pemikiran besar dari akademisi dan sektor swasta dan, yang paling disayangkan, menggunakan model AI swasta yang sudah berfungsi untuk tujuan keamanan nasional.
Sistem AI eksklusif yang dijalankan oleh perusahaan teknologi sudah sangat tidak jelas sehingga merugikan kita. Orang-orang merasa tidak nyaman dan memang demikian adanya perusahaan yang menggunakan AI untuk menyelesaikan segala macam hal tentang kehidupan merekamulai dari seberapa besar kemungkinan mereka melakukan kejahatan, hingga masalah hak kerja, imigrasi, asuransi, dan perumahan.
Perusahaan komersial menyewakan layanan pengambilan keputusan otomatis mereka kepada semua jenis perusahaan dan pemberi kerja, dan kebanyakan dari kita tidak akan pernah tahu bahwa komputer telah menentukan pilihan terhadap kita, memahami bagaimana pilihan itu dibuat, atau memiliki kesempatan untuk mengeluh. ini keputusannya.
Namun hal ini bisa menjadi lebih buruk: Menggabungkan AI pribadi dengan rahasia keamanan nasional akan membuat sistem yang sudah bersifat rahasia menjadi semakin tidak dapat dipertanggungjawabkan dan tidak transparan.
Sekumpulan organisasi dan lembaga yang membentuk aparat keamanan nasional terkenal dengan kerahasiaannya. Electronic Frontier Foundation dan organisasi kebebasan sipil lainnya mereka harus bertarung di pengadilan coba lagi dan lagi untuk menunjukkan kerangka paling dasar dari pengawasan jaring global dan juga peraturan yang mengaturnya.
Memberi perangkat ini dominasi atas kecerdasan buatan menciptakan kekuatan kerahasiaan, tidak bertanggung jawab, dan pengambilan keputusan seperti yang dimiliki Frankenstein. Meskipun lembaga eksekutif mendorong lembaga-lembaga untuk menggunakan keahlian AI swasta, semakin banyak informasi tentang cara kerja model AI ini terselubung dalam kerahasiaan pemerintah yang hampir tidak bisa ditembus.
Hal ini seperti aksioma ilmu komputer lama, “sampah masuk, sampah keluar”—tanpa transparansi, data yang mencakup aspek sistemik masyarakat kita akan melatih kecerdasan buatan untuk menyebarkan dan memperkuat bias ini. Dengan data pelatihan tersembunyi dan algoritme kotak hitam yang tidak dapat dianalisis oleh publik, bias “dihapus secara teknologi” dan keputusan yang mengandung kekerasan tersembunyi di balik objektivitas kode tersebut.
AI bekerja dengan mengumpulkan dan memproses data dalam jumlah besar, sehingga memahami data apa yang disimpan dan kesimpulan apa yang dicapai akan menjadi hal yang sangat penting dalam cara negara memikirkan keamanan nasional mengenai tantangan yang ada Artinya, negara tidak hanya dapat berargumen bahwa data pelatihan AI mungkin perlu diklasifikasi, namun mereka juga dapat berargumentasi bahwa perusahaan juga harus merahasiakan algoritma kontrol mereka di bawah ancaman hukum.
Menurut memo tersebut, “AI telah muncul sebagai teknologi yang menentukan era dan telah menunjukkan pentingnya teknologi ini terhadap keamanan nasional. Amerika Serikat harus memimpin dunia dalam penerapan AI yang bertanggung jawab pada fungsi keamanan nasional yang relevan.
Pendekatan yang biasa dilakukan oleh aparat keamanan nasional adalah menyembunyikan informasi dari masyarakat. Pendekatan standar terhadap AI harus berupa transparansi dan akuntabilitas dalam data pelatihan dan pengambilan keputusan algoritmik. Hal ini merupakan tujuan yang saling bertentangan, dan menempatkan pengaruh AI yang berkembang pesat terhadap masyarakat kita ke ranah keamanan nasional dapat menimbulkan bencana selama beberapa dekade mendatang.
Matthew Guariglia adalah ilmuwan kebijakan senior di Electronic Frontier Foundation, sebuah organisasi hak-hak sipil digital yang berkantor pusat di San Francisco.