Opini: Jangan sembunyikan kecerdasan buatan dalam rahasia keamanan nasional

Banyak permasalahan yang timbul dari kecerdasan buatan berasal dari cara kerjanya dan privasi data yang disediakannya, sehingga membiarkan komunitas keamanan nasional untuk memimpin AI hanya akan memperburuk keadaan.

Gedung Putih di bawah kepemimpinan Presiden Joe Biden baru-baru ini mengeluarkan sebuah “memorandum”.memajukan kepemimpinan Amerika Serikat dalam kecerdasan buatan” termasuk arahan untuk menjadikan aparat keamanan nasional sebagai pemimpin dunia dalam penggunaan kecerdasan buatan.

Atas perintah Gedung Putih, negara keamanan nasional diperkirakan akan mengambil posisi kepemimpinan ini dengan memanfaatkan pemikiran-pemikiran besar dari akademisi dan sektor swasta dan, yang paling disayangkan, menggunakan model AI swasta yang sudah berfungsi untuk tujuan keamanan nasional.

Sistem AI eksklusif yang dijalankan oleh perusahaan teknologi sudah sangat tidak jelas sehingga merugikan kita. Orang-orang merasa tidak nyaman dan memang demikian adanya perusahaan yang menggunakan AI untuk menyelesaikan segala macam hal tentang kehidupan merekamulai dari seberapa besar kemungkinan mereka melakukan kejahatan, hingga masalah hak kerja, imigrasi, asuransi, dan perumahan.

Perusahaan komersial menyewakan layanan pengambilan keputusan otomatis mereka kepada semua jenis perusahaan dan pemberi kerja, dan kebanyakan dari kita tidak akan pernah tahu bahwa komputer telah menentukan pilihan terhadap kita, memahami bagaimana pilihan itu dibuat, atau memiliki kesempatan untuk mengeluh. ini keputusannya.

Namun hal ini bisa menjadi lebih buruk: Menggabungkan AI pribadi dengan rahasia keamanan nasional akan membuat sistem yang sudah bersifat rahasia menjadi semakin tidak dapat dipertanggungjawabkan dan tidak transparan.

Sekumpulan organisasi dan lembaga yang membentuk aparat keamanan nasional terkenal dengan kerahasiaannya. Electronic Frontier Foundation dan organisasi kebebasan sipil lainnya mereka harus bertarung di pengadilan coba lagi dan lagi untuk menunjukkan kerangka paling dasar dari pengawasan jaring global dan juga peraturan yang mengaturnya.

Memberi perangkat ini dominasi atas kecerdasan buatan menciptakan kekuatan kerahasiaan, tidak bertanggung jawab, dan pengambilan keputusan seperti yang dimiliki Frankenstein. Meskipun lembaga eksekutif mendorong lembaga-lembaga untuk menggunakan keahlian AI swasta, semakin banyak informasi tentang cara kerja model AI ini terselubung dalam kerahasiaan pemerintah yang hampir tidak bisa ditembus.

Hal ini seperti aksioma ilmu komputer lama, “sampah masuk, sampah keluar”—tanpa transparansi, data yang mencakup aspek sistemik masyarakat kita akan melatih kecerdasan buatan untuk menyebarkan dan memperkuat bias ini. Dengan data pelatihan tersembunyi dan algoritme kotak hitam yang tidak dapat dianalisis oleh publik, bias “dihapus secara teknologi” dan keputusan yang mengandung kekerasan tersembunyi di balik objektivitas kode tersebut.

Sumber