Opini: Kloning suara dengan AI adalah ancaman terbaru terhadap integritas pemilu

Bayangkan ini hari pemilihan. Saat Anda mendapat telepon dari pejabat publik, Anda sedang bersiap untuk memilih, meminta Anda untuk memilih di lokasi pemungutan suara awal, bukan di tempat pemungutan suara pada Hari Pemilu. Jadi Anda pergi ke sana hanya untuk mengetahui bahwa itu tutup. Ternyata panggilan tersebut bukan dari pejabat pemerintah, melainkan dari tiruan yang dibuat dengan teknologi kloning suara.

Ini mungkin terdengar seperti sesuatu yang muncul di film fiksi ilmiah, tetapi banyak pemilih di New Hampshire mengalami hal serupa dua hari sebelum pemilihan presiden tahun 2024. Mereka mendapat robokong, yang sangat memahami suara Presiden Joe Biden, sehingga menghalangi mereka untuk berpartisipasi dalam pemilihan pendahuluan.

Yang pasti, tidak ada indikasi bahwa panggilan palsu Biden akan berdampak nyata pada pemilihan pendahuluan di New Hampshire, namun insiden ini merupakan pengingat akan meningkatnya ancaman taktik seperti ini yang semakin banyak digunakan oleh para aktivis jahat untuk menargetkan pemilu. tidak hanya di AS, tetapi juga di Slovakia, Argentina, dan tempat lainnya.

Ketika alat kecerdasan buatan menjadi lebih mudah diakses dan terjangkau, serangan deep spoofing (yang salah satu contohnya adalah kloning suara) akan menjadi lebih umum. Bagaimana para pemilih dapat melindungi diri mereka dari upaya serupa sehingga mereka dapat mengambil keputusan yang tepat mengenai pemilu bulan November? Berikut beberapa tipnya:

• Hindari menjawab panggilan dari nomor tak dikenal: Menerima panggilan dari nomor tak dikenal meningkatkan kemungkinan Anda tertipu. Selain itu, jika Anda menjawab dan berbicara dengan nomor yang tidak dikenal, penipu dapat merekam suara Anda dan menggunakannya untuk membuat panggilan penipuan untuk mengelabui keluarga dan teman Anda.

• Verifikasi identitas penelepon: Jika Anda menjawab panggilan yang mencurigakan, lakukan langkah-langkah untuk memverifikasi identitas penelepon. Beberapa pemilih di New Hampshire melakukan hal tersebut setelah menerima panggilan telepon Biden dan dapat memastikan bahwa suara tersebut palsu. Coba hubungi orang tersebut (atau kampanyenya) melalui saluran alternatif untuk mengonfirmasi bahwa panggilan tersebut memang benar dari orang/organisasi yang dimaksud.

• Laporkan kemungkinan kloning suara: Jika Anda menerima dugaan panggilan penipuan suara AI, hubungi pihak berwenang yang berwenang agar mereka dapat menggunakan keahlian mereka untuk menyelidiki lebih lanjut. Hal ini dapat membantu Anda dan orang lain berbuat curang dan mencegah perilaku serupa di masa mendatang. Setelah para pemilih di New Hampshire memberi tahu penegak hukum dan jaksa agung mereka tentang robocall yang menggunakan AI untuk menyamar sebagai Biden, tersangka pelakunya diidentifikasi dan didakwa dengan 13 dakwaan penindasan pemilih, sebuah kejahatan dan Didakwa dengan 13 dakwaan penipuan kandidat, sebuah kejahatan besar. Dia juga menghadapi denda $6 juta dari Komisi Komunikasi Federal.

• Mendidik diri sendiri: Pengetahuan adalah pertahanan terbaik Anda terhadap ancaman yang muncul. Luangkan waktu untuk mengedukasi diri sendiri dan orang di sekitar Anda tentang bahaya kloning suara. Bersikaplah curiga terhadap panggilan telepon yang tidak diminta, terutama jika mereka memiliki permintaan mendesak yang menawarkan informasi yang meragukan atau mencoba membuat Anda melakukan perilaku yang terdengar “tidak pantas” (seperti mengirim kartu hadiah ke calon kerabat teman).

Sumber