Kredibilitas pakar AI Stanford dirusak oleh sumber palsu yang dihasilkan AI: hakim

Seorang hakim federal menolak kesaksian ahli dari seorang profesor kecerdasan buatan dan disinformasi di Stanford, dengan mengatakan bahwa penyajian informasi palsu yang dihasilkan oleh chatbot kecerdasan buatan “menghancurkan” kredibilitasnya.

Hakim Pengadilan Distrik Minnesota Laura Provinzino “mengejek” kesalahan Profesor Jeff Hancock dalam keputusan tertulisnya pada hari Jumat.

“Profesor Hancock, seorang ahli terpercaya mengenai bahaya AI dan misinformasi, telah menjadi korban dari seruan ketergantungan yang berlebihan pada AI – dalam hal ini, risiko AI berada di sekitar risikonya, tidak kalah pentingnya,” tulis hakim.

Ironisnya lagi: Hancock, profesor komunikasi, mempelajari ironi secara ekstensif.

Hancock, direktur pendiri Lab Media Sosial Stanford, dipekerjakan oleh Kantor Kejaksaan Agung Minnesota untuk menyiapkan pernyataan saksi ahli dalam membela undang-undang negara bagian yang mengkriminalisasi foto-foto terkait pemilu yang dibuat oleh AI yang “sangat palsu” yang diajukan oleh badan legislatif negara bagian . seorang YouTuber satir. California mengeluarkan undang-undang serupa musim gugur yang lalu.

YouTuber Christopher Coles, yang menggugat Minnesota, bersama dengan perusahaan media sosial X milik Elon Musk, juga menggugat Jaksa Agung California Rob Bonta atas undang-undang California, yang diblokir sementara oleh hakim pada bulan Oktober. Pekan lalu, Provinzino menolak mengeluarkan blok serupa yang diminta oleh Kohl’s dan seorang anggota parlemen Minnesota.

Pada bulan November, pengacara Coles dan badan legislatif mengatakan kepada pengadilan Minnesota bahwa deklarasi Hancock setebal 12 halaman mengutip “penelitian yang tidak ada” yang ditulis oleh “Huang, Zhang, Wang” dan mungkin “dihasilkan oleh model bahasa besar AI seperti ChatGPT.” “

Hancock mengajukan gugatan pada bulan Desember, mengakui menggunakan ChatGPT, menyalahkan bot atas kesalahan itu dan dua “halusinasi” kecerdasan buatan lainnya, dan meminta permintaan maaf kepada pengadilan.

Dia menggunakan ChatGPT 4.0 untuk mencari dan meringkas kirimannya, namun kesalahan terjadi karena dia menyertakan kata “kutipan” dalam teks yang dia berikan kepada chatbot, yang mengingatkannya untuk menambahkan kutipan akademis pada poin yang dia buat. menulis Bot tersebut tampaknya mengambil “kutipan” sebagai petunjuk dan mengarang kutipan tersebut, tulis Hancock, seraya menambahkan bahwa bot tersebut memiliki empat penulis yang salah untuk penelitian yang dikutipnya.

Menurut catatan pengadilan, Hancock, seorang peneliti produktif yang telah menerima hampir $20 juta hibah dari Stanford, National Science Foundation dan lainnya selama dua dekade terakhir, mengenakan biaya $600 per jam untuk mempersiapkan kesaksian hakim. aplikasi.

Hakim Provinzino mencatat bahwa Jaksa Agung Minnesota Keith Ellison ingin menyampaikan ke pengadilan versi kesaksian Hancock yang telah disunting, dan bahwa dia tidak membantah klaim Ellison bahwa profesor tersebut dapat memberikan kesaksian ahli tentang AI dan deepfake.

Namun, hakim menulis, “Kutipan Hancock atas sumber palsu yang dihasilkan AI dalam pernyataannya, bahkan dengan penjelasan yang membantu, menyeluruh, dan meyakinkan, merendahkan kredibilitasnya di pengadilan.”

Paling tidak, Provinzino menulis, “kesaksian para ahli harus dapat dipercaya.”

Kesalahan seperti itu menyebabkan “banyak kerugian,” termasuk membuang-buang waktu dan uang lawan, tulis hakim.

Kantor Kejaksaan Agung Minnesota tidak menanggapi pertanyaan, termasuk berapa jumlah tagihan Hancock dan apakah kantor tersebut akan meminta restitusi.

Hancock tidak menanggapi pertanyaan.

Di Stanford, siswa dapat diskors dari pengabdian masyarakat dan diperintahkan untuk melakukan pengabdian masyarakat karena menggunakan chatbot kecerdasan buatan untuk “meningkatkan tugas atau ujian secara signifikan” tanpa izin instruktur. Sekolah berulang kali menolak menjawab pertanyaan pada hari Rabu tentang apakah Hancock akan menghadapi tindakan disipliner.

Kritik hukum profesor tersebut menyoroti masalah yang meluas pada AI generatif, sebuah teknologi yang telah menggemparkan dunia sejak OpenAI San Francisco merilis bot ChatGPT pada November 2022. Chatbots dan pembuat gambar AI sering kali “berhalusinasi”, yang dapat melibatkan pembuatan kebohongan dalam teks. absurditas seperti tangan berjari enam dalam informasi dan gambar.

Sumber