Mengapa sistem kecerdasan buatan berhalusinasi

Saat ini, kecerdasan buatan (AI) beroperasi dalam bentuk asisten virtual, perangkat rumah pintar, diagnostik perawatan kesehatan, dan mobil tanpa pengemudi. Meskipun demikian, masalah muncul dengan perkembangan teknologi penting ini karena menyebabkan apa yang disebut sebagai “halusinasi kecerdasan buatan”.

Mengapa sistem kecerdasan buatan bisa berhalusinasi?

Secara sederhana, halusinasi kecerdasan buatan mengacu pada kasus-kasus di mana sistem kecerdasan buatan menghasilkan atau menyimpulkan informasi yang salah yang tidak ada selama pengumpulan data pelatihan. Di sisi lain, kegagalan untuk mengatasi halusinasi kecerdasan buatan dapat mengakibatkan masalah seperti menyebarkan kebohongan dan membuat penilaian yang bias, yang mengarah pada masalah ekonomi dan keamanan. Kami akan menjelaskan mengapa sistem kecerdasan buatan berhalusinasi, penyebabnya, dan pencegahannya.

Halusinasi sistem kecerdasan buatan kemungkinan besar terjadi ketika model bahasa yang besar dapat mengamati fitur atau objek yang belum pernah dilihat atau tidak ada sama sekali. Hal ini menyebabkannya menghasilkan informasi keluaran yang salah yang tidak masuk akal dalam kehidupan nyata, tetapi dalam beberapa kasus, hal ini didasarkan pada pola/objek yang dilihatnya sendiri.

Dengan kata lain, sistem kecerdasan buatan berhalusinasi karena model membuat pernyataan yang salah atau bergantung pada pola dan prasangka yang sepele dalam data pelatihan untuk menghasilkan atau mempertahankan jawaban yang kontroversial, tetapi hal ini terjadi pada tingkat kerumitan yang lebih tinggi.

Penyebab halusinasi kecerdasan buatan

Ada beberapa alasan utama mengapa sistem kecerdasan buatan berhalusinasi:

Bias data

Data yang hilang dan/atau sampel data pelatihan yang tidak lengkap atau mengandung unsur bias/prasangka dikemukakan oleh sebagian besar model karena kecerdasan buatan tidak memiliki cara untuk menilai keadilan atau prasangka yang terlibat.

Sebagai contoh, ada beberapa kasus di mana algoritme pengenalan wajah tidak dapat mengenali wajah non-kulit putih – hal ini disebabkan oleh kumpulan data pelatihan yang disusun berdasarkan bias tersebut.

Penyesuaian yang berlebihan

Informasi yang berlebihan dalam basis data adalah alasan lain mengapa sistem kecerdasan buatan berhalusinasi. Beberapa masalah terkait jaringan saraf yang teridentifikasi adalah bahwa ketika belajar dari pola-pola dalam kumpulan data yang terbatas ini, jaringan saraf mungkin lebih suka ‘menghafal’ atau ‘menyesuaikan’ pola-pola yang terlalu berisik. Hal ini, pada gilirannya, membuat mereka lebih cenderung berhalusinasi ketika dihadapkan pada input yang berbeda dari apa yang mereka temui selama pelatihan.

Akumulasi kesalahan

Kesalahan kecil atau noise pada data input akan diperbesar dalam bentuknya yang diproses secara hirarkis, dan pada model transformator besar dengan beberapa miliar parameter, misalnya, hal ini dapat menyebabkan dihasilkannya output yang terdistorsi atau bahkan dibuat-buat.

Loop umpan balik

Masalah halusinasi bahkan dapat bertambah parah dalam sistem yang diawasi sendiri jika tidak dikoreksi. Sebagai contoh, kecerdasan buatan dapat membuat foto berdasarkan jaringan saraf, dan deepfake dapat membuat kecerdasan buatan lain percaya bahwa informasi tersebut nyata.

Kemungkinan bahaya yang muncul akibat halusinasi kecerdasan buatan

Halusinasi kecerdasan buatan menimbulkan tantangan yang serius. Berikut ini adalah kasus-kasus yang mungkin terjadi jika tidak ditangani:

Informasi yang salah

Kurangnya kejujuran yang dikombinasikan dengan sifat pemalsuan kecerdasan buatan bot berarti bahwa statistik palsu dan informasi yang salah dapat menjadi viral dan mendistorsi kemampuan orang untuk menemukan data yang dapat diandalkan. Hal ini sangat mengkhawatirkan jika sistem tersebut digunakan dalam ranah jurnalisme, pendidikan, atau pembuatan kebijakan publik.

Pelanggaran privasi

Data pribadi yang sensitif tentang individu yang tidak pernah diamati dapat sangat melanggar privasi dan mengikis kepercayaan, jika sistem semacam itu diterapkan pada tugas-tugas yang sesuai, seperti perawatan kesehatan, penegakan hukum, dll.

Membahayakan kelompok-kelompok yang terpinggirkan

Seperti yang telah disebutkan sebelumnya, dalam kumpulan data kecerdasan buatan, bias seleksi dapat mendiskriminasi kelompok-kelompok yang kurang beruntung secara sosial dan mengubah keadilan sosial menjadi masalah yang lebih besar.

Bahaya keamanan

Kecerdasan buatan halusinasi memiliki informasi yang salah mengenai catatan atau panduan pada mobil swakemudi atau peralatan diagnostik medis, yang dapat menyebabkan kecelakaan, cedera, atau keputusan medis yang salah karena sistem kecerdasan buatan seperti itu bergantung pada informasi yang tidak sempurna.

Biaya ekonomi

Kurangnya inovasi dan pertumbuhan dari penggunaan kecerdasan buatan yang berhalusinasi untuk berbagai fasilitas dan pemberian layanan dapat menyebabkan hilangnya kepercayaan pelanggan serta pengurangan nilai organisasi dan fasilitas terkait. Menetapkan angka yang nyata untuk biaya-biaya ini tidak selalu memungkinkan, tetapi bahayanya terlalu besar.

Mencegah halusinasi kecerdasan buatan

Berikut ini adalah langkah-langkah proaktif yang diambil oleh para peneliti untuk mencegah halusinasi kecerdasan buatan:

Berbagai macam data yang tidak bias

Mengumpulkan kumpulan data pelatihan yang tidak mengandung prasangka atau mengunggulkan satu bagian masyarakat di atas yang lain akan membantu kecerdasan buatan melatih dirinya sendiri dengan baik. Basis data publik perlu dibersihkan dan diperiksa faktanya untuk mencegah penyebaran data palsu.

Pemrosesan Data

Langkah-langkah seperti menghapus pengamatan yang mengerikan, anonimisasi data, pengurangan fitur, dll. dapat membantu menghilangkan noise dan pola yang tidak diinginkan dari data sebelum dimasukkan ke dalam sistem.

Evaluasi Model

Sistem kecerdasan buatan harus selalu diperiksa dengan menggunakan dataset evaluasi baru yang dirancang dengan cermat untuk mengidentifikasi halusinasi baru.

Pemantauan model

Untuk menjelaskan respons yang tidak diinginkan oleh kecerdasan buatan, mekanisme seperti kartu model atau laporan data dapat memungkinkan seseorang untuk merekam perilaku kecerdasan buatan selama beberapa waktu.

Kecerdasan buatan yang dapat dijelaskan

Dengan menggunakan metodologi seperti peta perhatian dan nilai SHAP, seseorang dapat memahami mengapa model menghasilkan respons tersebut serta mengidentifikasi analisis sederhana berdasarkan fitur yang sesuai dengan pola dibandingkan dengan pola acak.

Penerapan yang konservatif

Sistem kecerdasan buatan harus dibatasi pada domain tertentu dan hanya digunakan secara terbatas dan terkontrol dengan manusia yang mengawasi penggunaannya hingga kecerdasan buatan terbukti aman, dapat diandalkan, dan dua kali lebih adil dalam memperlakukan manusia.

Untuk membantu kecerdasan buatan terus mendorong manfaat sosial dan mencegah bahaya kerusakan terkait halusinasi, organisasi harus menghadapi masalah kualitas data dan model terlebih dahulu. Berhati-hatilah dan bertanggung jawab dalam menghindari konsekuensi serius yang dapat muncul dari halusinasi kecerdasan buatan dan kekeliruan terkait.

Singkatnya, risiko halusinasi kecerdasan buatan dapat dikendalikan jika strategi yang sesuai untuk menguranginya diterapkan. Namun demikian, menghindari kemungkinan hasil negatif menuntut pengamatan yang gigih dari para pengembang teknologi dan pihak-pihak yang mempengaruhi perubahan kebijakan. Hanya setelah melakukan upaya bersama seperti itu, kita dapat mengembangkan sistem kecerdasan buatan yang berdampak positif pada manusia sekaligus menjamin perlindungan mereka.

Terakhir, kami telah menyiapkan untuk Anda pertanyaan yang paling sering diajukan dan jawabannya

Apa yang dimaksud dengan halusinasi kecerdasan buatan?

Halusinasi kecerdasan buatan merujuk pada kejadian di mana sistem kecerdasan buatan menghasilkan informasi yang salah atau tidak masuk akal, sering kali karena salah menafsirkan data atau pola.

Mengapa sistem kecerdasan buatan berhalusinasi?

Sistem kecerdasan buatan dapat berhalusinasi karena berbagai faktor, termasuk overfitting, bias dalam data pelatihan, dan kompleksitas model yang tinggi.

Seberapa umumkah halusinasi kecerdasan buatan terjadi?

Halusinasi bisa sangat umum terjadi pada kecerdasan buatan, terutama pada model bahasa yang besar dan alat generatif yang tidak memiliki batasan pada hasil yang mungkin terjadi.

Dapatkah halusinasi kecerdasan buatan dicegah?

Mencegah halusinasi kecerdasan buatan melibatkan penentuan batasan yang jelas untuk model kecerdasan buatan menggunakan alat penyaringan dan menetapkan ambang batas probabilistik.

Apa saja konsekuensi dari halusinasi kecerdasan buatan?

Konsekuensinya dapat berkisar dari penyebaran informasi yang salah hingga menyebabkan kerugian di dunia nyata, seperti diagnosis medis yang salah.

Bagaimana halusinasi kecerdasan buatan memengaruhi kepercayaan terhadap sistem kecerdasan buatan?

Halusinasi dapat merusak kepercayaan terhadap kecerdasan buatan, karena membuat kita sulit untuk mengandalkan keluaran sistem tanpa verifikasi.

Apakah ada contoh halusinasi kecerdasan buatan yang terkenal?

Ya, contoh yang terkenal termasuk chatbot yang menghasilkan makalah akademis palsu atau memberikan informasi yang salah dalam interaksi layanan pelanggan.

Apakah halusinasi kecerdasan buatan terjadi pada sistem bahasa dan gambar?

Ya, halusinasi kecerdasan buatan dapat terjadi pada model bahasa dan sistem visi komputer.

Apa peran data pelatihan dalam halusinasi kecerdasan buatan?

Data pelatihan sangat penting – data yang bias atau tidak representatif dapat menyebabkan halusinasi yang mencerminkan bias tersebut.

Apakah ada penelitian yang sedang berlangsung untuk mengatasi halusinasi kecerdasan buatan?

Ya, ada penelitian yang signifikan yang berfokus pada pemahaman dan mitigasi halusinasi kecerdasan buatan untuk meningkatkan keandalan sistem kecerdasan buatan.