AI generatif memang hebat, tetapi selalu menyajikan informasinya dengan otoritas mutlak. Yang bagus kecuali itu berhalusinasi kebenaran.
Halusinasi Kecerdasan Buatan (AI) terdengar membingungkan. Anda mungkin berpikir, "Bukankah halusinasi adalah fenomena manusia?" Ya, dulunya hanya manusia biasa fenomena sampai AI mulai menunjukkan karakteristik manusia seperti pengenalan wajah, belajar mandiri, dan berbicara pengakuan.
Sayangnya, AI mengambil beberapa atribut negatif, termasuk halusinasi. Jadi, apakah halusinasi AI mirip dengan halusinasi yang dialami manusia?
Apa Itu Halusinasi AI?
Halusinasi kecerdasan buatan terjadi ketika model AI menghasilkan keluaran yang berbeda dari yang diharapkan. Perhatikan bahwa beberapa model AI dilatih untuk secara sengaja menghasilkan output yang tidak terkait dengan input (data) dunia nyata.
Misalnya, generator teks-ke-seni AI teratas, seperti DALL-E 2, dapat secara kreatif menghasilkan gambar baru yang dapat kami tandai sebagai "halusinasi" karena tidak didasarkan pada data dunia nyata.
Halusinasi AI dalam Model Pemrosesan Bahasa Besar
Mari pertimbangkan seperti apa halusinasi AI dalam model pemrosesan bahasa besar seperti ChatGPT. Halusinasi ChatGPT akan mengakibatkan bot memberi Anda fakta yang salah dengan beberapa pernyataan, sehingga Anda secara alami menganggap fakta tersebut sebagai kebenaran.
Secara sederhana, ini adalah pernyataan yang dibuat-buat oleh chatbot yang cerdas secara artifisial. Berikut contohnya:
Pada permintaan lebih lanjut, ChatGPT muncul dengan ini:
Halusinasi AI dalam Computer Vision
Mari pertimbangkan bidang AI lain yang dapat mengalami halusinasi AI: Visi Komputer. Kuis di bawah menunjukkan montase 4x4 dengan dua entitas yang sangat mirip. Gambarnya adalah campuran keripik kentang dan daun BBQ.
Tantangannya adalah memilih keripik kentang tanpa menabrak daun apa pun di montase. Gambar ini mungkin terlihat rumit untuk komputer, dan mungkin tidak dapat membedakan antara keripik kentang BBQ dan daun.
Inilah montase lain dengan campuran gambar roti pudel dan benang babi. Komputer kemungkinan besar tidak dapat membedakannya, sehingga mencampur gambar.
Mengapa Halusinasi AI Terjadi?
Halusinasi AI dapat terjadi karena contoh permusuhan—masukkan data yang mengelabui aplikasi AI agar salah mengklasifikasikannya. Misalnya, saat melatih aplikasi AI, developer menggunakan data (gambar, teks, atau lainnya); jika data diubah atau terdistorsi, aplikasi menginterpretasikan input secara berbeda, memberikan output yang salah.
Sebaliknya, manusia masih dapat mengenali dan mengidentifikasi data secara akurat meskipun terdapat distorsi. Kita dapat menandai ini sebagai akal sehat—atribut manusia yang belum dimiliki AI. Tonton bagaimana AI dikelabui dengan contoh permusuhan dalam video ini:
Mengenai model berbasis bahasa besar seperti ChatGPT dan alternatifnya, halusinasi dapat timbul dari decoding yang tidak akurat dari transformator (model pembelajaran mesin).
Dalam AI, transformer adalah model pembelajaran mendalam yang menggunakan perhatian diri (hubungan semantik antar kata dalam kalimat) untuk menghasilkan teks yang mirip dengan apa yang akan ditulis manusia menggunakan encoder-decoder (input-output) urutan.
Jadi transformer, model pembelajaran mesin semi-diawasi, dapat menghasilkan badan teks baru (output) dari korpus besar data teks yang digunakan dalam pelatihannya (input). Itu dilakukan dengan memprediksi kata berikutnya dalam rangkaian berdasarkan kata-kata sebelumnya.
Mengenai halusinasi, jika model bahasa dilatih dengan data dan sumber daya yang tidak memadai dan tidak akurat, diharapkan hasilnya dibuat-buat dan tidak akurat. Model bahasa mungkin menghasilkan cerita atau narasi tanpa inkonsistensi logis atau koneksi yang tidak jelas.
Pada contoh di bawah ini, ChatGPT diminta untuk memberikan kata yang mirip dengan "pemberontakan" dan dimulai dengan "b". Inilah tanggapannya:
Pada pemeriksaan lebih lanjut, ia terus memberikan jawaban yang salah, dengan tingkat kepercayaan yang tinggi.
Jadi mengapa ChatGPT tidak dapat memberikan jawaban yang akurat untuk pertanyaan ini?
Bisa jadi model bahasa tidak dilengkapi untuk menangani petunjuk yang agak rumit seperti ini atau itu tidak dapat menafsirkan prompt secara akurat, mengabaikan prompt untuk memberikan kata yang mirip dengan yang spesifik alfabet.
Bagaimana Anda Menemukan Halusinasi AI?
Terbukti sekarang bahwa aplikasi AI memiliki potensi untuk berhalusinasi—menghasilkan respons sebaliknya dari hasil yang diharapkan (fakta atau kebenaran) tanpa niat jahat. Dan menemukan serta mengenali halusinasi AI terserah pengguna aplikasi tersebut.
Berikut adalah beberapa cara untuk menemukan halusinasi AI saat menggunakan aplikasi AI umum:
1. Model Pemrosesan Bahasa Besar
Meskipun jarang, jika Anda melihat kesalahan tata bahasa dalam konten yang dihasilkan oleh model pemrosesan besar, seperti ChatGPT, hal itu akan menaikkan alis dan membuat Anda mencurigai adanya halusinasi. Demikian pula, ketika konten yang dihasilkan teks tidak terdengar logis, berkorelasi dengan konteks yang diberikan, atau cocok dengan data input, Anda harus mencurigai adanya halusinasi.
Menggunakan penilaian manusia atau akal sehat dapat membantu mendeteksi halusinasi, karena manusia dapat dengan mudah mengidentifikasi ketika sebuah teks tidak masuk akal atau mengikuti kenyataan.
2. Visi Komputer
Sebagai cabang kecerdasan buatan, pembelajaran mesin, dan ilmu komputer, visi komputer memberdayakan komputer untuk mengenali dan memproses gambar seperti mata manusia. Menggunakan jaringan saraf konvolusional, mereka mengandalkan jumlah data visual yang luar biasa yang digunakan dalam pelatihan mereka.
Penyimpangan dari pola data visual yang digunakan dalam pelatihan akan mengakibatkan halusinasi. Misalnya, jika komputer tidak dilatih dengan gambar bola tenis, ia dapat mengidentifikasinya sebagai oranye hijau. Atau jika komputer mengenali kuda di samping patung manusia sebagai kuda di samping manusia sungguhan, maka halusinasi AI telah terjadi.
Jadi untuk menemukan halusinasi penglihatan komputer, bandingkan keluaran yang dihasilkan dengan apa yang diharapkan dilihat oleh manusia [normal].
3. Mobil Mengemudi Sendiri
Berkat AI, mobil self-driving secara bertahap menyusup ke pasar otomotif. Pelopor seperti Tesla Autopilot dan Ford's BlueCruise telah memperjuangkan tempat mobil self-driving. Anda dapat memeriksa bagaimana dan apa yang dilihat Tesla Autopilot untuk mendapatkan sedikit pemahaman tentang bagaimana AI menggerakkan mobil self-driving.
Jika Anda memiliki salah satu mobil seperti itu, Anda pasti ingin tahu apakah mobil AI Anda berhalusinasi. Salah satu tandanya adalah jika kendaraan Anda tampak menyimpang dari pola perilaku normalnya saat mengemudi. Misalnya, jika kendaraan mengerem atau berbelok tiba-tiba tanpa alasan yang jelas, kendaraan AI Anda mungkin sedang berhalusinasi.
Sistem AI Juga Dapat Berhalusinasi
Model manusia dan AI mengalami halusinasi secara berbeda. Ketika berbicara tentang AI, halusinasi mengacu pada keluaran yang salah yang jauh dari kenyataan atau tidak masuk akal dalam konteks prompt yang diberikan. Misalnya, chatbot AI dapat memberikan respons yang salah secara tata bahasa atau logika atau salah mengidentifikasi objek karena kebisingan atau faktor struktural lainnya.
Halusinasi AI tidak dihasilkan dari pikiran sadar atau bawah sadar, seperti yang Anda amati pada manusia. Sebaliknya, itu hasil dari ketidakcukupan atau ketidakcukupan data yang digunakan dalam pelatihan dan pemrograman sistem AI.