Pelajari cara mengurangi halusinasi AI dengan teknik dorongan yang mudah digunakan dan dapat digunakan dengan alat AI generatif apa pun.
Poin Penting
- Perintah yang jelas dan spesifik sangat penting untuk meminimalkan halusinasi AI. Hindari instruksi yang tidak jelas dan berikan rincian eksplisit untuk mencegah hasil yang tidak terduga.
- Gunakan teknik grounding atau "menurut..." untuk mengatribusikan keluaran ke sumber atau perspektif tertentu. Hal ini membantu menghindari kesalahan faktual dan bias dalam konten yang dihasilkan AI.
- Gunakan batasan dan aturan untuk membentuk keluaran AI sesuai dengan hasil yang diinginkan. Nyatakan batasan secara eksplisit atau nyatakan melalui konteks atau tugas untuk mencegah keluaran yang tidak sesuai atau tidak logis.
Tidak mendapatkan respons yang Anda inginkan dari model AI generatif? Anda mungkin menghadapi halusinasi AI, masalah yang terjadi ketika model menghasilkan keluaran yang tidak akurat atau tidak relevan.
Hal ini disebabkan oleh berbagai faktor, seperti kualitas data yang digunakan untuk melatih model, kurangnya konteks, atau ambiguitas perintahnya. Untungnya, ada beberapa teknik yang dapat Anda gunakan untuk mendapatkan keluaran yang lebih andal dari model AI.
1. Berikan Anjuran yang Jelas dan Spesifik
Langkah pertama masuk meminimalkan halusinasi AI adalah membuat petunjuk yang jelas dan sangat spesifik. Perintah yang tidak jelas atau ambigu dapat menyebabkan hasil yang tidak dapat diprediksi, karena model AI mungkin mencoba menafsirkan maksud di balik perintah tersebut. Sebaliknya, berikan instruksi Anda secara eksplisit.
Daripada bertanya, "Ceritakan tentang anjing", Anda bisa bertanya, "Beri saya gambaran rinci tentang fisiknya karakteristik dan temperamen Golden Retriever." Menyempurnakan perintah Anda hingga jelas adalah cara mudah untuk mencegah AI halusinasi.
2. Gunakan Teknik Grounding atau "Menurut..."
Salah satu tantangan dalam menggunakan sistem AI adalah sistem tersebut mungkin menghasilkan keluaran yang secara faktual salah, bias, atau tidak konsisten dengan pandangan atau nilai Anda. Hal ini dapat terjadi karena sistem AI dilatih pada kumpulan data yang besar dan beragam yang mungkin mengandung kesalahan, opini, atau kontradiksi.
Untuk menghindari hal ini, Anda dapat menggunakan teknik grounding atau teknik "menurut...", yang melibatkan pengaitan keluaran ke sumber atau perspektif tertentu. Misalnya, Anda dapat meminta sistem AI untuk menulis fakta tentang suatu topik menurut Wikipedia, Google Cendekia, atau sumber tertentu yang dapat diakses publik.
3. Gunakan Batasan dan Aturan
Batasan dan aturan dapat membantu mencegah sistem AI menghasilkan keluaran yang tidak sesuai, tidak konsisten, kontradiktif, atau tidak logis. Mereka juga dapat membantu membentuk dan menyempurnakan keluaran sesuai dengan hasil dan tujuan yang diinginkan. Batasan dan aturan dapat dinyatakan secara eksplisit dalam prompt atau secara implisit tersirat dalam konteks atau tugas.
Misalkan Anda ingin menggunakan alat AI untuk menulis puisi tentang cinta. Daripada memberikan perintah umum seperti "tulis puisi tentang cinta", Anda dapat memberikan perintah yang lebih terbatas dan berdasarkan aturan seperti "tulis soneta tentang cinta dengan 14 baris dan 10 suku kata per baris".
4. Gunakan Perintah Multi-Langkah
Terkadang, pertanyaan kompleks dapat menyebabkan halusinasi AI karena model berupaya menjawabnya dalam satu langkah. Untuk mengatasinya, bagi pertanyaan Anda menjadi beberapa langkah.
Misalnya, daripada bertanya, “Pengobatan diabetes apa yang paling efektif?” Anda bisa bertanya, “Apa saja pengobatan yang umum dilakukan untuk diabetes?" Anda kemudian dapat melanjutkan dengan, "Manakah dari perawatan berikut yang dianggap paling efektif menurut medis studi?"
Permintaan multi-langkah memaksa model AI untuk memberikan informasi perantara sebelum sampai pada jawaban akhir, sehingga dapat menghasilkan respons yang lebih akurat dan terinformasi dengan baik.
5. Tetapkan Peran ke AI
Saat Anda menetapkan peran tertentu ke model AI dalam perintah Anda, Anda memperjelas tujuannya dan mengurangi kemungkinan halusinasi. Misalnya, daripada mengatakan, "Ceritakan tentang sejarah mekanika kuantum", Anda dapat meminta AI dengan, “Ambil peran sebagai peneliti yang rajin dan berikan ringkasan tonggak penting dalam sejarah kuantum mekanika."
Pembingkaian ini mendorong AI untuk bertindak sebagai peneliti yang rajin, bukan sebagai penutur cerita yang spekulatif.
6. Tambahkan Informasi Kontekstual
Tidak memberikan informasi kontekstual bila diperlukan adalah a kesalahan cepat yang harus dihindari saat menggunakan ChatGPT atau model AI lainnya. Informasi kontekstual membantu model memahami latar belakang, domain, atau tujuan tugas dan menghasilkan keluaran yang lebih relevan dan koheren. Informasi kontekstual mencakup kata kunci, tag, kategori, contoh, referensi, dan sumber.
Misalnya, jika Anda ingin membuat ulasan produk untuk sepasang headphone, Anda dapat memberikan informasi kontekstual, seperti nama produk, merek, fitur, harga, peringkat, atau masukan pelanggan. Prompt yang bagus untuk tugas ini akan terlihat seperti ini:
Mendapatkan Respons AI yang Lebih Baik
Ini bisa membuat frustasi ketika Anda tidak mendapatkan masukan yang Anda harapkan dari model AI. Namun, dengan menggunakan teknik AI prompting ini, Anda dapat mengurangi kemungkinan halusinasi AI dan mendapatkan respons yang lebih baik dan andal dari sistem AI Anda.
Ingatlah bahwa teknik ini tidak selalu mudah dan mungkin tidak berhasil untuk setiap tugas atau topik. Anda harus selalu memeriksa dan memverifikasi keluaran AI sebelum menggunakannya untuk tujuan serius apa pun.