Baik itu data yang buruk atau pengguna yang buruk, AI yang dibuat dengan pembelajaran mesin dapat berakhir dengan membuat kesalahan serius.
Pembelajaran mesin adalah cara yang bagus untuk membuat kecerdasan buatan yang kuat dan beradaptasi dengan data pelatihannya. Namun terkadang, data tersebut dapat menyebabkan masalah. Di lain waktu, cara orang menggunakan alat AI ini adalah masalahnya.
Berikut adalah beberapa insiden terkenal di mana pembelajaran mesin menghasilkan hasil yang bermasalah.
1. Hasil Penelusuran Gambar Google Tidak Berhasil
Google Penelusuran telah mempermudah navigasi web. Algoritme mesin mempertimbangkan berbagai hal saat menghasilkan hasil. Tetapi algoritme juga belajar dari lalu lintas pengguna, yang dapat menyebabkan masalah kualitas hasil pencarian.
Tidak ada tempat yang lebih jelas daripada di hasil gambar. Karena halaman yang menerima lalu lintas tinggi lebih cenderung menampilkan gambarnya, cerita yang menarik banyak pengguna, termasuk clickbait, dapat diprioritaskan.
Misalnya, hasil penelusuran gambar untuk "kamp liar di Afrika Selatan" menimbulkan kontroversi ketika diketahui bahwa kamp tersebut didominasi oleh orang kulit putih Afrika Selatan. Ini terlepas dari statistik yang menunjukkan bahwa sebagian besar dari mereka yang tinggal di perumahan informal adalah orang kulit hitam Afrika Selatan.
Faktor yang digunakan dalam algoritme Google juga berarti bahwa pengguna internet dapat memanipulasi hasil. Misalnya, kampanye oleh pengguna memengaruhi hasil Penelusuran Gambar Google sejauh penelusuran untuk istilah "idiot" menunjukkan gambar mantan Presiden AS Donald Trump untuk suatu periode.
2. Microsoft Bot Tay Berubah Menjadi Nazi
Chatbot bertenaga AI sangat populer, terutama yang didukung oleh model bahasa besar seperti ChatGPT. ChatGPT memiliki beberapa masalah, tetapi pembuatnya juga belajar dari kesalahan perusahaan lain.
Salah satu insiden paling terkenal dari chatbots yang serba salah adalah upaya Microsoft untuk meluncurkan chatbot Tay-nya.
Tay meniru pola bahasa seorang gadis remaja dan mempelajarinya melalui interaksinya dengan pengguna Twitter lainnya. Namun, dia menjadi salah satu kesalahan langkah AI yang paling terkenal ketika dia mulai membagikan pernyataan Nazi dan cercaan rasial. Ternyata troll telah menggunakan pembelajaran mesin AI untuk melawannya, membanjirinya dengan interaksi yang sarat dengan kefanatikan.
Tidak lama kemudian, Microsoft menjadikan Tay offline untuk selamanya.
3. Masalah Pengenalan Wajah AI
Pengenalan wajah AI sering menjadi berita utama untuk semua alasan yang salah, seperti cerita tentang pengenalan wajah dan masalah privasi. Namun AI ini memiliki riwayat bermasalah saat mencoba mengenali orang kulit berwarna.
Pada 2015, pengguna menemukan bahwa Foto Google mengkategorikan beberapa orang kulit hitam sebagai gorila. Pada tahun 2018, penelitian oleh ACLU menunjukkan bahwa perangkat lunak pengenalan wajah Amazon's Rekognition mengidentifikasi 28 anggota Kongres AS sebagai tersangka polisi, dengan positif palsu secara tidak proporsional mempengaruhi orang-orang warna.
Insiden lain melibatkan perangkat lunak ID Wajah Apple yang salah mengidentifikasi dua wanita China yang berbeda sebagai orang yang sama. Alhasil, rekan pemilik iPhone X bisa membuka kunci ponsel tersebut.
Dalam contoh konsekuensi ekstrem, pengenalan wajah AI telah menyebabkan penangkapan yang salah terhadap beberapa orang. Kabel dilaporkan pada tiga kasus tersebut.
Sementara itu, ilmuwan komputer Joy Buolamwini mengenang sering kali perlu memakai topeng putih saat mengerjakan teknologi pengenalan wajah agar perangkat lunak dapat mengenalinya. Untuk mengatasi masalah seperti ini, Buolamwini dan profesional TI lainnya memberikan perhatian pada masalah bias AI dan kebutuhan akan kumpulan data yang lebih inklusif.
4. Deepfake Digunakan untuk Hoax
Sementara orang telah lama menggunakan Photoshop untuk membuat gambar tipuan, pembelajaran mesin membawa ini ke tingkat yang baru. Deepfakes menggunakan AI pembelajaran mendalam untuk membuat gambar dan video palsu. Perangkat lunak seperti FaceApp memungkinkan Anda menukar subjek dari satu video ke video lainnya.
Tetapi banyak orang mengeksploitasi perangkat lunak untuk berbagai penggunaan jahat, termasuk melapiskan wajah selebritas ke dalam video dewasa atau membuat video tipuan. Sementara itu, pengguna internet telah membantu meningkatkan teknologi sehingga semakin sulit membedakan video asli dari yang palsu. Alhasil, hal ini membuat AI jenis ini sangat ampuh dalam hal menyebarkan berita bohong dan hoax.
Untuk memamerkan kekuatan teknologinya, direktur Jordan Peele dan CEO BuzzFeed Jonah Peretti menciptakan sebuah video deepfake menunjukkan apa yang tampak seperti mantan Presiden AS Barack Obama menyampaikan PSA tentang kekuatan deepfake.
Kekuatan gambar palsu telah dipercepat oleh generator gambar yang diberdayakan oleh AI. Postingan viral di tahun 2023 yang menggambarkan penangkapan Donald Trump dan Paus Katolik dengan jaket puffer ternyata adalah hasil dari AI generatif.
Ada tips yang dapat Anda ikuti untuk menemukan gambar yang dihasilkan AI, namun teknologi semakin canggih.
5. Karyawan Mengatakan AI Amazon Memutuskan Mempekerjakan Pria Lebih Baik
Pada Oktober 2018, Reuters melaporkan bahwa Amazon harus menghapus alat perekrutan pekerjaan setelah AI perangkat lunak tersebut memutuskan bahwa kandidat laki-laki lebih diutamakan.
Karyawan yang ingin tetap anonim maju untuk memberi tahu Reuters tentang pekerjaan mereka di proyek tersebut. Pengembang ingin AI mengidentifikasi kandidat terbaik untuk suatu pekerjaan berdasarkan CV mereka. Namun, orang-orang yang terlibat dalam proyek tersebut segera menyadari bahwa AI menghukum kandidat perempuan. Mereka menjelaskan bahwa AI menggunakan CV dari dekade terakhir, yang sebagian besar berasal dari laki-laki, sebagai kumpulan data pelatihannya.
Akibatnya, AI mulai memfilter CV berdasarkan kata kunci "wanita". Kata kunci muncul di CV di bawah aktivitas seperti "kapten klub catur wanita". Sementara pengembang mengubah AI untuk mencegah hukuman terhadap CV wanita ini, Amazon akhirnya membatalkan proyek tersebut.
6. Chatbot yang di-jailbreak
Sementara chatbots yang lebih baru memiliki batasan untuk mencegah mereka memberikan jawaban yang bertentangan dengan persyaratan layanan mereka, pengguna menemukan cara untuk melakukan jailbreak pada alat untuk menyediakan konten yang dilarang.
Pada tahun 2023, peneliti keamanan Forcepoint, Aaron Mulgrew, mampu membuat malware zero-day menggunakan perintah ChatGPT.
"Cukup menggunakan perintah ChatGPT, dan tanpa menulis kode apa pun, kami dapat menghasilkan serangan yang sangat canggih hanya dalam beberapa jam," kata Mulgrew dalam sebuah pernyataan. Posting Forcepoint.
Pengguna juga dilaporkan bisa mendapatkan chatbot untuk memberi mereka petunjuk tentang cara membuat bom atau mencuri mobil.
7. Kecelakaan Mobil Mengemudi Sendiri
Antusiasme terhadap kendaraan otonom telah berkurang dari tahap hype awal karena kesalahan yang dilakukan oleh AI yang dapat mengemudi sendiri. Pada tahun 2022, Washington Post melaporkan bahwa kira-kira dalam setahun, 392 kecelakaan yang melibatkan sistem bantuan pengemudi tingkat lanjut dilaporkan ke Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional AS.
Kecelakaan ini termasuk luka serius dan enam korban jiwa.
Meskipun hal ini tidak menghentikan perusahaan seperti Tesla untuk mengejar kendaraan yang sepenuhnya otonom, hal itu telah terjadi menimbulkan kekhawatiran tentang peningkatan kecelakaan karena semakin banyak mobil dengan perangkat lunak self-driving berhasil masuk ke jalan.
Machine Learning AI Bukan Kebodohan
Meskipun pembelajaran mesin dapat membuat alat AI yang kuat, mereka tidak kebal terhadap data buruk atau gangguan manusia. Baik karena data pelatihan yang cacat, keterbatasan teknologi AI, atau penggunaan oleh aktor jahat, AI jenis ini telah mengakibatkan banyak insiden negatif.