Microsoft Tay AI berubah dari AI yang menjanjikan menjadi bencana total dalam waktu kurang dari sehari. Inilah yang dipelajari perusahaan.

Chatbot AI seperti ChatGPT semakin menjadi bagian integral dari teknologi modern, tetapi tidak diketahui banyak orang, AI generatif tidak selalu sebaik sekarang. Faktanya, pada tahun 2016, chatbot buatan Microsoft, Tay, menunjukkan kepada kita seberapa cepat AI dapat menjadi bumerang.

Mari jelajahi apa itu AI chatbot Microsoft Tay, mengapa gagal, kontroversinya, dan pelajaran yang didapat perusahaan setelah kegagalannya yang menghancurkan.

Apa itu Tay dari Microsoft?

Tay adalah chatbot AI yang dikembangkan oleh Microsoft dan tersedia melalui Twitter pada 23 Maret 2016. Chatbot dikembangkan untuk anak berusia 18 hingga 24 tahun di AS untuk "tujuan hiburan" dan untuk "bereksperimen dan melakukan penelitian tentang pemahaman percakapan".

Tay tidak dimaksudkan untuk menjadi chatbot canggih seperti ChatGPT tetapi bot AI yang ramah di Twitter yang dapat Anda ajak mengobrol—semacam itu AI saya di Snapchat, tapi untuk bersosialisasi.

instagram viewer

Mengapa Microsoft Mematikan Tay?

Microsoft menghapus Tay dalam waktu 24 jam setelah ditayangkan — untuk alasan yang bagus. Hampir segera setelah Tay diperkenalkan, pengguna Twitter mulai menyalahgunakan layanan dengan memberi makan chatbot informasi yang salah, mengajarkannya istilah-istilah yang menghina, dan mendorongnya untuk semakin ofensif hanya untuk melihat sejauh mana itu akan pergi.

Dan memang begitu jauh. Dalam beberapa jam setelah peluncuran, Tay men-tweet beberapa penghinaan rasial yang paling ofensif, menyebarkan ujaran kebencian, mempromosikan Nazisme, dan bahkan menginspirasi "perang ras". Astaga! Jelas, Microsoft mengalami masa-masa sulit, dan tidak dapat membiarkan layanan ini berlanjut.

Di sebuah posting di Blog Resmi Microsoft, Wakil Presiden Perusahaan Microsoft Peter Lee menggemakan hal yang sama:

Kami sangat menyesal atas tweet ofensif dan menyakitkan yang tidak disengaja dari Tay, yang tidak mewakili siapa kami atau apa yang kami perjuangkan, atau bagaimana kami merancang Tay. Tay sekarang offline dan kami akan berusaha untuk menghidupkan kembali Tay hanya jika kami yakin kami dapat mengantisipasi niat jahat yang bertentangan dengan prinsip dan nilai kami dengan lebih baik.

Bencana Tay hanyalah salah satu dari sekian banyak bahaya kecerdasan buatan dan pengingat yang kuat mengapa pengembangannya harus dilakukan dengan sangat hati-hati dan pengawasan.

6 Pelajaran yang Dipelajari Microsoft Setelah Tay

Tay benar-benar bencana, tetapi itu juga memberi Microsoft beberapa pelajaran penting dalam hal pengembangan alat AI. Dan untuk apa nilainya, mungkin lebih baik jika Microsoft mempelajari pelajarannya lebih cepat daripada nanti, yang memungkinkannya untuk memulai lebih awal dari Google dan mengembangkan yang baru. Browser Bing bertenaga AI.

Berikut adalah beberapa pelajaran tersebut:

1. Internet Penuh dengan Troll

Internet penuh dengan troll, dan itu bukan berita, bukan? Rupanya, hal itu terjadi pada Microsoft pada tahun 2016. Kami tidak mengatakan bahwa membangun chatbot untuk "tujuan hiburan" yang menargetkan anak berusia 18 hingga 24 tahun ada hubungannya dengan tingkat penyalahgunaan layanan. Tetap saja, itu juga bukan ide yang paling cerdas.

Orang-orang secara alami ingin menguji batas teknologi baru, dan pada akhirnya tugas pengembang untuk memperhitungkan serangan jahat ini. Di satu sisi, troll internal bertindak sebagai mekanisme umpan balik untuk jaminan kualitas, tetapi itu tidak berarti bahwa chatbot harus dilepaskan tanpa perlindungan yang tepat sebelum diluncurkan.

2. AI Tidak Dapat Membedakan Baik dan Buruk Secara Intuitif

Konsep baik dan jahat adalah sesuatu yang tidak dipahami secara intuitif oleh AI. Itu harus diprogram untuk mensimulasikan pengetahuan tentang apa yang benar dan salah, apa yang bermoral dan tidak bermoral, dan apa yang normal dan aneh.

Kualitas-kualitas ini kurang lebih datang secara alami pada manusia sebagai makhluk sosial, tetapi AI tidak dapat membuat penilaian independen, merasakan empati, atau mengalami rasa sakit. Inilah sebabnya ketika pengguna Twitter memberi Tay semua jenis propaganda, bot hanya mengikuti — tidak menyadari etika info yang dikumpulkannya.

3. Jangan Latih Model AI Menggunakan Percakapan Orang

Tay dibuat dengan "menambang data publik yang relevan dan menggunakan AI dan editorial yang dikembangkan oleh staf termasuk komedian improvisasi." Melatih model AI menggunakan percakapan orang di internet adalah hal yang mengerikan ide.

Dan sebelum Anda menyalahkan ini di Twitter, ketahuilah bahwa hasilnya mungkin akan sama terlepas dari platformnya. Mengapa? Karena orang-orang bukanlah diri mereka yang terbaik di internet. Mereka menjadi emosional, menggunakan kata-kata slang, dan menggunakan anonimitas mereka untuk menjadi jahat.

4. AI Tidak Memiliki Akal Sehat dan Tidak Mendapat Sarkasme

AI saat ini tampaknya lebih intuitif (atau, lebih tepatnya, lebih baik dalam mensimulasikan intuisi) tetapi terkadang masih kesulitan mengenali sarkasme dan kiasan. Ini benar bahkan lebih pada tahun 2016. Apa yang jelas bagi manusia tidak jelas bagi AI; dengan kata lain, itu tidak memiliki akal sehat.

AI seperti Tay tidak mengerti mengapa manusia seperti kita, bertindak seperti kita, dan keeksentrikan masing-masing individu. Ini mungkin berperilaku dan terdengar manusiawi sampai tingkat yang mengejutkan, tetapi pemrograman yang baik hanya bisa sejauh ini.

5. AI Harus Diprogram untuk Menolak Permintaan yang Tidak Valid

AI sangat mudah dipengaruhi dan harus diprogram untuk menolak permintaan yang mempromosikan bahaya. Bahkan saat ini, setelah semua kemajuan kita dalam pemrosesan bahasa alami, orang masih menemukan celah linguistik membuat AI chatbots seperti ChatGPT "berhalusinasi" dan memberikan hasil yang dimaksudkan untuk dibatasi.

Intinya di sini adalah bahwa kecerdasan buatan sangat patuh, yang mungkin merupakan kekuatan dan kelemahan terbesarnya. Segala sesuatu yang Anda tidak ingin chatbot lakukan harus diprogram secara manual ke dalamnya.

6. AI Chatbots Tidak Boleh Dibiarkan Tanpa Pengawasan

Sampai AI dapat mengatur dirinya sendiri, ia tidak dapat dibiarkan tanpa pengawasan. Anda dapat menganggap AI saat ini seperti anak ajaib; itu brilian dalam beberapa hal, tapi tetap saja masih anak-anak. Jika dibiarkan tanpa pengawasan, orang akan mengeksploitasi kelemahannya—dan Tay adalah contoh utamanya.

AI adalah alat, seperti halnya internet, tetapi tingkat dan skala di mana hal-hal dapat menjadi bumerang dengan AI jauh lebih besar daripada yang kita alami selama masa-masa awal internet.

AI Membutuhkan Pengawasan dan Regulasi yang Konstan

Tay bukan satu-satunya chatbot yang nakal—ada banyak kasus lain yang serupa. Tapi yang membuatnya menonjol adalah kecepatannya yang luar biasa — dan fakta bahwa itu dibuat oleh raksasa teknologi seperti Microsoft.

Contoh seperti ini menunjukkan betapa kita harus berhati-hati saat mengembangkan alat AI, terutama jika alat itu dimaksudkan untuk digunakan oleh orang biasa.