Diskusi seputar perasaan AI bukanlah hal baru, tetapi berita tentang Google AI LaMDA telah memicu api. Setelah seorang insinyur mengklaim bot itu sadar, bahkan memiliki jiwa, beberapa pertanyaan yang sudah dikenal muncul lagi.

Bisakah AI seperti LaMDA benar-benar hidup atau sadar diri, dan jika demikian, bagaimana Anda bisa tahu? Apakah itu penting?

Apa Itu LaMDA?

LaMDA, kependekan dari Model Bahasa untuk Aplikasi Dialog, pertama kali muncul pada tahun 2021 di konferensi pengembang Google. Sistem AI canggih seharusnya membantu membangun chatbot lain yang lebih kecil. Ketika Google pertama kali memperkenalkannya, ia mengumumkan rencana untuk mengintegrasikannya ke dalam segala hal, membantu layanan seperti Asisten Google dan Pencarian untuk merasa lebih manusiawi, atau setidaknya alami.

Ketika insinyur Google Blake Lemoine berbicara dengan LaMDA untuk melihat apakah itu menggunakan ujaran kebencian, dia mendapatkan kesan yang berbeda. Lemoine mengklaim LaMDA adalah makhluk hidup, dan jika dia tidak tahu itu bot, dia akan mengira itu adalah anak berusia delapan tahun.

instagram viewer

Setelah percakapannya dengan LaMDA, Lemoine mencoba membuktikan bahwa itu sadar dan membela apa yang dia yakini sebagai hak hukumnya. Sebagai tanggapan, Google menempatkan Lemoine pada cuti administratif berbayar karena melanggar perjanjian kerahasiaan.

Apakah LaMDA Sebenarnya Berjiwa?

Jadi, apakah LaMDA benar-benar hidup? Kebanyakan ahli yang telah mempertimbangkan masalah ini skeptis. LaMDA adalah platform obrolan AI yang sangat canggih yang menganalisis triliunan kata dari internet, sehingga terampil dalam terdengar seperti orang sungguhan.

Ini bukan pertama kalinya salah satu AI Google membodohi orang dengan berpikir itu manusia. Pada tahun 2018, Google mendemonstrasikan AI Duplex-nya dengan menelepon restoran untuk memesan meja. Tidak ada gunanya karyawan di ujung sana tampaknya ragu bahwa mereka sedang berbicara dengan seseorang.

Perasaan sulit untuk didefinisikan, meskipun kebanyakan orang ragu AI telah mencapai titik itu belum. Namun, pertanyaan pentingnya mungkin bukan apakah LaMDA benar-benar hidup, tetapi apa bedanya jika dapat membodohi orang agar berpikir demikian.

Kemungkinan Implikasi Hukum dari LaMDA

Situasi LaMDA menimbulkan banyak pertanyaan hukum dan etika. Pertama, beberapa orang mungkin mempertanyakan apakah Google benar untuk menempatkan Lemoine cuti karena berbicara tentang hal itu.

Menurut Bagian 740 Undang-Undang Ketenagakerjaan New York, perlindungan pelapor melindungi karyawan dari hal-hal tersebut konsekuensi jika mereka yakin praktik majikan mereka melanggar hukum atau menimbulkan risiko signifikan bagi publik keamanan. Seharusnya perasaan LaMDA tidak cukup memenuhi persyaratan hukum itu, tetapi haruskah itu?

Memberikan hak AI adalah subjek yang rumit. Sementara AI bisa menciptakan sesuatu dan terlihat seperti manusia, Anda dapat mengalami beberapa situasi rumit jika mesin ini memiliki perlindungan hukum. Hak hukum beroperasi di sekitar penghargaan dan hukuman yang tidak memengaruhi AI, memperumit keadilan.

Jika mobil self-driving menabrak pejalan kaki, apakah AI bersalah jika hukum memperlakukannya sebagai manusia? Dan jika demikian, itu tidak sepenuhnya memberikan keadilan kepada korban karena Anda tidak dapat secara teknis menghukum AI dengan cara yang sama seperti yang Anda lakukan pada manusia.

Pertanyaan lain yang muncul dengan LaMDA dan chatbot AI serupa adalah keamanannya. Jika bot ini tampak sangat nyata, orang mungkin lebih mempercayai mereka dan bersedia memberikannya informasi yang lebih sensitif. Itu membuka pintu ke banyak masalah privasi dan keamanan jika teknologi ini jatuh ke tangan yang salah.

AI Memperkenalkan Pertanyaan Etis yang Rumit

AI seperti LaMDA terus menjadi lebih canggih dan hidup. Seiring berkembangnya tren ini, perusahaan dan pembuat undang-undang harus mengevaluasi kembali cara mereka memperlakukan AI dan bagaimana keputusan ini dapat memengaruhi keadilan dan keamanan.

Seperti berdiri, Google LaMDA AI mungkin tidak hidup, tapi itu cukup baik untuk menipu orang untuk berpikir itu, yang seharusnya meningkatkan beberapa alarm.