Semakin banyak perusahaan yang melarang ChatGPT di tempat kerja, tetapi ada apa di balik larangan tersebut?

Terlepas dari kemampuannya yang mengesankan, beberapa perusahaan besar telah melarang karyawannya menggunakan ChatGPT.

Pada Mei 2023, Samsung melarang penggunaan ChatGPT dan alat AI generatif lainnya. Kemudian, pada Juni 2023, Commonwealth Bank of Australia mengikutinya, bersama dengan perusahaan seperti Amazon, Apple, dan JPMorgan Chase & Co. Beberapa rumah sakit, firma hukum, dan lembaga pemerintah juga melarang karyawan untuk menggunakannya ChatGPT.

Jadi, mengapa semakin banyak perusahaan yang melarang ChatGPT? Berikut adalah lima alasan utama.

1. Kebocoran Data

ChatGPT membutuhkan data dalam jumlah besar untuk melatih dan beroperasi secara efektif. Chatbot dilatih menggunakan sejumlah besar data yang berasal dari internet, dan terus dilatih.

Berdasarkan Halaman Bantuan OpenAI, setiap bagian data, termasuk detail rahasia pelanggan, rahasia dagang, dan bisnis sensitif informasi yang Anda berikan kepada chatbot dapat ditinjau oleh pelatihnya, yang dapat menggunakan data Anda untuk meningkatkan sistem mereka.

Banyak perusahaan tunduk pada peraturan perlindungan data yang ketat. Akibatnya, mereka berhati-hati dalam berbagi data pribadi dengan entitas eksternal, karena hal ini meningkatkan risiko kebocoran data.

Selain itu, OpenAI tidak menawarkan perlindungan data dan jaminan kerahasiaan yang sangat mudah. Pada Maret 2023, OpenAI dikonfirmasi bug yang memungkinkan beberapa pengguna untuk melihat judul obrolan di riwayat pengguna aktif lainnya. Meskipun bug ini telah diperbaiki dan OpenAI meluncurkan program karunia bug, perusahaan tidak menjamin keamanan dan privasi data pengguna.

Banyak organisasi memilih untuk membatasi karyawan menggunakan ChatGPT untuk menghindari kebocoran data, yang dapat merusak reputasi mereka, menyebabkan kerugian finansial, dan merugikan pelanggan dan karyawan mereka mempertaruhkan.

2. Risiko Keamanan Siber

Ketika tidak jelas apakah ChatGPT benar-benar rentan terhadap risiko keamanan siber, ada kemungkinan penerapannya dalam suatu organisasi dapat menimbulkan potensi kerentanan yang dapat dieksploitasi oleh penyerang dunia maya.

Jika sebuah perusahaan mengintegrasikan ChatGPT dan terdapat kelemahan dalam sistem keamanan chatbot, penyerang dapat mengeksploitasi kerentanan dan menyuntikkan kode malware. Juga, kemampuan ChatGPT untuk menghasilkan tanggapan seperti manusia adalah telur emas bagi penyerang phishing yang dapat mengambilnya melalui akun atau menyamar sebagai entitas yang sah untuk menipu karyawan perusahaan agar berbagi sensitif informasi.

3. Pembuatan Chatbot yang Dipersonalisasi

Terlepas dari fitur-fiturnya yang inovatif, ChatGPT dapat menghasilkan informasi yang salah dan menyesatkan. Akibatnya, banyak perusahaan membuat AI chatbots untuk tujuan kerja. Misalnya, Commonwealth Bank of Australia meminta karyawannya untuk menggunakan Gen.ai, chatbot kecerdasan buatan (AI) yang menggunakan informasi CommBank untuk memberikan jawaban.

Perusahaan seperti Samsung dan Amazon telah mengembangkan model bahasa alami yang canggih, sehingga bisnis dapat dengan mudah membuat dan menerapkan chatbot yang dipersonalisasi berdasarkan transkrip yang ada. Dengan chatbot internal ini, Anda dapat mencegah konsekuensi hukum dan reputasi yang terkait dengan kesalahan penanganan data.

4. Kurangnya Regulasi

Dalam industri di mana perusahaan tunduk pada protokol dan sanksi peraturan, kurangnya panduan peraturan ChatGPT adalah tanda bahaya. Tanpa ketentuan peraturan yang tepat yang mengatur penggunaan ChatGPT, perusahaan dapat menghadapi konsekuensi hukum yang berat saat menggunakan chatbot AI untuk operasi mereka.

Selain itu, kurangnya regulasi dapat mengurangi akuntabilitas dan transparansi perusahaan. Sebagian besar perusahaan mungkin bingung menjelaskan Proses pengambilan keputusan model bahasa AI dan langkah-langkah keamanan kepada pelanggan mereka.

Perusahaan membatasi ChatGPT, karena takut akan potensi pelanggaran undang-undang privasi dan peraturan khusus industri.

5. Penggunaan yang Tidak Bertanggung Jawab oleh Karyawan

Di banyak perusahaan, beberapa karyawan hanya mengandalkan respons ChatGPT untuk membuat konten dan menjalankan tugas mereka. Hal ini menimbulkan kemalasan di lingkungan kerja dan menghambat kreativitas dan inovasi.

Ketergantungan AI dapat menghambat kemampuan Anda untuk berpikir kritis. Itu juga dapat merusak kredibilitas perusahaan, karena ChatGPT sering memberikan data yang tidak akurat dan tidak dapat diandalkan.

Meskipun ChatGPT adalah alat yang ampuh, menggunakannya untuk menjawab pertanyaan kompleks yang memerlukan keahlian khusus domain dapat merusak operasi dan efisiensi perusahaan. Beberapa karyawan mungkin tidak ingat untuk memeriksa fakta dan memverifikasi tanggapan yang diberikan oleh chatbot AI, memperlakukan tanggapan sebagai solusi satu ukuran untuk semua.

Untuk mengurangi masalah seperti ini, perusahaan melarang chatbot sehingga karyawan dapat fokus pada tugas mereka dan memberikan solusi bebas kesalahan kepada pengguna.

Larangan ChatGPT: Lebih Aman Daripada Menyesal

Perusahaan yang melarang ChatGPT mengindikasikan risiko keamanan siber, standar etika karyawan, dan tantangan kepatuhan terhadap peraturan. Ketidakmampuan ChatGPT untuk mengatasi tantangan ini sambil memberikan solusi industri membuktikan keterbatasannya dan perlu berkembang lebih jauh.

Sementara itu, perusahaan beralih ke chatbots alternatif atau hanya membatasi penggunaan karyawan ChatGPT untuk menghindari potensi pelanggaran data dan protokol keamanan dan peraturan yang tidak dapat diandalkan terkait dengan chatbot.