Karyawan Samsung secara tidak sengaja membocorkan data pribadi perusahaan melalui ChatGPT—contoh mengapa AI merupakan ancaman besar bagi privasi dan keamanan Anda.

ChatGPT menjadi masalah keamanan dan privasi utama karena terlalu banyak dari kita yang tanpa sadar membagikan informasi pribadi kita di dalamnya. ChatGPT mencatat setiap percakapan yang Anda lakukan dengannya, termasuk data pribadi apa pun yang Anda bagikan. Tetap saja, Anda tidak akan mengetahui hal ini kecuali Anda telah menggali kebijakan privasi OpenAI, ketentuan layanan, dan halaman FAQ untuk menggabungkannya.

Cukup berbahaya untuk membocorkan informasi Anda sendiri, tetapi mengingat perusahaan besar menggunakan ChatGPT untuk memproses informasi setiap hari, ini bisa menjadi awal dari bencana kebocoran data.

Samsung Membocorkan Informasi Rahasia Melalui ChatGPT

Berdasarkan Gizmodo, karyawan Samsung secara keliru membocorkan informasi rahasia melalui ChatGPT pada tiga kesempatan terpisah dalam rentang waktu 20 hari. Ini hanyalah salah satu contoh betapa mudahnya bagi perusahaan untuk mengkompromikan informasi pribadi.

instagram viewer

ChatGPT mendapat kecaman publik karena masalah privasinya, jadi Samsung membiarkan hal ini terjadi karena pengawasan yang cukup besar. Beberapa negara bahkan telah melarang ChatGPT untuk melindungi warganya hingga meningkatkan privasinya, jadi menurut Anda perusahaan akan lebih berhati-hati tentang cara staf mereka menggunakannya.

Untungnya, tampaknya pelanggan Samsung aman—setidaknya untuk saat ini. Data yang dilanggar hanya berkaitan dengan praktik bisnis internal, beberapa kode hak milik yang sedang mereka pecahkan, dan risalah dari rapat tim, semuanya diserahkan oleh karyawan. Namun, akan sangat mudah bagi staf untuk membocorkan informasi pribadi konsumen, dan hanya masalah waktu sebelum kita melihat perusahaan lain melakukan hal itu. Jika ini terjadi, kita bisa berharap untuk melihat peningkatan besar dalam penipuan phishing dan pencurian identitas.

Ada lapisan risiko lain di sini juga. Jika karyawan menggunakan ChatGPT untuk mencari bug seperti yang mereka lakukan pada kebocoran Samsung, kode yang mereka ketikkan ke dalam kotak obrolan juga akan disimpan di server OpenAI. Hal ini dapat menyebabkan pelanggaran yang berdampak besar pada perusahaan yang memecahkan masalah produk dan program yang belum dirilis. Kami bahkan mungkin akan melihat informasi seperti rencana bisnis yang belum dirilis, rilis mendatang, dan prototipe bocor, yang mengakibatkan kerugian pendapatan yang sangat besar.

Bagaimana Kebocoran Data ChatGPT Terjadi?

Kebijakan privasi ChatGPT memperjelas bahwa itu merekam percakapan Anda dan membagikan log dengan perusahaan lain dan pelatih AI-nya. Saat seseorang (misalnya, karyawan Samsung) mengetikkan informasi rahasia ke dalam kotak dialog, informasi tersebut direkam dan disimpan di server ChatGPT.

Sangat tidak mungkin karyawan melakukan ini dengan sengaja, tetapi itulah bagian yang menakutkan. Sebagian besar pelanggaran data disebabkan oleh kesalahan manusia. Seringkali, ini karena perusahaan gagal mendidik stafnya tentang risiko privasi menggunakan alat seperti AI.

Misalnya, jika mereka menempelkan daftar kontak yang besar ke dalam obrolan dan meminta AI untuk memisahkan nomor telepon pelanggan dari data, ChatGPT akan menyimpan nama dan nomor telepon tersebut dalam catatannya. Informasi pribadi Anda bergantung pada belas kasihan perusahaan yang tidak Anda bagikan, yang mungkin tidak melindunginya dengan cukup baik untuk membuat Anda tetap aman. Ada beberapa hal yang dapat Anda lakukan menjaga diri Anda aman setelah pelanggaran data, tetapi bisnis harus bertanggung jawab untuk mencegah kebocoran.

Moral dari Cerita: Jangan Beri Tahu ChatGPT Rahasia Anda

Anda dapat menggunakan ChatGPT dengan aman untuk ratusan tugas berbeda, tetapi mengatur informasi rahasia bukan salah satunya. Anda harus berhati-hati untuk tidak mengetik sesuatu yang bersifat pribadi ke dalam kotak obrolan, termasuk nama, alamat, email, dan nomor telepon Anda. Sangat mudah untuk membuat kesalahan ini, jadi Anda harus berhati-hati untuk memeriksa permintaan Anda untuk memastikan tidak ada yang masuk secara tidak sengaja.

Kebocoran Samsung menunjukkan kepada kita betapa nyata risiko kebocoran data terkait ChatGPT. Sayangnya, kita akan melihat lebih banyak jenis kesalahan ini, mungkin dengan dampak yang jauh lebih besar, karena AI menjadi bagian inti dari sebagian besar proses bisnis.