Ungkap konsep dan jargon yang diperlukan untuk memahami alat AI seperti ChatGPT, Bard, dan Midjourney.

Menjelajahi kecerdasan buatan (AI) bisa terasa seperti memasuki labirin istilah teknis yang membingungkan dan jargon yang tidak masuk akal. Tidak mengherankan bahwa bahkan mereka yang akrab dengan AI dapat menemukan diri mereka menggaruk-garuk kepala karena bingung.

Dengan mengingat hal itu, kami telah membuat glosarium AI yang komprehensif untuk membekali Anda dengan pengetahuan yang diperlukan. Dari kecerdasan buatan itu sendiri hingga pembelajaran mesin dan penambangan data, kami akan memecahkan kode semua istilah AI yang penting dalam bahasa yang sederhana dan sederhana.

Apakah Anda seorang pemula yang ingin tahu atau penggemar AI, memahami konsep AI berikut akan membawa Anda lebih dekat untuk membuka kunci kekuatan AI.

1. Algoritma

Algoritme adalah seperangkat instruksi atau aturan yang diikuti mesin untuk memecahkan masalah atau menyelesaikan tugas.

2. Kecerdasan buatan

AI adalah kemampuan mesin untuk meniru kecerdasan manusia dan melakukan tugas yang umumnya diasosiasikan dengan makhluk cerdas.

instagram viewer

3. Kecerdasan Umum Buatan (AGI)

AGI, juga disebut AI yang kuat, adalah jenis AI yang memiliki kemampuan kecerdasan canggih yang mirip dengan manusia. Ketika kecerdasan umum buatan dulunya merupakan konsep teoretis dan taman bermain yang kaya untuk penelitian, banyak pengembang AI sekarang percaya bahwa umat manusia akan mencapai AGI dalam dekade berikutnya.,

4. Backpropagation

Backpropagation adalah algoritma jaringan saraf yang digunakan untuk meningkatkan akurasi dan kinerjanya. Ini bekerja dengan menghitung kesalahan dalam output, menyebarkannya kembali melalui jaringan, dan menyesuaikan bobot dan bias koneksi untuk mendapatkan hasil yang lebih baik.

5. Bias

bias AI mengacu pada kecenderungan model untuk membuat prediksi tertentu lebih sering daripada yang lain. Bias dapat disebabkan karena data pelatihan model atau asumsi bawaannya.

6. Data besar

Data besar adalah istilah yang menjelaskan kumpulan data yang terlalu besar atau terlalu rumit untuk diproses menggunakan metode tradisional. Ini melibatkan analisis kumpulan informasi yang sangat besar untuk mengekstraksi wawasan dan pola yang berharga untuk meningkatkan pengambilan keputusan.

7. Obrolan

Chatbot adalah program yang dapat mensimulasikan percakapan dengan pengguna manusia melalui teks atau perintah suara. Chatbots dapat memahami dan menghasilkan tanggapan seperti manusia, menjadikannya alat yang ampuh untuk aplikasi layanan pelanggan.

8. Komputasi Kognitif

Komputasi kognitif adalah bidang AI yang berfokus pada pengembangan sistem yang meniru kemampuan kognitif manusia, seperti persepsi, pembelajaran, penalaran, dan pemecahan masalah.

9. Teori Belajar Komputasi

Cabang kecerdasan buatan yang mempelajari algoritme dan model matematika pembelajaran mesin. Ini berfokus pada landasan teoretis pembelajaran untuk memahami bagaimana mesin dapat memperoleh pengetahuan, membuat prediksi, dan meningkatkan kinerjanya.

10. Visi Komputer

Visi komputer mengacu pada kemampuan mesin untuk mengekstrak informasi visual dari gambar digital dan video. Algoritme visi komputer banyak digunakan dalam aplikasi seperti deteksi objek, pengenalan wajah, pencitraan medis, dan kendaraan otonom.

11. Penambangan Data

Penambangan data adalah proses memperoleh pengetahuan berharga dari kumpulan data besar. Ini menggunakan analisis statistik dan teknik pembelajaran mesin untuk mengidentifikasi pola, hubungan, dan tren dalam data untuk meningkatkan pengambilan keputusan.

12. Ilmu Data

Ilmu data melibatkan penggalian wawasan dari data menggunakan metode ilmiah, algoritme, dan sistem. Ini lebih komprehensif daripada penambangan data dan mencakup berbagai aktivitas, termasuk pengumpulan data, visualisasi data, dan pemodelan prediktif untuk memecahkan masalah yang rumit.

13. Pembelajaran Mendalam

Pembelajaran mendalam adalah cabang AI yang menggunakan jaringan saraf tiruan dengan banyak lapisan (node ​​yang saling terhubung dalam jaringan saraf) untuk belajar dari sejumlah besar data. Ini memungkinkan mesin untuk melakukan tugas-tugas kompleks, seperti pemrosesan bahasa alami, pengenalan gambar, dan ucapan.

14. AI generatif

AI generatif menggambarkan sistem dan algoritma kecerdasan buatan yang dapat membuat teks, audio, video, dan simulasi. Sistem AI ini mempelajari pola dan contoh dari data yang ada dan menggunakan pengetahuan tersebut untuk membuat keluaran baru dan orisinal.

15. Halusinasi

halusinasi AI mengacu pada contoh di mana model menghasilkan hasil yang salah secara faktual, tidak relevan, atau tidak masuk akal. Hal ini dapat terjadi karena beberapa alasan, termasuk kurangnya konteks, keterbatasan data pelatihan, atau arsitektur.

16. Hyperparameter

Hyperparameter adalah pengaturan yang menentukan bagaimana algoritma atau model pembelajaran mesin belajar dan berperilaku. Hyperparameter mencakup kecepatan pembelajaran, kekuatan regularisasi, dan jumlah lapisan tersembunyi di jaringan. Anda dapat mengotak-atik parameter ini untuk menyempurnakan performa model sesuai dengan kebutuhan Anda.

17. Model Bahasa Besar (LLM)

LLM adalah model pembelajaran mesin yang dilatih pada sejumlah besar data dan menggunakan pembelajaran terawasi untuk menghasilkan token berikutnya dalam konteks tertentu untuk menghasilkan respons kontekstual yang bermakna terhadap masukan pengguna. Kata "besar" menunjukkan penggunaan parameter ekstensif oleh model bahasa. Misalnya, Model GPT menggunakan ratusan miliar parameter untuk melakukan berbagai tugas NLP.

18. Pembelajaran mesin

Pembelajaran mesin adalah cara mesin untuk belajar dan membuat prediksi tanpa diprogram secara eksplisit. Ini seperti memberi makan komputer dengan data dan memberdayakannya untuk membuat keputusan atau prediksi dengan mengidentifikasi pola di dalam data.

19. Jaringan syaraf

Jaringan saraf adalah model komputasi yang terinspirasi oleh otak manusia. Ini terdiri dari node yang saling berhubungan, atau neuron, yang diatur dalam lapisan. Setiap neuron menerima masukan dari neuron lain dalam jaringan, memungkinkannya mempelajari pola dan membuat keputusan. Jaringan syaraf tiruan adalah komponen kunci dalam model pembelajaran mesin yang memungkinkannya unggul dalam beragam tugas.

20. Generasi Bahasa Alami (NLG)

Generasi bahasa alami berurusan dengan pembuatan teks yang dapat dibaca manusia dari data terstruktur. NLG menemukan aplikasi dalam pembuatan konten, chatbots, dan asisten suara.

21. Pemrosesan Bahasa Alami (NLP)

Pemrosesan bahasa alami adalah kemampuan mesin untuk menafsirkan, memahami, dan menanggapi teks atau ucapan yang dapat dibaca manusia. Ini digunakan dalam berbagai aplikasi, termasuk analisis sentimen, klasifikasi teks, dan menjawab pertanyaan.

22. OpenAI

OpenAI adalah laboratorium penelitian kecerdasan buatan, didirikan pada tahun 2015 dan berbasis di San Francisco, AS. Perusahaan mengembangkan dan menerapkan alat AI yang tampak sama cerdasnya dengan manusia. Produk OpenAI yang paling terkenal, ChatGPT, dirilis pada November 2022 dan digembar-gemborkan sebagai chatbot tercanggih karena kemampuannya memberikan jawaban tentang berbagai topik.

23. Pengenalan Pola

Pengenalan pola adalah kemampuan sistem AI untuk mengidentifikasi dan menginterpretasikan pola dalam data. Algoritme pengenalan pola menemukan aplikasi dalam pengenalan wajah, deteksi penipuan, dan pengenalan suara.

24. Jaringan Syaraf Berulang (RNN)

Jenis jaringan saraf yang dapat memproses data berurutan menggunakan koneksi umpan balik. RNN dapat mempertahankan memori input sebelumnya dan cocok untuk tugas-tugas seperti NLP dan terjemahan mesin.

25. Pembelajaran Penguatan

Pembelajaran penguatan adalah teknik pembelajaran mesin di mana agen AI belajar untuk membuat keputusan melalui interaksi dengan coba-coba. Agen menerima hadiah atau hukuman dari algoritme berdasarkan tindakannya, membimbingnya untuk meningkatkan kinerjanya dari waktu ke waktu.

26. Pembelajaran yang Diawasi

Metode pembelajaran mesin di mana model dilatih menggunakan data berlabel dengan output yang diinginkan. Model menggeneralisasi dari data berlabel dan membuat prediksi akurat pada data baru.

27. Tokenisasi

Tokenisasi adalah proses pemisahan dokumen teks menjadi unit yang lebih kecil yang disebut token. Token ini dapat mewakili kata, angka, frasa, simbol, atau elemen apa pun dalam teks yang dapat digunakan oleh suatu program. Tujuan dari tokenisasi adalah untuk memanfaatkan data yang tidak terstruktur secara maksimal tanpa memproses seluruh teks sebagai string tunggal, yang secara komputasi tidak efisien dan sulit untuk dimodelkan.

28. Uji Turing

Diperkenalkan oleh Alan Turing pada tahun 1950, tes ini mengevaluasi kemampuan mesin untuk menunjukkan kecerdasan yang tidak dapat dibedakan dari kecerdasan manusia. Itu uji Turing melibatkan hakim manusia yang berinteraksi dengan manusia dan mesin tanpa mengetahui yang mana. Jika juri gagal membedakan mesin dari manusia, mesin dianggap telah lulus ujian.

29. Pembelajaran Tanpa Pengawasan

Metode pembelajaran mesin tempat model membuat kesimpulan dari kumpulan data yang tidak berlabel. Ini menemukan pola dalam data untuk membuat prediksi pada data yang tidak terlihat.

Merangkul Bahasa Kecerdasan Buatan

AI adalah bidang yang berkembang pesat yang mengubah cara kita berinteraksi dengan teknologi. Namun, dengan begitu banyak kata kunci baru yang terus bermunculan, mungkin sulit untuk mengikuti perkembangan terbaru di lapangan.

Meskipun beberapa istilah mungkin tampak abstrak tanpa konteks, signifikansinya menjadi jelas jika digabungkan dengan pemahaman dasar tentang pembelajaran mesin. Memahami istilah dan konsep ini dapat meletakkan dasar yang kuat yang akan memberdayakan Anda untuk membuat keputusan yang tepat dalam bidang kecerdasan buatan.