Platform TensorFlow Google memungkinkan penggunanya untuk melatih AI dengan menyediakan alat dan sumber daya untuk pembelajaran mesin. Untuk waktu yang lama, insinyur AI telah menggunakan CPU dan GPU tradisional untuk melatih AI. Meskipun prosesor ini dapat menangani berbagai proses pembelajaran mesin, mereka masih merupakan perangkat keras serba guna yang digunakan untuk berbagai tugas sehari-hari.
Untuk mempercepat pelatihan AI, Google mengembangkan Application Specific Integrated Circuit (ASIC) yang dikenal sebagai Tensor Processing Unit (TPU). Tapi, apa itu Unit Pemrosesan Tensor, dan bagaimana mereka mempercepat pemrograman AI?
Apa itu Tensor Processing Unit (TPU)?
Unit Pemrosesan Tensor adalah milik Google ASIC untuk pembelajaran mesin. TPU secara khusus digunakan untuk pembelajaran mendalam untuk menyelesaikan operasi matriks dan vektor yang kompleks. TPU disederhanakan untuk menyelesaikan operasi matriks dan vektor pada kecepatan sangat tinggi tetapi harus dipasangkan dengan CPU untuk memberikan dan menjalankan instruksi. TPU hanya dapat digunakan dengan Google
Platform TensorFlow atau TensorFlow Lite, baik melalui komputasi awan atau versi ringannya di perangkat keras lokal.Aplikasi untuk TPU
Google telah menggunakan TPU sejak 2015. Mereka juga telah mengkonfirmasi penggunaan prosesor baru ini untuk pemrosesan teks Google Street View, Foto Google, dan Hasil Pencarian Google (Peringkat Otak), sebagai serta untuk membuat AI yang dikenal sebagai AlphaGo, yang telah mengalahkan pemain Go teratas dan sistem AlphaZero yang menang melawan program terkemuka di Catur, Go, dan Shogi.
TPU dapat digunakan di berbagai aplikasi pembelajaran mendalam seperti deteksi penipuan, visi komputer, bahasa alami pemrosesan, mobil self-driving, AI vokal, pertanian, asisten virtual, perdagangan saham, e-commerce, dan berbagai sosial prediksi.
Kapan Menggunakan TPU
Karena TPU adalah perangkat keras khusus yang tinggi untuk pembelajaran mendalam, ia kehilangan banyak fungsi lain yang biasanya Anda harapkan dari prosesor tujuan umum seperti CPU. Dengan pemikiran ini, ada skenario khusus di mana menggunakan TPU akan menghasilkan hasil terbaik saat melatih AI.
Waktu terbaik untuk menggunakan TPU adalah untuk operasi di mana model sangat bergantung pada perhitungan matriks, seperti sistem rekomendasi untuk mesin pencari. TPU juga memberikan hasil yang luar biasa untuk model di mana AI menganalisis sejumlah besar titik data yang akan membutuhkan waktu beberapa minggu atau bulan untuk menyelesaikannya. Insinyur AI menggunakan TPU untuk instans tanpa model TensorFlow kustom dan harus memulai dari awal.
Kapan Tidak Menggunakan TPU
Seperti yang dinyatakan sebelumnya, optimalisasi TPU menyebabkan jenis prosesor ini hanya bekerja pada operasi beban kerja tertentu. Oleh karena itu, ada beberapa contoh di mana memilih untuk menggunakan CPU dan GPU tradisional akan memberikan hasil yang lebih cepat. Contoh ini meliputi:
- Pembuatan prototipe cepat dengan fleksibilitas maksimum
- Model dibatasi oleh titik data yang tersedia
- Model yang simple dan bisa dilatih dengan cepat
- Model terlalu berat untuk diubah
- Model yang bergantung pada operasi TensorFlow kustom yang ditulis dalam C++
Versi dan Spesifikasi TPU
Sejak Google mengumumkan TPU-nya, publik terus diperbarui tentang versi terbaru TPU dan spesifikasinya. Berikut ini adalah daftar semua versi TPU dengan spesifikasi:
TPUv1 | TPUv2 | TPUv3 | TPUv4 | Edgev1 | |
---|---|---|---|---|---|
Tanggal Diperkenalkan | 2016 | 2017 | 2018 | 2021 | 2018 |
Node proses (nm) | 28 | 16 | 16 | 7 | |
Ukuran cetakan (mm²) | 331 | <625 | <700 | <400 | |
Memori Dalam Chip | 28 | 32 | 32 | 144 | |
Kecepatan Jam (MHz) | 700 | 700 | 940 | 1050 | |
Konfigurasi Memori Terkecil (GB) | 8 DDR3 | 16 HBM | 32 HBM | 32 HBM | |
TDP (Watt) | 75 | 280 | 450 | 175 | 2 |
TOPS (Tera Operasi Per Detik) | 23 | 45 | 90 | ? | 4 |
TOPS/W | 0.3 | 0.16 | 0.2 | ? | 2 |
Seperti yang Anda lihat, kecepatan clock TPU tampaknya tidak terlalu mengesankan, terutama ketika komputer desktop modern saat ini dapat memiliki kecepatan clock 3-5 kali lebih cepat. Tetapi jika Anda melihat dua baris bawah tabel, Anda dapat melihat bahwa TPU dapat memproses 23-90 tera-operasi per detik hanya dengan menggunakan daya 0,16—0,3 watt. TPU diperkirakan 15-30 kali lebih cepat daripada CPU dan GPU modern saat menggunakan antarmuka jaringan saraf.
Dengan setiap versi yang dirilis, TPU yang lebih baru menunjukkan peningkatan dan kemampuan yang signifikan. Berikut adalah beberapa sorotan untuk setiap versi.
- TPUv1: TPU pertama yang diumumkan secara publik. Dirancang sebagai mesin perkalian matriks 8-bit dan terbatas hanya untuk memecahkan bilangan bulat.
- TPUv2: Sejak insinyur mencatat bahwa TPUv1 terbatas pada bandwidth. Versi ini sekarang memiliki dua kali lipat bandwidth memori dengan 16GB RAM. Versi ini sekarang dapat memecahkan floating point sehingga berguna untuk pelatihan dan inferensi.
- TPUv3: Dirilis pada tahun 2018, TPUv3 memiliki prosesor dua kali lipat dan digunakan dengan chip empat kali lebih banyak dari TPUv2. Pembaruan memungkinkan versi ini memiliki kinerja delapan kali lipat dari versi sebelumnya.
- TPUv4: Ini adalah TPU versi terbaru yang diumumkan pada 18 Mei 2021. CEO Google mengumumkan bahwa versi ini akan memiliki lebih dari dua kali kinerja TPU v3.
- tepi TPU: Versi TPU ini dimaksudkan untuk operasi yang lebih kecil yang dioptimalkan untuk menggunakan lebih sedikit daya daripada versi TPU lainnya dalam operasi keseluruhan. Meski hanya menggunakan daya dua watt, Edge TPU dapat menyelesaikan hingga empat operasi terra per detik. Edge TPU hanya ditemukan pada perangkat genggam kecil seperti smartphone Pixel 4 Google.
Bagaimana Anda Mengakses TPU? Siapa yang Dapat Menggunakannya?
TPU adalah unit pemrosesan eksklusif yang dirancang oleh Google untuk digunakan dengan platform TensorFlow-nya. Akses pihak ketiga ke prosesor ini telah diizinkan sejak 2018. Saat ini, TPU (kecuali Edge TPU) hanya dapat diakses melalui Google layanan komputasi melalui cloud. Sementara perangkat keras Edge TPU dapat dibeli melalui smartphone Pixel 4 Google dan kit prototyping-nya yang dikenal sebagai Coral.
Coral adalah akselerator USB yang menggunakan USB 3.0 Tipe C untuk data dan daya. Ini memberi perangkat Anda komputasi Edge TPU yang mampu 4 TOPS untuk setiap 2W daya. Kit ini dapat berjalan pada mesin yang menggunakan Windows 10, macOS, dan Debian Linux (juga dapat bekerja dengan Raspberry Pi).
Akselerator AI Khusus Lainnya
Dengan kecerdasan buatan menjadi hal yang populer selama dekade terakhir, Big Tech terus mencari cara untuk membuat pembelajaran mesin secepat dan seefisien mungkin. Meskipun TPU Google bisa dibilang merupakan ASIC paling populer yang dikembangkan untuk pembelajaran mendalam, perusahaan teknologi lain seperti Intel, Microsoft, Alibaba, dan Qualcomm juga telah mengembangkan akselerator AI mereka sendiri. Ini termasuk Microsoft Brainwave, Intel Neural Compute Stick, dan Graphicore's IPU (Intelligence Processing Unit).
Tetapi sementara lebih banyak perangkat keras AI sedang dikembangkan, sayangnya, sebagian besar belum tersedia di pasar, dan banyak yang tidak akan pernah tersedia. Pada saat penulisan, jika Anda benar-benar ingin membeli perangkat keras akselerator AI, opsi paling populer adalah membeli kit prototyping Coral, Intel NCS, Graphicore Bow Pod, atau Asus IoT AI Accelerator. Jika Anda hanya ingin akses ke perangkat keras AI khusus, Anda dapat menggunakan layanan komputasi awan Google atau alternatif lain seperti Microsoft Brainwave.