Runway meluncurkan Gen-2, AI text-to-video-nya. Tidak seperti Gen-1, model ini dapat menghasilkan video dari awal.

Selama bertahun-tahun, pencipta membutuhkan kamera video untuk menceritakan kisah mereka. Berkat perkembangan kecerdasan buatan, yang Anda butuhkan hanyalah imajinasi Anda. Dan dengan AI generatif, kemungkinan mendongeng tidak terbatas.

Runway memberi Anda lebih banyak cara untuk menceritakan kisah Anda dengan peluncuran Gen-2, model AI teks-ke-video. Lanjutkan membaca untuk mempelajari lebih lanjut tentang Runway's Gen-2 dan apa yang dapat dilakukannya.

Runway Meluncurkan Model AI Text-to-Video Gen-2

Pada Februari 2023, Landasan diluncurkan Gen-1, model AI yang menggunakan efek untuk membuat video baru dari yang sudah ada. Hanya beberapa minggu kemudian—pada 20 Maret 2023—Runway resmi diumumkan Gen-2.

Runway's Gen-2 merupakan peningkatan dari Gen-1. Ini adalah solusi AI generatif yang memungkinkan pengguna membuat video impian hanya dari kata-kata, gambar, dan video mereka sendiri. Dengan Gen-2, Runway meningkatkan opsi penyesuaiannya dan menghasilkan video dengan fidelitas lebih tinggi. Namun perbedaan utamanya adalah pengguna dapat membuat video dari awal—Anda tidak memerlukan gambar referensi atau video sumber.

AI generatif bukanlah konsep baru. Begitu banyak karya seni yang mengesankan telah dibuat menggunakan generator teks-ke-seni AI gratis terbaik. Model ini mendapatkan daya tarik karena semakin banyak orang yang membiasakan diri dengannya dan membagikan karya mereka di media sosial. Sekilas melihat Akun Twitter Runway akan menunjukkan kepada Anda betapa bersemangatnya orang-orang untuk membagikan mahakarya yang mereka buat menggunakan produknya.

Apa yang Dapat Dilakukan Gen-2?

Pembuatan konten dan alat AI terus meningkat setiap tahun. Saat Anda menggabungkan keduanya, Anda melahirkan kemungkinan yang tak terbatas. Itulah yang dilakukan Runway's Gen-2, dengan penekanan pada pembuatan film.

Gen-2 memiliki berbagai mode untuk membantu memulai film Anda—di bawah ini adalah tiga yang pertama.

  • Teks-ke-video: Bayangkan sebuah adegan dan hidupkan dengan mendeskripsikannya dengan teks.
  • Teks dan gambar ke video: Ubah gambar referensi menjadi gambar bergerak yang indah. Pikirkan diri Anda sebagai sutradara, gambar sebagai subjek atau aktor Anda, dan Gen-2 sebagai juru kamera. Gen-2 akan memperlakukan bidikan persis seperti yang Anda instruksikan.
  • Gambar-ke-video: Unggah gambar referensi untuk membuat video yang terinspirasi olehnya. Mode ini bekerja mirip dengan situs web yang mengubah foto menjadi GIF, tetapi lebih baik karena Anda dapat menghidupkan kembali foto-foto lama, dan melakukan lebih banyak lagi.

Penyesuaian dgn mode mode memungkinkan Anda untuk menjadi pemeran pengganti dalam film Anda sendiri atau menggunakan koreografi yang ada untuk menginformasikan gerakan dalam video musik Anda berikutnya. Alih-alih menggunakan teks untuk mendeskripsikan gerakan yang ingin Anda terjemahkan, gunakan prompt atau gambar untuk hasil yang lebih akurat.

Inspirasi ada di mana-mana. Papan cerita memungkinkan Anda mengeluarkan potensi sebenarnya dari maket dengan mengubahnya menjadi video bergaya.

Anda tidak akan selalu membuat video dari awal. Terkadang, Anda mungkin ingin mengubah beberapa hal di video yang sudah ada. Penyamaran mode memungkinkan Anda mengisolasi dan mengedit elemen tertentu untuk lebih menyelaraskan video dengan tujuan Anda, seperti mengubah warna rambut seseorang.

Saat bekerja dengan anggaran rendah, Anda dapat membuat video realistis menggunakan video biasa yang sudah ada. Tambahkan tanaman hijau, air, dan banyak lagi dengan Gen-2 Render mode. Akhirnya, Kustomisasi mode—buat hasil yang lebih akurat menggunakan perintah untuk menyesuaikan model Anda.

Kecerdasan Buatan Terus Meningkat

Lupakan animasi—AI generatif adalah hadiah yang terus diberikan. Tidak ada yang bisa membayangkan Anda bisa membuat film dari nol hanya dengan menggunakan komputer Anda. Jika perkembangan terkini adalah sesuatu yang harus dilalui, masa depan tampak cerah untuk media, AI, dan ruang pembuatan konten.