Semua Orang di Bumi akan Mati, Kata Peneliti AI Terkemuka Memperingatkan

TopOne.id – Peneliti proses kecerdasan buatan atau artificial intelligence (AI) Eliezer Yudkowsky mengatakan, menghentikan pengembangan AI dan menghukum keras mereka yang melanggar moratorium adalah salah satu cara untuk menyelamatkan umat manusia dari kepunahan.

Salah satu pendiri Machine Intelligence Research Institute (MIRI) itu menyampaikan pendapatnya di majalah TIME terhadap Rabu minggu lalu.

Yudkowsky juga menjelaskan mengapa dia tidak menandatangani petisi yang menghendaki “semua laboratorium AI untuk langsung berhenti beroperasi setidaknya enam bulan selama percobaan proses AI yang lebih kuat daripada GPT-4,” model bahasa besar multimodal, yang dirilis oleh OpenAI.

Menurutnya, petisi yang ditandatangani oleh orang-orang seperti Elon Musk dan Steve Wozniak dari Apple, tidak akan memicu pertumbuhan AI yang masif dan tak terkendali dapat dihentikan.

“Hasil yang paling terlalu mungkin dari membangun AI yang amat cerdas, di dalam situasi apa pun yang jauh seperti saat ini, adalah berarti tiap-tiap orang di Bumi akan mati,” ucapnya, sebagaimana dikutip Pikiran-Rakyat.com dari Russia Today terhadap Senin, 3 April 2023.

“AI yang cukup cerdas tidak akan bertahan lama di komputer,” katanya memperingatkan.

Dia menjelaskan bahwa fakta string DNA telah dapat dikirim ke laboratorium untuk menghasilkan protein bisa saja besar akan terlalu mungkin AI “membangun bentuk kehidupan artifisial atau bootstrap langsung ke pembuatan molekul postbiologis” dan lahir ke dunia.

Menurut peneliti, moratorium pelatihan AI besar baru yang tidak terbatas dan di seluruh dunia mesti langsung diberlakukan.

“Tidak tersedia pengecualian, juga untuk pemerintah atau militer,” katanya.

Kesepakatan internasional mesti ditandatangani untuk menentukan batas atas berapa banyak kekuatan komputasi yang dapat digunakan siapa pun di dalam melatih proses semacam itu, tegas Yudkowsky.

“Jika intelijen menjelaskan bahwa sebuah negara di luar perjanjian sedang membangun klaster GPU (unit pemrosesan grafis), jangan amat takut akan konflik penembakan antar negara daripada pelanggaran moratorium; bersedia menghancurkan pusat data nakal bersama serangan udara,” tuturnya.

“Ancaman dari kecerdasan buatan begitu besar agar mesti dibikin secara eksplisit di dalam diplomasi internasional bahwa menghambat skenario kepunahan AI diakui sebagai prioritas di atas menghambat pertukaran nuklir secara penuh,” sambungnya.***