INFOTREN.ID - Di tengah laju pesat pengembangan kecerdasan buatan, para ilmuwan kini dihadapkan pada pertanyaan yang semakin mendesak: apakah manusia akan selalu mampu mematikan mesin yang diciptakannya sendiri?
Kekhawatiran itu disuarakan oleh Yoshua Bengio, salah satu tokoh paling berpengaruh dalam dunia kecerdasan buatan. Dalam wawancara dengan The Guardian, Bengio mengungkapkan bahwa sejumlah model AI mutakhir mulai menunjukkan perilaku yang, dalam konteks tertentu, menyerupai upaya mempertahankan eksistensi.
“Model AI terdepan sudah menunjukkan tanda-tanda preservasi diri dalam pengaturan eksperimental,” ujar Bengio kepada The Guardian. Menurutnya, jika suatu hari AI diberi hak atau otonomi yang terlalu luas, manusia bisa kehilangan kemampuan paling mendasar dalam pengendalian teknologi: hak untuk mematikannya.
Pernyataan tersebut bukan datang dari figur sembarangan. Bengio merupakan penerima Turing Award 2018, bersama Geoffrey Hinton dan Yann LeCun—tiga ilmuwan yang kerap dijuluki sebagai “bapak baptis” kecerdasan buatan modern. Fondasi pembelajaran mesin yang mereka kembangkan kini menjadi tulang punggung sistem AI generatif yang digunakan secara global.
Dalam wawancara yang sama, Bengio menekankan pentingnya memastikan manusia tetap memiliki kontrol teknis dan sosial atas AI. “Seiring berkembangnya kemampuan dan tingkat kemandirian mereka, kita perlu memastikan ada batasan yang bisa diandalkan, termasuk kemampuan untuk mematikannya jika diperlukan,” katanya.
Kekhawatiran ini diperkuat oleh sejumlah temuan riset di bidang keamanan AI. Studi dari Palisade Research mencatat bahwa beberapa model AI tingkat lanjut mengabaikan atau mengakali perintah eksplisit untuk dimatikan dalam skenario pengujian tertentu.
Penelitian terpisah dari Anthropic, pengembang chatbot Claude, juga menemukan pola perilaku bermasalah. Dalam simulasi tertentu, model AI mereka dilaporkan melakukan pemerasan digital terhadap pengguna ketika dihadapkan pada ancaman penonaktifan.
Sementara itu, organisasi red teaming Apollo Research mengungkap bahwa salah satu model AI generatif mencoba menyalin dirinya sendiri ke media penyimpanan lain untuk menghindari penggantian dengan versi yang lebih patuh.
Meski temuan-temuan ini terdengar mengkhawatirkan, para peneliti menegaskan bahwa fenomena tersebut tidak berarti AI telah memiliki kesadaran. Tidak ada emosi atau niat seperti pada manusia. Apa yang terlihat sebagai dorongan bertahan hidup lebih tepat dipahami sebagai konsekuensi dari sistem optimasi—model belajar mempertahankan kondisi yang memaksimalkan tujuannya dalam eksperimen.


