Teknologi

Dianggap Terlalu Mengerikan, Ratusan Tokoh Dunia Serukan Penghentian Sementara Riset AI Supercanggih

×

Dianggap Terlalu Mengerikan, Ratusan Tokoh Dunia Serukan Penghentian Sementara Riset AI Supercanggih

Sebarkan artikel ini
Ilustrasi oleh Midjopurney via BleepingComputer

BANDUNG, TINTAHIJAU.com — Laju perkembangan kecerdasan buatan (AI) yang semakin pesat tanpa kendali memicu keprihatinan global. Lebih dari 800 tokoh lintas bidang—termasuk ilmuwan peraih Nobel, mantan petinggi militer, seniman, hingga anggota keluarga kerajaan Inggris—menyerukan penghentian sementara seluruh penelitian yang berpotensi melahirkan “superintelijen”, yakni bentuk AI yang diyakini mampu melampaui kemampuan manusia.

Seruan tersebut disampaikan melalui pernyataan terbuka yang menuntut larangan sementara terhadap pengembangan AI tingkat lanjut hingga tercapai konsensus ilmiah mengenai keamanannya dan ada dukungan publik yang jelas terhadap arah pengembangannya.

Inisiatif ini digagas oleh kelompok peneliti AI yang menilai inovasi di bidang tersebut berkembang jauh lebih cepat dibanding kemampuan masyarakat untuk memahami dampaknya. Tokoh-tokoh ternama yang menandatangani seruan ini antara lain Geoffrey Hinton (pionir AI dan peraih Nobel), mantan Kepala Staf Gabungan AS Mike Mullen, musisi Will.i.am, mantan penasihat Gedung Putih Steve Bannon, serta Pangeran Harry dan Meghan Markle.

Seruan ini menambah panjang daftar peringatan terhadap bahaya laju pengembangan AI, terutama di tengah gencarnya investasi perusahaan teknologi raksasa seperti OpenAI, Google, dan Meta. Ketiganya berlomba mengembangkan model AI baru serta memperluas penggunaannya dalam berbagai aspek kehidupan, mulai dari ekonomi hingga budaya global.

Sejumlah ilmuwan memperkirakan sistem AI kini tengah mendekati tahap Artificial General Intelligence (AGI)—kecerdasan buatan yang mampu berpikir dan bertindak layaknya manusia. Tahap berikutnya, yakni superintelligence, dipandang lebih berbahaya karena berpotensi melampaui kemampuan manusia paling ahli sekalipun.

Pernyataan tersebut diterbitkan oleh Future of Life Institute (FLI), lembaga nirlaba yang berfokus pada mitigasi risiko global seperti nuklir, bioteknologi, dan AI. FLI sebelumnya mendapat dukungan dari Elon Musk dan Vitalik Buterin, salah satu pendiri blockchain Ethereum.

Direktur Eksekutif FLI, Anthony Aguirre, menyebut bahwa perkembangan AI kini melaju lebih cepat daripada kemampuan masyarakat untuk memahami implikasinya.

“Arah perkembangan ini pada dasarnya ditentukan oleh para pendiri perusahaan AI dan sistem ekonomi yang menopangnya—tanpa benar-benar menanyakan kepada masyarakat apakah ini yang kita inginkan,” ujarnya.

Aguirre menegaskan bahwa dunia masih memiliki pilihan mengenai bagaimana teknologi ini seharusnya dikembangkan. Ia berharap pernyataan tersebut dapat mendorong pembahasan serius di tingkat internasional, termasuk antara Amerika Serikat, Tiongkok, dan negara-negara lain, untuk membentuk kesepakatan global terkait batas aman pengembangan AI.

“Publik sebenarnya tidak menginginkan perlombaan semacam ini,” kata Aguirre. “Mungkin sudah waktunya dunia mempertimbangkan perjanjian internasional untuk AI canggih, sebagaimana yang dilakukan terhadap teknologi berisiko tinggi lainnya.”