- Vitalik Buterin menyarankan untuk membatasi daya komputasi global untuk memperlambat AI yang berisiko.
- Dia mengusulkan otorisasi mingguan untuk perangkat keras AI oleh badan-badan global.
Vitalik Buterin, salah satu pendiri Ethereum, telah menyarankan strategi potensial untuk mengatasi risiko yang terkait dengan kecerdasan buatan (AI) yang sangat cerdas. Dalam sebuah posting blog pada tanggal 5 Januari, Buterin mengusulkan untuk membatasi daya komputasi global hingga dua tahun sebagai langkah terakhir untuk memperlambat pengembangan sistem AI yang berpotensi berbahaya.
“Jeda Lembut” pada Daya Komputasi
Usulan Buterin melibatkan pembatasan sementara perangkat keras komputasi skala industri untuk mengurangi sumber daya komputasi yang tersedia sebanyak 99%. Langkah ini bertujuan untuk memberikan waktu tambahan bagi umat manusia untuk mempersiapkan kemungkinan munculnya sistem AI super cerdas yang secara signifikan lebih maju daripada manusia yang paling cerdas di setiap domain.
Menurut Buterin, jeda seperti itu dapat bertindak sebagai pengaman jika terbukti bahwa risikoAI terlalu signifikan untuk dikelola melalui kerangka kerja regulasi tradisional.
Namun, dia menekankan bahwa pendekatan ini hanya akan dipertimbangkan jika langkah-langkah lain, seperti aturan kewajiban yang menuntut pertanggungjawaban pengembang AI atas kerusakan, terbukti tidak cukup.
Mengatasi Risiko AI dengan Akselerasi Defensif
Rekomendasi Buterin sejalan dengan konsepnya yang lebih luas tentang “akselerasi defensif” (d/acc), yang mengadvokasi kemajuan teknologi yang hati-hati dan strategis. Pendekatan ini berbeda dengan “akselerasi efektif” (e/acc), yang mendukung kemajuan teknologi yang cepat dan tidak terbatas.
Dalam postingan terbarunya, Buterin memperluas pengenalan d/acc pada November 2023 dengan menawarkan ide-ide konkret untuk skenario di mana AI menimbulkan risiko yang signifikan. Di antara usulannya adalah menerapkan sistem pemantauan untuk perangkat keras AI skala industri.
Salah satu metode yang disarankan adalah dengan mewajibkan chip AI untuk mendaftar ke badan-badan internasional. Buterin juga menguraikan mekanisme potensial untuk memastikan kepatuhan, seperti melengkapi perangkat dengan chip yang memerlukan otorisasi mingguan dari organisasi global. Proses ini dapat memanfaatkan teknologi blockchain untuk menambah transparansi dan keamanan.
Perdebatan mengenai risiko AI telah meningkat baru-baru ini, dengan banyak peneliti dan pemimpin industri yang menyatakan keprihatinannya tentang potensi teknologi tersebut untuk membahayakan umat manusia. Pada bulan Maret 2023, lebih dari 2.600 ahli menandatangani surat terbuka yang mendesak jeda dalam pengembangan AI untuk mengatasi apa yang mereka gambarkan sebagai “risiko besar bagi masyarakat.”
Buterin mengakui kekhawatiran ini, mencatat ketidakpastian seputar hasil dari AI super cerdas. Dia berpendapat bahwa langkah-langkah proaktif, termasuk penghentian sementara daya komputasi, dapat menjadi langkah penting untuk memastikan AI berkembang dengan cara yang bermanfaat bagi umat manusia.
Pendekatan Kehati-hatian oleh Buterin
Meskipun proposal Buterin telah memicu diskusi, ia tetap berhati-hati dalam mendukung langkah-langkah drastis. Dia menggarisbawahi bahwa “jeda lunak” hanya akan dianjurkan jika risiko tidak bertindak lebih besar daripada kerugian dari penerapan pembatasan tersebut.
Seiring dengan perkembangan AI yang semakin pesat, gagasan Buterin berkontribusi pada percakapan yang lebih luas tentang menyeimbangkan inovasi dengan keamanan. Saran-sarannya menggarisbawahi pentingnya mempersiapkan skenario di mana sistem AI yang canggih dapat menimbulkan ancaman eksistensial.
Buterin bertujuan untuk mengatasi tantangan pengembangan AI dengan mempromosikan pendekatan yang terukur dan kolaboratif tanpa sepenuhnya menghambat kemajuan teknologi. Apakah usulannya akan berhasil atau tidak, masih harus dilihat, namun usulan tersebut menyoroti urgensi yang semakin meningkat dalam menangani masalah etika dan keamanan seputar AI.