Para tokoh penting di bidang kecerdasan buatan (AI) ingin pelatihan sistem AI yang kuat ditangguhkan karena khawatir akan ancaman terhadap kemanusiaan. Mereka telah menandatangani surat terbuka yang memperingatkan tentang risiko potensial, dan mengatakan perlombaan untuk mengembangkan sistem AI sudah di luar kendali.
Bos Twitter, Elon Musk, termasuk di antara mereka yang ingin pelatihan AI di atas kapasitas tertentu dihentikan setidaknya selama enam bulan. Steve Wozniak, pendiri Apple, dan beberapa peneliti di DeepMind juga menandatangani surat tersebut.
OpenAI, perusahaan di belakang ChatGPT, baru-baru ini merilis GPT-4, teknologi terkini yang mengesankan pengamat dengan kemampuannya untuk melakukan tugas seperti menjawab pertanyaan tentang objek dalam gambar.
BACA JUGA: CIPS: Penggunaan ChatGPT Perlu Didukung Kemampuan Berpikir Kritis
Surat tersebut, dari Future of Life Institute dan ditandatangani oleh para tokoh penting, ingin pengembangan dihentikan sementara pada tingkat itu, memperingatkan dalam surat mereka tentang risiko yang mungkin ditimbulkan oleh sistem yang lebih canggih di masa depan.
“Sistem AI dengan kecerdasan yang setara dengan manusia dapat menimbulkan risiko yang dalam terhadap masyarakat dan kemanusiaan,” tulis surat tersebut dikutip dari BBC, Jumat (31/3/2023).
Future of Life Institute adalah organisasi nirlaba yang mengatakan misinya adalah untuk “mengarahkan teknologi yang sangat berubah ke arah yang tidak berisiko dan bermanfaat bagi kehidupan”.
Elon Musk terdaftar sebagai penasihat eksternal organisasi tersebut. Menurut surat tersebut, AI canggih harus dikembangkan dengan hati-hati, namun sebaliknya, “selama beberapa bulan terakhir, perusahaan teknologi justru terlibat dalam perlombaan yang di luar kendali untuk mengembangkan AI yang lebih kuat yang tidak ada seorang pun – bahkan penciptanya, yang dapat memahami, memprediksi, atau mengendalikan.”
BACA JUGA: OpenAI Mulai Rilis GPT-4, ChatGPT Terbaru yang Lebih Canggih
Surat tersebut memperingatkan AI dapat membanjiri saluran informasi dengan disinformasi, dan menggantikan pekerjaan dengan otomatisasi. Dalam sebuah posting blog baru-baru ini yang dikutip dalam surat tersebut, OpenAI memperingatkan tentang risiko jika kecerdasan umum buatan (AGI) dikembangkan dengan sembrono.
“AGI supercerdas yang tidak sejalan dengan tujuan dapat menyebabkan kerusakan besar di dunia; rezim autokratik dengan keunggulan AGI yang kuat juga dapat melakukan hal itu. Koordinasi di antara upaya AGI untuk melambat pada saat-saat kritis kemungkinan akan penting,” tulis perusahaan tersebut.
Editor: Ranto Rajagukguk