Elon Musk dan Steve Wozniak Mendesak untuk Menghentikan Sementara Pelatihan Sistem AI

Sebuah surat yang ditandatangani oleh lebih dari 1000 tokoh teknologi, termasuk Elon Musk dan Steve Wozniak, mendesak untuk menghentikan pelatihan sistem kecerdasan buatan (AI) yang dapat mengungguli GPT-4 selama setidaknya enam bulan ke depan. Surat tersebut dibuat oleh Future of Life Institute dan menyatakan bahwa perlombaan tanpa kontrol dalam mengembangkan dan menerapkan pikiran digital yang lebih kuat dapat menjadi risiko eksistensial potensial yang tidak dapat diprediksi atau dikendalikan.

Para penandatangan surat tersebut meminta adanya moratorium pelatihan untuk mengembangkan protokol keselamatan dan etika bagi sistem AI yang kuat. Surat tersebut mendapat dukungan dari berbagai kalangan, termasuk pendiri Pinterest Evan Sharp, Presiden Bulletin of the Atomic Scientists Rachel Bronson, dan beberapa ahli di dunia AI seperti peneliti di DeepMind dan CEO Stability AI Emad Mostaque.

Menanggapi surat tersebut, Mostaque mengatakan bahwa kecepatan saat ini dalam perlombaan AI “tidak aman untuk sesuatu yang penciptanya anggap sebagai risiko eksistensial potensial.” Dia juga menambahkan bahwa “saatnya untuk mengambil napas, berkoordinasi, dan melanjutkan.”

Surat tersebut menyoroti rilis beberapa model AI besar, chatbot, dan generator gambar, termasuk GPT-4 milik OpenAI, Bing Chat, Bard chatbot Google, dan lainnya. Surat tersebut secara khusus menyebutkan OpenAI dalam meminta jeda pada pelatihan sistem AI masa depan yang lebih kuat dari GPT-4.

Partisipasi Musk sebagai penandatangan surat tersebut juga melanjutkan perseteruannya dengan OpenAI dan CEO-nya, Sam Altman. Musk membantu mendirikan dan mendanai OpenAI, tetapi mengatakan pada Altman pada tahun 2018 bahwa ia percaya usaha tersebut telah jatuh pada saat yang fatal di belakang Google. Musk kemudian mengusulkan untuk menjalankan OpenAI sendiri, tetapi para pendiri lain menolak gagasan tersebut, sehingga Musk meninggalkan perusahaan tersebut.

Sejak perusahaan tersebut merilis ChatGPT akhir tahun lalu, Musk secara terbuka mengkritik OpenAI di Twitter, memicu perlombaan di antara pesaing untuk merilis model AI mereka sendiri.

Beberapa ahli di dunia AI mengatakan bahwa meskipun ada kekhawatiran tentang risiko eksistensial yang mungkin terkait dengan pengembangan sistem AI yang sangat kuat, tetapi moratorium pada pelatihan sistem AI tidak dapat dilakukan secara efektif.

“Meskipun ada banyak kekhawatiran yang sah tentang risiko yang terkait dengan AI yang sangat kuat, tetapi gagasan untuk menghentikan pelatihan sepenuhnya tidak masuk akal,” kata David Ha, seorang peneliti di Google Brain.

Ha menambahkan bahwa yang perlu dilakukan adalah memperkuat keamanan dan etika dalam pengembangan sistem AI yang kuat, dan menyediakan kerangka kerja yang mampu mengontrol penggunaan teknologi AI agar tidak membahayakan manusia atau lingkungan.

Menurut peneliti dan ahli teknologi lainnya, pengembangan sistem AI yang semakin pintar dan kuat dapat memberikan manfaat yang besar bagi manusia, seperti mempercepat penemuan obat, meningkatkan keamanan di jalan raya, dan membantu dalam upaya mitigasi bencana alam.

Namun, penggunaan sistem AI yang tidak terkontrol dan tidak diatur dengan baik juga memiliki potensi untuk membawa dampak negatif yang serius, seperti pengangguran massal karena mesin menggantikan pekerja manusia, pengumpulan data yang berlebihan dan penyalahgunaan data, serta ancaman keamanan siber yang lebih besar.

Oleh karena itu, Future of Life Institute menekankan pentingnya pengembangan sistem AI yang aman, etis, dan bertanggung jawab.

Dalam surat tersebut, para penandatangan juga menegaskan bahwa keamanan dan etika harus menjadi prioritas utama dalam pengembangan teknologi AI, dan bahwa masyarakat harus terlibat secara aktif dalam menentukan bagaimana teknologi tersebut digunakan.

Para ahli juga menyoroti pentingnya kerjasama internasional dalam pengaturan teknologi AI, sehingga dapat dihindari perlombaan tanpa kontrol dalam pengembangan teknologi yang dapat membahayakan keamanan dan stabilitas global.

Pemerintah dan lembaga internasional juga diharapkan untuk mengambil peran penting dalam pengaturan dan pengawasan penggunaan teknologi AI, termasuk pembentukan standar etika dan protokol keselamatan untuk memastikan bahwa teknologi tersebut digunakan untuk kepentingan yang positif dan tidak membahayakan manusia atau lingkungan.

Sejumlah perusahaan teknologi, termasuk Google dan Microsoft, juga telah mengambil langkah-langkah untuk mengembangkan etika AI dan memastikan bahwa teknologi tersebut digunakan secara bertanggung jawab.

Google, misalnya, telah merilis panduan etika AI yang menekankan pentingnya keamanan, privasi, dan transparansi dalam pengembangan teknologi AI. Microsoft juga telah memperkenalkan prinsip-prinsip etika AI yang menempatkan keselamatan dan kepercayaan sebagai prioritas utama.

Namun, masih banyak pekerjaan yang perlu dilakukan untuk memastikan bahwa teknologi AI dikembangkan dan digunakan secara bertanggung jawab. Surat dari Future of Life Institute dapat dianggap sebagai langkah awal yang penting dalam membuka diskusi tentang keamanan dan etika dalam pengembangan teknologi AI yang semakin pintar dan kuat.

Leave a Reply

Your email address will not be published. Required fields are marked *