Jakarta, jurnalpijar.com —
Ilmuwan Max Tegmark mengungkap bahaya nyata dari munculnya teknologi kecerdasan buatan (AI). Namun, menurutnya, bahaya tersebut disembunyikan oleh banyak raksasa teknologi.
Max mengatakan peralihan fokus dari kepunahan makhluk hidup ke konsep risiko keamanan yang lebih luas akibat kecerdasan buatan berdampak buruk pada tertundanya penerapan peraturan terkait teknologi tersebut.
“Model AI yang dapat lulus Tes Turing [di mana seseorang tidak dapat mengatakan dalam percakapan bahwa mereka tidak sedang berbicara dengan manusia lain] adalah peringatan yang sama untuk jenis AI yang dapat membuat Anda kehilangan kendali,” kata Max. . mengutip The Guardian, Senin (27/05).
“Itulah mengapa orang-orang seperti Geoffrey Hinton dan Joshua Bengio – dan bahkan banyak eksekutif teknologi, setidaknya secara pribadi – kini panik,” lanjutnya.
Lembaga nirlaba Max, Institute for the Future of Life, tahun lalu menyerukan “jeda” selama enam bulan dalam penelitian AI tingkat lanjut karena kekhawatiran tersebut. Ia juga menyoroti peluncuran model OpenAI GPT-4 dan membuktikan bahwa risikonya sangat dekat.
Meskipun ribuan tanda tangan dari para ahli, termasuk Hinton dan Bengio, dua dari tiga “bapak” kecerdasan buatan yang memelopori pendekatan pembelajaran mesin yang mendasari bidang ini saat ini, belum ada terobosan yang dicapai.
“Kami ingin surat itu melegitimasi pembicaraan tersebut dan kami sangat senang dengan hasilnya.” Saat orang melihat orang seperti Bengio khawatir, mereka berpikir, “Saya bisa mengatasinya.” Bahkan orang di pompa bensin saya kemudian mengatakan kepada saya bahwa dia khawatir kecerdasan buatan akan menggantikan kita,” kata Max.
Tapi sekarang kita harus beralih dari bicara ke tindakan,” lanjutnya.
Namun, fokus regulasi AI internasional telah bergeser dari risiko yang ada. Menurut Max, tidaklah sehat untuk meremehkan risiko yang paling serius.
“Itulah yang saya harapkan dari lobi industri,” jelasnya.
“Tentu AI saat ini juga menimbulkan kerugian: ada bias, merugikan kelompok marginal,” lanjutnya.
Para pengkritik Max membuat argumen yang sama dengan klaimnya sendiri, bahwa industri ingin semua orang membicarakan risiko-risiko hipotetis di masa depan untuk mengalihkan perhatian dari bahaya-bahaya nyata yang ada saat ini.
“Bahkan jika Anda memikirkannya berdasarkan manfaatnya sendiri, ini adalah wawasan yang sangat luas: Ini akan menjadi catur 4D bagi seseorang seperti [pemimpin OpenAI] Sam Altman untuk menghindari peraturan, memberi tahu semua orang bahwa dia dapat membunuh siapa pun, dan kemudian mencoba meyakinkan orang-orang seperti itu. kami membunyikan alarm, – kata Max.
Sebaliknya, menurutnya, tidak adanya dukungan dari beberapa bos teknologi adalah karena mereka semua merasa terjebak dalam situasi yang mustahil karena meskipun mereka ingin berhenti, mereka tidak bisa.
(perintah/dmi)
Tinggalkan Balasan