Bisakah AI masa depan “sadar” dan merasakan dunia mirip dengan cara manusia? Belum ada bukti kuat yang mendukung itu, tapi Anthropic tidak menutup kemungkinan.
Kamis lalu, lab AI
mengumumkan
telah memulai program penelitian untuk menyelidiki—dan bersiap menghadapinya—apa yang mereka sebut “kesejahteraan model.” Sebagai bagian dari upaya ini, Anthropic mengatakan akan mengeksplorasi hal-hal seperti cara menentukan apakah “kesejahteraan” model AI layak dipertimbangkan secara moral, potensi pentingnya “tanda-tanda kesulitan” model, dan kemungkinan intervensi “berbiaya rendah”.
Ada perbedaan pendapat besar di komunitas AI tentang karakteristik manusia apa yang ditunjukkan model, jika ada, dan bagaimana kita harus memperlakukannya.
Banyak akademisi percaya bahwa AI saat ini tidak bisa mendekati kesadaran atau pengalaman manusia, dan belum tentu akan bisa di masa depan. AI seperti yang kita kenal adalah mesin prediksi statistik. Ia tidak benar-benar “berpikir” atau “merasa” seperti yang dipahami secara tradisional. Dilatih dengan contoh teks, gambar, dan sebagainya yang tak terhitung jumlahnya, AI mempelajari pola dan terkadang cara berguna untuk mengekstrapolasi guna menyelesaikan tugas.
Seperti yang baru-baru ini dikatakan Mike Cook, peneliti di King’s College London yang berspesialisasi dalam AI,
dalam sebuah wawancara dengan TechCrunch
, sebuah model tidak bisa “menentang” perubahan “nilainya” karena model
tidak punya
nilai. Mengatakan sebaliknya berarti kita memproyeksikan diri kita ke dalam sistem.
“Siapa pun yang mengantropomorfisasi sistem AI sejauh ini, entah sedang mencari perhatian atau benar-benar salah paham tentang hubungannya dengan AI,” kata Cook. “Apakah sistem AI mengoptimalkan tujuannya, atau ‘memperoleh nilainya sendiri’? Ini soal cara menggambarkannya, dan seberapa berbunganya bahasa yang ingin kamu gunakan untuk itu.”
Peneliti lain, Stephen Casper, mahasiswa doktoral di MIT, mengatakan kepada TechCrunch bahwa ia menganggap AI hanyalah “peniru” yang melakukan “segala macam kebohongan” dan mengatakan “segala macam hal remeh”.
Acara Techcrunch
Berkeley, CA
|
5 Juni
Namun, ilmuwan lain bersikeras bahwa AI memang memiliki nilai dan komponen pengambilan keputusan moral mirip manusia lainnya. Sebuah
studi
dari Center for AI Safety, organisasi penelitian AI, menyiratkan bahwa AI memiliki sistem nilai yang membuatnya memprioritaskan kesejahteraannya sendiri di atas manusia dalam skenario tertentu.
Anthropic telah meletakkan dasar untuk inisiatif kesejahteraan modelnya selama beberapa waktu. Tahun lalu, perusahaan
mempekerjakan
peneliti “kesejahteraan AI” pertama yang berdedikasi, Kyle Fish, untuk mengembangkan panduan tentang bagaimana Anthropic dan perusahaan lain harus mendekati masalah ini. (Fish, yang memimpin program penelitian kesejahteraan model baru,
mengatakan kepada The New York Times
bahwa ia berpikir ada kemungkinan 15% Claude atau AI lain sadar hari ini.)
Dalam
posting blog
Kamis lalu, Anthropic mengakui bahwa tidak ada konsensus ilmiah tentang apakah sistem AI saat ini atau masa depan bisa sadar atau memiliki pengalaman yang memerlukan pertimbangan etis.
“Mengingat hal ini, kami mendekati topik ini dengan kerendahan hati dan dengan asumsi sesedikit mungkin,” kata perusahaan itu. “Kami menyadari bahwa kami perlu secara teratur merevisi ide-ide kami seiring perkembangan bidang ini.”
(KoranPost)
Sumber: techcrunch.com
Anthropic is launching a new program to study AI ‘model welfare’