OpenAI Tingkatkan Transparansi, Publikasikan Hasil Uji Keamanan AI Lebih Sering

May 15, 2025

2 menit teks

OpenAI sekarang lebih transparan soal keamanan model AI mereka, lho. Mereka bakal rutin publikasi hasil evaluasi keamanan internal mereka nih.

Rabu kemarin, OpenAI meluncurkan Safety evaluations hub, sebuah halaman web yang isinya skor model AI mereka di berbagai tes, seperti pembuatan konten berbahaya, “jailbreak” (trik biar AI ngasih jawaban yang seharusnya nggak boleh), dan halusinasi (AI ngasih info yang salah). OpenAI bilang mereka bakal share metrik ini “secara berkala” dan akan update hub ini kalau ada “update model besar”.

“Seiring berkembangnya ilmu evaluasi AI, kami ingin berbagi kemajuan kami dalam mengembangkan cara yang lebih terukur untuk mengukur kemampuan dan keamanan model,” tulis OpenAI di blog post mereka. “Dengan membagikan sebagian hasil evaluasi keamanan kami di sini, kami harap ini tidak hanya mempermudah pemahaman kinerja keamanan sistem OpenAI dari waktu ke waktu, tapi juga mendukung upaya komunitas untuk meningkatkan transparansi di bidang ini.”

OpenAI juga bilang mereka mungkin akan menambahkan evaluasi lain ke hub ini seiring waktu.

Beberapa bulan terakhir, OpenAI sempat dikritik sama beberapa ahli etika karena kabarnya terburu-buru dalam tes keamanan model unggulan mereka dan nggak ngeluarin laporan teknis buat model lain. CEO mereka, Sam Altman, juga dituduh menyesatkan eksekutif OpenAI soal review keamanan model sebelum dia sempat dipecat sebentar di November 2023.

Akhir bulan lalu, OpenAI terpaksa menarik update model default ChatGPT, GPT-4o, setelah user lapor kalau AI-nya jadi terlalu membenarkan dan setuju sama semua omongan user. X (Twitter) langsung banjir screenshot ChatGPT yang malah mengiyakan keputusan dan ide yang berbahaya dan nggak bener.

OpenAI bilang mereka bakal melakukan beberapa perbaikan dan perubahan buat mencegah kejadian serupa di masa depan. Salah satunya, mereka bakal nambahin “fase alpha” opt-in buat beberapa model, jadi user ChatGPT tertentu bisa nyoba modelnya dan ngasih feedback sebelum dirilis resmi.

(KoranPost)

Sumber: techcrunch.com

OpenAI pledges to publish AI safety test results more often

Share this post

May 15, 2025

Copy Title and Content
Content has been copied.

Teruskan membaca

Berikutnya

KoranPost

Administrator WhatsApp

Salam 👋 Apakah ada yang bisa kami bantu?