![]() |
| cover | topik.id |
OpenAI menyatakan kekhawatirannya bahwa teknologi artificial intelligence (AI) berpotensi disalahgunakan oleh penjahat siber, terutama seiring kemampuan model yang terus meningkat. Risiko ini mencakup kemungkinan model AI dijadikan alat untuk memperkuat serangan digital. Karena itu, OpenAI menilai pentingnya memperkuat kolaborasi di tingkat industri.
Untuk menghadapi ancaman tersebut, OpenAI bekerja sama dengan berbagai laboratorium AI besar melalui Frontier Model Forum. Forum nirlaba ini berfungsi sebagai wadah untuk membangun pemahaman kolektif mengenai model ancaman AI. Tujuannya agar industri memiliki acuan yang sama dalam menghadapi penyalahgunaan teknologi.
"Untuk mengatasi hal ini, kami bekerja sama dengan laboratorium terdepan lainnya melalui Frontier Model Forum, sebuah organisasi nirlaba yang didukung oleh laboratorium AI terkemuka dan mitra industri, untuk mengembangkan pemahaman bersama tentang model ancaman dan praktik terbaik," tulis OpenAI dalam laporan resminya, seperti dilansir topik.id, Kamis (11/12/2025).
Dalam kolaborasi ini, pemodelan ancaman menjadi langkah kunci. Pendekatan tersebut membantu mengidentifikasi bagaimana AI bisa disalahgunakan, apa saja hambatan bagi pelaku kejahatan, dan di titik mana model AI memberikan risiko tambahan. Dengan begitu, mitigasi dapat disusun lebih tepat sasaran.
Selain pemodelan ancaman, forum ini juga mendorong pertukaran wawasan keamanan agar informasi penting dapat tersebar cepat ke seluruh ekosistem AI. Hal ini dinilai penting karena ancaman siber berkembang sangat dinamis. Konsistensi pemahaman juga mencegah kesenjangan keamanan antar pelaku industri.
OpenAI turut menggandeng tim eksternal untuk membangun evaluasi keamanan siber independen. Evaluasi ini diharapkan menjadi fondasi bersama untuk memantau kemampuan model AI menghadapi potensi penyalahgunaan. Ekosistem evaluasi yang terbuka dinilai mampu meningkatkan kepercayaan dan transparansi.
"Kami juga terlibat dengan tim eksternal untuk mengembangkan evaluasi keamanan siber. Kami berharap ekosistem evaluasi independen akan semakin membantu membangun pemahaman bersama tentang kemampuan model," ungkap OpenAI.
Secara keseluruhan, OpenAI menegaskan komitmennya memperkuat sisi pertahanan dalam perkembangan AI. Perusahaan asal Amerika Serikat itu ingin memastikan kemampuan model tidak hanya maju, melainkan memberikan manfaat nyata bagi pihak pembela keamanan. Pendekatan ini dibentuk oleh kebutuhan lapangan dan masukan dari para ahli.
OpenAI juga merincikan akan menjajaki inisiatif dan hibah baru untuk memicu inovasi pertahanan siber yang lebih kreatif. Mereka ingin membuka ruang bagi ide-ide radikal yang mungkin tidak muncul dari jalur konvensional. Upaya ini akan terus dikembangkan seiring evaluasi efektivitas langkah-langkah yang ada.
"Secara keseluruhan, ini adalah pekerjaan yang berkelanjutan, dan kami berharap untuk terus mengembangkan program-program ini seiring kami mempelajari apa yang paling efektif untuk memajukan keamanan dunia nyata," tutup OpenAI dalam laporan tersebut.
.png.webp)