OpenAI rilis model AGI o3 lebih bernalar, tantang Google

OpenAI mengadopsi strategi “penyelarasan yang disengaja” untuk memastikan penerapan yang etis dan bermitra dengan penguji dan peneliti keamanan.

Hendrik Syahputra
A- A+
CEO OpenAI, Sam Altman | cover
OpenAI telah meluncurkan keluarga model o3 barunya, yang menggantikan model “penalaran” o1 dan semakin mendekati apa yang disebutnya kinerja tingkat Artificial General Intelligence (AGI). 

Kemajuan ini dapat menandai titik balik dalam cara model AI berpikir, merencanakan, dan memecahkan masalah pada tingkat yang menyaingi, dan terkadang melampaui, kemampuan manusia.

Model o3 dan o3-mini mengikuti pendekatan penalaran o1 dan mengklaim kemampuan mendekati AGI dalam kondisi yang terkendali. Mereka memperkenalkan mekanisme “rantai pemikiran pribadi”, yang melakukan pengecekan fakta dan perencanaan secara internal sebelum memberikan jawaban.
"Kami mengundang para peneliti keselamatan untuk mengajukan akses awal ke model-model terdepan kami. Program akses awal ini melengkapi proses pengujian model terdepan kami yang sudah ada, yang mencakup pengujian keselamatan internal yang ketat, kerja sama tim merah eksternal seperti Jaringan Kerja Sama Tim Merah kami ⁠dan kolaborasi dengan organisasi pengujian pihak ketiga, serta Institut Keselamatan AI AS dan Institut Keselamatan AI Inggris," ungkap OpenAI di laman resminya, dikutip Sabtu (21/12/2024).
Model-model tersebut dapat dikonfigurasikan dengan berbagai pengaturan “komputasi”, mengorbankan kecepatan demi respons yang lebih andal dan berkualitas tinggi. Tolok ukur kinerja menunjukkan o3 melampaui pendahulunya dan mengalahkan model teratas lainnya dalam pengkodean, matematika, dan penalaran ilmiah.

"Seiring dengan semakin canggihnya model, kami berharap wawasan dari komunitas keselamatan yang lebih luas dapat menghadirkan perspektif baru, memperdalam pemahaman kami tentang risiko yang muncul, mengembangkan evaluasi baru, dan menyoroti area untuk memajukan penelitian keselamatan," jelasnya.

Namun, penalaran yang lebih kuat dapat menyebabkan meningkatnya risiko penipuan, sehingga menantang para peneliti untuk menjaga keamanan dan keselarasan. OpenAI mengadopsi strategi “penyelarasan yang disengaja” untuk memastikan penerapan yang etis dan bermitra dengan penguji dan peneliti keamanan.

"Model menjadi lebih canggih dengan cepat, yang berarti diperlukan teknik pemodelan, evaluasi, dan pengujian ancaman baru. Kami berinvestasi besar dalam upaya ini sebagai perusahaan, seperti merancang teknik pengukuran baru di bawah Kerangka Kesiapsiagaan kami ⁠(terbuka di jendela baru), dan difokuskan pada area di mana model penalaran tingkat lanjut, seperti seri o kami, dapat menimbulkan risiko yang lebih tinggi," terangnya.

Pesaing seperti Google juga meluncurkan model penalaran mereka sendiri yang dibenamkan di AI Studio Google, yang memicu meningkatnya perlombaan dalam inovasi AI. Peneliti keamanan dapat meminta akses awal ke o3-mini. Model o3 lengkap akan diluncurkan setelah fase penelitian, dengan peluncuran yang lebih luas diharapkan menjelang akhir Januari untuk o3-mini dan segera setelahnya untuk o3 itu sendiri.

"Kami percaya bahwa dunia akan mendapat manfaat dari lebih banyak penelitian yang berkaitan dengan pemodelan ancaman, analisis keamanan, evaluasi keselamatan, penggalian kemampuan, dan banyak lagi," jelasnya.
Apakah konten ini bermanfaat?
Dukung dengan memberikan satu kali kontribusi.

Share:
PRO
Berbasis data.
Paling diminati.

Bisnis Terkini
Lihat semua
Komentar
Login ke akun PRO untuk melihat dan berkomentar.



Terkini

Indeks