![]() |
CEO OpenAI, Sam Altman | @x/ist |
Pemangkasan harga tersebut bukan hasil dari perubahan pada arsitektur model, melainkan berkat pengoptimalan tumpukan inferensi yang meningkatkan efisiensi proses pemrosesan model. Dengan demikian, performa o3 tetap sama, tetapi biaya operasionalnya menjadi jauh lebih rendah. OpenAI pun merekomendasikan penggunaan model ini untuk berbagai tugas seperti pengodean, pemanggilan alat agen, pemanggilan fungsi, serta tugas-tugas yang membutuhkan kepatuhan terhadap instruksi.
Tak hanya itu, OpenAI juga memperkenalkan o3-pro, sebuah versi o3 yang lebih intensif secara komputasi. O3-pro dirancang khusus untuk menangani masalah yang lebih kompleks dan menuntut jawaban yang sangat andal. Menariknya, harga o3-pro juga mengalami penurunan drastis sebesar 87%, sehingga kini hanya memerlukan $20 per 1 juta token input dan $80 per 1 juta token output.
"Kami memotong harga o3 sebesar 80% dan memperkenalkan o3-pro di API, yang menggunakan lebih banyak komputasi. o3: Masukan: $2 / 1 juta token, Keluaran: $ 8 / 1 juta token. Sekarang berlaku. Kami mengoptimalkan tumpukan inferensi yang melayani o3. Model yang sama persis—hanya saja lebih murah," tulis OpenAI dalan pengumuman resminya, dilansir Rabu (11/6/2025).
Model o3-pro tersedia melalui Responses API dengan label o3-pro-2025-06-10. Model ini mendukung berbagai fitur canggih, termasuk input gambar, pemanggilan fungsi, serta output terstruktur. Namun, karena kompleksitas proses inferensinya, beberapa permintaan mungkin memerlukan waktu pemrosesan hingga beberapa menit. Untuk mengatasi hal ini, OpenAI kini menyediakan mode latar belakang guna mencegah permintaan yang memakan waktu terlalu lama mengalami timeout.
Sebagai catatan, token dalam konteks LLM adalah unit semantik yang digunakan model untuk memproses bahasa. Penetapan harga berbasis jumlah token per juta ini telah menjadi standar industri dalam layanan API LLM. Dengan penurunan harga ini, penggunaan model yang sebelumnya dianggap mahal kini menjadi lebih terjangkau bagi berbagai kalangan pengembang.
Penerunan harga ini membuka peluang baru bagi pengembang yang membutuhkan kemampuan penalaran tingkat lanjut dalam aplikasi. Kini, pengembang dapat mengakses model o3 dengan biaya serupa model GPT-4.1 dan bahkan lebih murah daripada GPT-4o. Dengan demikian, OpenAI memberikan alternatif menarik bagi pengembang yang selama ini mempertimbangkan efisiensi biaya dalam pengembangan aplikasi berbasis AI.
Pembaruan harga ini juga merupakan respons langsung terhadap persaingan yang semakin sengit di pasar LLM. Google DeepMind dengan Gemini 2.5 Pro sebelumnya memimpin dalam menawarkan kemampuan AI canggih.
CEO OpenAI, Sam Altman meyakini OpenAI hadir dengan penawaran harga yang sangat kompetitif. Hal ini diperkirakan akan mendorong inovasi dan percepatan adopsi LLM di berbagai industri.
"Rencana yang diberikan o3 kepada kami masuk akal dan beralasan; namun rencana yang diberikan o3 Pro kepada kami cukup spesifik dan mendasar sehingga benar-benar mengubah cara kami berpikir tentang masa depan," tulis Sam Altman.
Gemini 2.5 Pro
Google secara resmi merilis Gemini 2.5, versi baru model penalaran artificial intelligence (AI) yang berhenti sejenak untuk "berpikir" sebelum menjawab pertanyaan.
Model pertama dalam seri ini, Gemini 2.5 Pro Experimental , unggul dalam berbagai tolok ukur, memperlihatkan kemajuan dalam kemampuan penalaran dan pengodean.
Kepala Teknisi Google DeepMind, Koray Kavukcuoglu mengungkapkan Gemini 2.5, model AI Google yang paling cerdas. Rilis 2.5 pertama adalah versi eksperimental dari 2.5 Pro, yang merupakan versi mutakhir pada berbagai benchmark dan memulai debutnya di peringkat #1 di LMArena dengan selisih yang signifikan.
"Model Gemini 2.5 merupakan model pemikir, yang mampu menalar melalui pikirannya sebelum merespons, sehingga menghasilkan peningkatan kinerja dan akurasi yang lebih baik," jelas Koray, dikutip topik.id Rabu (26/3/2025).
Gemini 2.5 dirancang untuk memecahkan masalah kompleks dengan kinerja dan akurasi yang ditingkatkan. Kemampuan penalaran model ini melampaui klasifikasi dan prediksi sederhana, model ini mencakup analisis informasi, penarikan kesimpulan, dan pengambilan keputusan yang tepat.
"Dalam bidang AI, kapasitas sistem untuk "bernalar" mengacu pada lebih dari sekadar klasifikasi dan prediksi. Kapasitas ini mengacu pada kemampuannya untuk menganalisis informasi, menarik kesimpulan logis, memasukkan konteks dan nuansa, serta membuat keputusan yang tepat," jelasnya.
Berdasarkan model sebelumnya, Gemini 2.5 mengintegrasikan teknik pasca-pelatihan yang lebih baik untuk meningkatkan kemampuan penalarannya.