Gemini Google DeepMind Meraih Pingat Emas Rasmi di Olimpiad Matematik Antarabangsa, Mencetuskan Perdebatan Mengenai Pertandingan AI Lawan Manusia

Pasukan Komuniti BigGo
Gemini Google DeepMind Meraih Pingat Emas Rasmi di Olimpiad Matematik Antarabangsa, Mencetuskan Perdebatan Mengenai Pertandingan AI Lawan Manusia

Google DeepMind telah mencapai pencapaian penting dengan meraih prestasi pingat emas rasmi pertama untuk sistem AI di Olimpiad Matematik Antarabangsa (IMO). Model Gemini Deep Think canggih mereka berjaya menyelesaikan 5 daripada 6 masalah, memperoleh markah 35 daripada 42 mata - memenuhi ambang pingat emas. Pencapaian ini datang hanya beberapa hari selepas OpenAI membuat dakwaan serupa, tetapi keputusan Google membawa pengiktirafan rasmi daripada penyelaras IMO.

Perbandingan Prestasi:

  • Google Gemini Deep Think : 35/42 mata (5 masalah diselesaikan)
  • OpenAI o3 : 35/42 mata (5 masalah diselesaikan)
  • Kedua-dua sistem gagal pada Masalah 6 (yang paling mencabar)
  • Ambang pingat emas: 35/42 mata
  • Had masa pertandingan: 4.5 jam

Perlumbaan untuk Kecemerlangan AI Matematik

Masa pengumuman ini telah mewujudkan kontroversi dalam komuniti AI. OpenAI mengeluarkan keputusan IMO mereka pada hari yang sama dengan majlis penutup pertandingan, walaupun terdapat permintaan daripada penganjur untuk menunggu seminggu supaya peserta pelajar dapat menerima pengiktirafan yang sewajarnya terlebih dahulu. Google, sebaliknya, mengambil bahagian dalam program rasmi dengan penyelaras IMO dan menghormati garis masa yang diminta. Perbezaan pendekatan ini telah menarik kritikan terhadap pengendalian situasi oleh OpenAI, dengan ramai yang melihatnya sebagai mengutamakan publisiti berbanding menghormati ahli matematik muda yang bertanding.

Pencapaian teknikal itu sendiri adalah luar biasa. Kedua-dua sistem AI menyelesaikan lima masalah yang sama dan gagal pada yang keenam - yang paling mencabar yang biasanya memerlukan kreativiti yang ketara. Walau bagaimanapun, pendekatan Google mewakili peralihan besar daripada kaedah tahun lepas, beralih daripada bahasa matematik formal seperti Lean untuk bekerja sepenuhnya dalam bahasa semula jadi dalam had masa pertandingan 4.5 jam.

Perbezaan Pendekatan Teknikal:

  • Google 2025: Bahasa semula jadi hujung ke hujung, 4.5 jam, penyelarasan rasmi IMO
  • Google 2024: Memerlukan terjemahan manual kepada bahasa formal Lean, pengkomputeran 2-3 hari
  • OpenAI 2025: Dinilai sendiri oleh bekas pemenang pingat IMO, tiada penyelarasan rasmi

Persoalan Mengenai Keadilan dan Metodologi

Komuniti sedang giat memperdebatkan apa yang sebenarnya dimaksudkan oleh keputusan ini untuk keupayaan AI. Ahli matematik terkenal Terence Tao telah menimbulkan persoalan penting mengenai perbandingan prestasi AI dengan peserta manusia, menyatakan bahawa keadaan boleh berbeza secara dramatik. Sistem AI berpotensi menggunakan sumber pengiraan yang besar, pemprosesan selari, dan data latihan khusus - kelebihan yang tidak tersedia untuk peserta manusia.

Adalah menggoda untuk melihat keupayaan teknologi AI semasa sebagai kuantiti tunggal: sama ada tugas X tertentu berada dalam keupayaan alat semasa, atau tidak. Walau bagaimanapun, sebenarnya terdapat penyebaran yang sangat luas dalam keupayaan (beberapa urutan magnitud) bergantung pada sumber dan bantuan yang diberikan kepada alat tersebut.

Kekurangan ketelusan mengenai kos pengiraan amat membimbangkan pemerhati. Baik Google mahupun OpenAI tidak mendedahkan berapa banyak kuasa pengiraan yang diperlukan untuk mencapai keputusan ini, membawa kepada spekulasi bahawa kos kewangan boleh menjadi sangat besar - berpotensi beribu-ribu dolar Amerika Syarikat bagi setiap masalah yang diselesaikan.

Kesan Lebih Luas Terhadap Matematik

Walaupun pencapaian ini secara teknikal mengagumkan, ahli matematik menyatakan perasaan bercampur-baur mengenai kepentingannya. Ramai yang menunjukkan bahawa matematik pertandingan berbeza secara ketara daripada matematik penyelidikan, di mana matlamatnya adalah pemahaman dan bukannya hanya mencari jawapan yang betul. Ketakutan bukanlah bahawa AI akan menggantikan ahli matematik, tetapi ia mungkin mengubah cara pengetahuan matematik dicipta dan disahkan.

Perdebatan juga menyentuh sama ada AI patut menggunakan alat pengesahan formal. Ada yang berpendapat bahawa alat seperti pembuktian teorem Lean akan menjadikan penyelesaian lebih dipercayai, manakala yang lain melihat nilai dalam menunjukkan keupayaan penaakulan tulen tanpa bantuan luar. Pilihan Google untuk bekerja dalam bahasa semula jadi mewakili pertaruhan bahawa pendekatan kecerdasan am akhirnya akan terbukti lebih berharga daripada kaedah formal khusus.

Konteks Pertandingan IMO:

  • Pertandingan tahunan sejak 1959
  • 6 pelajar elit pra-universiti bagi setiap negara
  • 6 masalah merangkumi algebra, kombinatorik, geometri, teori nombor
  • ~8% daripada peserta menerima pingat emas
  • Masalah direka bentuk untuk dapat diselesaikan oleh manusia dalam jangka masa pertandingan

Memandang ke Hadapan

Perkembangan ini menandakan titik perubahan yang jelas dalam keupayaan matematik AI, beralih daripada alat khusus kepada sistem penaakulan yang lebih umum. Walau bagaimanapun, persoalan penting kekal mengenai kos, skalabiliti, dan aplikasi dunia sebenar. Kontroversi mengenai masa pengumuman juga menyerlahkan ketegangan yang lebih luas dalam industri AI antara ketegasan saintifik dan persaingan komersial.

Apabila sistem AI terus menyamai dan melebihi prestasi manusia dalam domain khusus, komuniti matematik menghadapi keputusan penting mengenai cara mengintegrasikan alat ini sambil memelihara elemen manusia yang menjadikan matematik bermakna. Keputusan IMO adalah mengagumkan, tetapi ia hanya permulaan perbualan yang jauh lebih besar mengenai peranan AI dalam usaha intelektual manusia.

Rujukan: Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad