Kesatuan Eropah telah menerbitkan kod amalan komprehensif untuk syarikat AI, menetapkan pentas untuk perbincangan hangat mengenai sama ada peraturan ketat akan melindungi pengguna atau menghalang kemajuan teknologi. Peraturan baharu ini, yang menjadi sukarela pada 2 Ogos dan mandatori menjelang Ogos 2026, menyasarkan pembangun AI utama seperti Google, Meta, dan OpenAI dengan keperluan ketelusan dan keselamatan yang tidak pernah ada sebelumnya.
Komuniti teknologi terbahagi dalam mengenai perkembangan ini. Walaupun sesetengah pihak melihat EU sebagai mengambil pendekatan progresif terhadap tadbir urus AI, yang lain bimbang mengenai rantau ini semakin ketinggalan dalam perlumbaan AI global.
Garis Masa Utama:
- 2 Ogos 2025: Pematuhan sukarela bermula untuk syarikat AI utama
- Ogos 2026: Penguatkuasaan penuh Akta AI EU bermula
- 5-10 hari: Jangka masa yang diperlukan untuk melaporkan insiden AI serius kepada Pejabat AI EU
![]() |
---|
Mesyuarat pembuat keputusan membincangkan implikasi peraturan AI baharu di European Union |
Perlindungan Hak Cipta Menjadi Tumpuan Utama
Salah satu keperluan yang paling kontroversial memaksa syarikat AI berjanji bahawa mereka tidak akan sekali-kali menggunakan bahan cetak rompak untuk melatih model mereka. Ini secara langsung mencabar amalan industri semasa, di mana syarikat seperti Meta telah menggunakan set data buku tanpa kebenaran dan mempertahankan amalan tersebut dengan mendakwa buku individu mempunyai nilai latihan yang minimum.
Peraturan baharu memerlukan syarikat mencipta sistem dalaman untuk mengendalikan aduan hak cipta dan membenarkan pencipta kandungan memilih untuk tidak disertakan dalam set data latihan AI. Ini mewakili peralihan ketara daripada pendekatan minta maaf kemudian yang telah diterima pakai oleh banyak syarikat AI.
Keperluan Ketelusan Boleh Membentuk Semula Pembangunan AI
Peraturan tersebut menuntut pendedahan yang tidak pernah ada sebelumnya daripada syarikat AI mengenai proses latihan mereka. Syarikat mesti mendedahkan maklumat terperinci mengenai sumber data mereka, menerangkan keputusan reka bentuk utama, dan menyatakan sama ada mereka menggunakan data awam, data pengguna, atau data sintetik untuk latihan.
Dorongan ketelusan ini meluas kepada infrastruktur teknikal juga. Syarikat mesti mendedahkan jumlah penggunaan tenaga mereka untuk kedua-dua latihan dan menjalankan model AI, membolehkan pengawal selia memantau kesan alam sekitar. Mereka juga mesti menghormati paywall laman web dan fail robots.txt yang menyekat crawling automatik.
Pendedahan yang Diperlukan:
- Sumber data latihan yang terperinci dan rasional
- Jumlah penggunaan tenaga untuk latihan dan inferens
- Pilihan reka bentuk model utama dan justifikasi
- Langkah perlindungan keselamatan siber
- Penjejakan dan pelaporan insiden serius
Pemantauan Keselamatan dan Pelaporan Insiden
Kod tersebut menetapkan protokol keselamatan ketat yang memerlukan syarikat memantau insiden serius termasuk pelanggaran keselamatan siber, gangguan infrastruktur, dan potensi bahaya kepada kesihatan manusia. Syarikat mempunyai hanya 5-10 hari untuk melaporkan insiden sedemikian kepada Pejabat AI EU.
Langkah keselamatan ini juga termasuk keperluan untuk mencegah jailbreaking - percubaan untuk memintas kawalan keselamatan AI - dan mengekalkan perlindungan keselamatan siber yang mencukupi di seluruh sistem mereka.
Komuniti Berpecah Mengenai Kesan Inovasi
Komuniti teknologi kekal terbahagi tajam mengenai sama ada peraturan ini akan membantu atau membahayakan pembangunan AI. Penyokong berhujah bahawa pematuhan peraturan dari hari pertama mencipta kelebihan daya saing untuk sistem AI yang mematuhi EU, terutamanya untuk syarikat yang menyasarkan pasaran Eropah.
Oh, kami tidak dapat menjelaskannya, ia adalah kotak hitam. Maka jelaskan bagaimana anda membuatnya, jika tidak ia adalah tidak boleh.
Pengkritik bimbang bahawa keperluan pematuhan yang berat akan menghalau pembangunan AI dari Eropah sepenuhnya, meninggalkan rantau ini bergantung kepada sistem AI asing sementara inovasi tempatan terjejas. Mereka menunjuk kepada kekurangan syarikat teknologi utama EU yang setanding dengan gergasi Amerika sebagai bukti bahawa peraturan mungkin tidak produktif.
Struktur Penalti:
- Sehingga 7% daripada jualan tahunan: Denda maksimum untuk pelanggaran Akta AI
- Sehingga 3% daripada jualan tahunan: Denda untuk syarikat yang membangunkan model AI termaju
- Penyingkiran pasaran: Model AI boleh ditarik balik dari pasaran EU kerana ketidakpatuhan
Model Sumber Terbuka Menghadapi Masa Depan Yang Tidak Jelas
Peraturan baharu mencipta cabaran khusus untuk model AI sumber terbuka, di mana pencipta tidak dapat mengawal bagaimana model mereka digunakan atau menjejaki output mereka. Komuniti masih memperdebatkan sama ada keperluan ini secara berkesan mengharamkan pembangunan AI sumber terbuka atau jika tanggungjawab beralih kepada syarikat yang menggunakan model ini dalam produk mereka.
Pendekatan penguatkuasaan kekal tidak jelas, dengan sesetengah pihak mencadangkan bahawa pengguna model sumber terbuka akan menjadi bertanggungjawab untuk pematuhan dan bukannya pembangun asal.
Melihat Ke Hadapan
Apabila tarikh pematuhan sukarela Ogos 2025 menghampiri, industri AI menghadapi titik keputusan kritikal. Syarikat yang menerima peraturan sukarela mungkin mendapat manfaat daripada beban pentadbiran yang berkurangan kemudian, sementara mereka yang menentang boleh menghadapi proses pematuhan yang lebih mahal apabila penguatkuasaan bermula pada 2026.
Pertaruhannya tinggi, dengan potensi denda mencapai sehingga 7% daripada jualan tahunan untuk pelanggaran. Rangka kerja kawal selia ini boleh membentuk semula secara asasnya bagaimana syarikat AI beroperasi, bukan sahaja di Eropah tetapi secara global, kerana kos pematuhan dan keperluan ketelusan mempengaruhi amalan pembangunan di seluruh dunia.
Rujukan: Everything tech giants will hate about the EU's new AI rules