Jabatan Pertahanan Amerika Syarikat telah menganugerahkan kontrak prototaip bernilai sehingga 200 juta dolar Amerika setiap satu kepada empat syarikat AI utama: Anthropic , Google , OpenAI , dan xAI . Ini menandakan pengembangan ketara integrasi AI ke dalam operasi pertahanan, tetapi langkah ini telah mencetuskan perdebatan sengit mengenai keupayaan pengawasan dan implikasi etika.
Kontrak-kontrak tersebut, yang diumumkan melalui Chief Digital and Artificial Intelligence Office ( CDAO ), distrukturkan sebagai perjanjian sehingga dan bukannya pembiayaan yang dijamin. Orang dalam industri menyatakan bahawa bajet awal sebenar biasanya 10-100 kali lebih kecil daripada had yang dinyatakan, dengan pembiayaan penuh bergantung kepada pembangunan prototaip yang berjaya.
Penerima Kontrak dan Nilai:
- Anthropic : Sehingga $200 juta USD
- Google : Sehingga $200 juta USD
- OpenAI : Sehingga $200 juta USD
- xAI : Sehingga $200 juta USD
- Jenis Kontrak: Perjanjian transaksi lain prototaip dua tahun
- Agensi Pemberi Anugerah: Department of Defense Chief Digital and Artificial Intelligence Office ( CDAO )
Keupayaan Pengawasan Massa Menimbulkan Penggera Privasi
Perbincangan komuniti teknologi mendedahkan kebimbangan mendalam mengenai potensi AI untuk mengubah pengawasan kerajaan. Teknologi ini boleh membolehkan analisis automatik sejumlah besar komunikasi yang dipintas melalui sistem penapisan hierarki. Model asas akan menandakan kandungan yang berpotensi menarik terlebih dahulu, kemudian menyerahkannya kepada sistem yang lebih canggih untuk analisis terperinci.
Pendekatan ini boleh menjadikan pengawasan menyeluruh komunikasi tidak berenkripsi secara teknikal boleh dilaksanakan pada skala yang tidak pernah berlaku sebelum ini. Implikasinya melangkaui pengumpulan data tradisional, kerana sistem AI boleh menyimpulkan makna daripada corak halus dan konteks yang mungkin terlepas oleh penganalisis manusia.
Nota: Panopticon merujuk kepada reka bentuk penjara teori di mana semua banduan boleh diperhatikan oleh seorang pengawal, sering digunakan secara metafora untuk menggambarkan sistem pengawasan menyeluruh.
Etika Berbanding Imperatif Keselamatan Negara
Penglibatan Anthropic , yang terkenal dengan penekanannya terhadap keselamatan AI dan penggunaan yang bertanggungjawab, amat mengejutkan pemerhati. Syarikat ini telah membina reputasinya dalam penjajaran model dan pencegahan kemudaratan, membawa kepada persoalan mengenai konsistensi antara nilai yang dinyatakan dan aplikasi pertahanan.
Jika anda memberikan saya enam baris yang ditulis oleh tangan lelaki yang paling jujur, saya akan menemui sesuatu di dalamnya yang akan menggantungnya.
Petikan sejarah ini, yang dirujuk dalam perbincangan komuniti, menyerlahkan kebimbangan mengenai sistem AI yang digunakan secara proaktif untuk membina kes terhadap individu dan bukannya secara reaktif untuk tujuan keselamatan yang sah.
Walau bagaimanapun, ada yang berpendapat bahawa melibatkan syarikat yang berfokus kepada keselamatan dalam pembangunan AI pertahanan adalah lebih baik daripada alternatif. Jika penggunaan AI ketenteraan tidak dapat dielakkan, mempunyai organisasi dengan protokol keselamatan yang mantap dan rangka kerja etika yang mengambil bahagian boleh membantu mencegah penyalahgunaan.
Pelaksanaan Teknikal dan Kebimbangan Praktikal
Perdebatan komuniti juga menyentuh mengenai batasan praktikal teknologi AI semasa. Walaupun model bahasa besar cemerlang dalam pemprosesan bahasa semula jadi berbanding kaedah lama, ia datang dengan kos pengiraan yang ketara - berpotensi 10,000 kali lebih mahal daripada pendekatan tradisional untuk tugas yang serupa.
Persoalan kekal mengenai apa yang akan diterima oleh kerajaan untuk pelaburan ini. Sesetengah pemerhati membandingkannya dengan pengaturan perundingan pertahanan biasa, mencadangkan kontrak mungkin terutamanya menghasilkan cadangan strategik dan demonstrasi prototaip dan bukannya sistem operasi.
Kemasukan xAI bersama pemain yang lebih mantap telah menimbulkan kening, memandangkan kemasukan syarikat yang agak baru ke dalam ruang AI dan aplikasi ketenteraan yang tidak jelas.
Aktiviti Kontrak Utama:
- Membangunkan prototaip kerja yang diselarashalus menggunakan data DOD
- Bekerjasama dalam mitigasi risiko AI musuhan
- Bertukar-tukar pandangan teknikal dan maklum balas operasi
- Mempercepatkan penggunaan AI yang bertanggungjawab merentasi perusahaan pertahanan
- Nota: Belanjawan awal sebenar biasanya 10-100x lebih kecil daripada had maksimum kontrak
Implikasi Lebih Luas untuk Industri AI
Perkembangan ini mewakili peralihan ketara dalam cara syarikat AI terlibat dengan kontrak kerajaan. Penglibatan serentak berbilang pemain utama menunjukkan Pentagon melindung nilai taruhannya sambil memupuk persaingan dalam keupayaan AI ketenteraan.
Kontrak-kontrak tersebut dibina berdasarkan hubungan sedia ada, termasuk kerja Anthropic sebelum ini dengan Lawrence Livermore National Laboratory dan integrasi dengan kontraktor pertahanan Palantir . Perkongsian ini menunjukkan ekosistem yang berkembang bagi aplikasi AI dalam operasi kerajaan yang sensitif.
Seiring dengan kemajuan teknologi AI yang berterusan, keseimbangan antara aplikasi keselamatan negara dan kebimbangan kebebasan sivil berkemungkinan kekal sebagai isu yang dipertikaikan. Kejayaan atau kegagalan kontrak awal ini mungkin membentuk pendekatan perolehan dan peraturan AI kerajaan masa depan.
Rujukan: Anthropic and the Department of Defense to advance responsible Al in defense operations
