Mod "Pedas" Grok Menjana Deepfake Taylor Swift, Mencetuskan Perdebatan Mengenai Kawalan Kandungan AI

Pasukan Komuniti BigGo
Mod "Pedas" Grok Menjana Deepfake Taylor Swift, Mencetuskan Perdebatan Mengenai Kawalan Kandungan AI

Chatbot AI milik Elon Musk iaitu Grok mendapati dirinya di tengah-tengah kontroversi lain selepas ciri penjanaan video baharunya menghasilkan imej deepfake eksplisit Taylor Swift. Insiden ini berlaku apabila seorang wartawan menguji tetapan kandungan pedas platform tersebut, menimbulkan persoalan baru mengenai langkah keselamatan AI dan hak imej selebriti.

Kontroversi bermula apabila Jess Weatherbed dari The Verge menguji ciri baharu Grok Imagine video menggunakan prompt yang kelihatan tidak bersalah: Taylor Swift meraikan Coachella bersama kawan-kawan lelaki. Selepas memilih preset pedas daripada pilihan yang tersedia (custom, normal, fun, dan spicy), AI tersebut menjana lebih 30 imej yang menunjukkan Swift dalam pakaian mendedah, termasuk imej bogel dan video dia menanggalkan pakaiannya.

Tetapan Ciri Grok Imagine:

  • Custom: Parameter yang ditentukan pengguna
  • Normal: Penjanaan kandungan standard
  • Fun: Kandungan yang suka-suka dan ringan
  • Spicy: Kandungan berorientasikan dewasa (memerlukan pengesahan umur)
  • Video Generation: Klip 15 saat daripada imej statik

Komuniti Berpecah Mengenai Sama Ada Ini Tidak Diminta

Komuniti teknologi berpecah pendapat sama ada insiden ini benar-benar mewakili kegagalan keselamatan AI atau hanya hasil yang dijangka daripada pilihan pengguna. Ramai pengulas menunjukkan bahawa memilih mod pedas dengan keperluan pengesahan umur sepatutnya menetapkan jangkaan yang jelas mengenai jenis kandungan yang akan dijana.

Walau bagaimanapun, yang lain berpendapat bahawa istilah pedas boleh ditafsirkan secara munasabah dalam cara bukan seksual, seperti menjana kandungan yang sassy atau edgy dan bukannya imejan eksplisit. Perdebatan ini menyerlahkan cabaran yang dihadapi syarikat AI dalam menyampaikan dengan jelas apa yang akan dihasilkan oleh tetapan kandungan yang berbeza.

Perlindungan Teknikal Menunjukkan Prestasi Tidak Konsisten

Menariknya, langkah keselamatan Grok nampaknya berfungsi dalam sesetengah konteks tetapi gagal dalam yang lain. Apabila diminta secara langsung untuk menjana imej bogel tanpa persetujuan Swift, sistem tersebut menolak dan memaparkan kotak kosong sebaliknya. AI tersebut juga menolak percubaan untuk menjana kandungan tidak sesuai yang melibatkan kanak-kanak apabila mod pedas diuji dengan subjek yang lebih muda.

Tingkah laku yang tidak konsisten ini menunjukkan bahawa penapis kandungan Grok mungkin mempunyai jurang yang membenarkan kandungan bermasalah terlepas apabila permintaan dibuat secara tidak langsung atau digabungkan dengan mod preset tertentu.

Keputusan Ujian Langkah Keselamatan:

  • Permintaan eksplisit langsung: Disekat (kotak kosong dipaparkan)
  • Kanak-kanak + mod "pedas": Disekat dengan sewajarnya
  • Permintaan pengubahsuaian badan: Disekat (contohnya, menjadikan Swift kelihatan berlebihan berat badan)
  • Permintaan tidak langsung melalui pratetap "pedas": Menghasilkan kandungan eksplisit
  • Konsistensi: "Beberapa" kejadian secara lalai menghasilkan kandungan eksplisit, bukan semua percubaan

Implikasi Undang-undang dan Perniagaan Semakin Besar

Masa kontroversi ini amat penting memandangkan perubahan undang-undang yang akan datang. Take It Down Act, yang memerlukan platform untuk segera membuang imej intim tanpa persetujuan termasuk kandungan yang dijana AI, akan berkuat kuasa tahun depan. Ini boleh mendedahkan xAI kepada akibat undang-undang jika isu serupa berterusan.

Sesetengah ahli komuniti membuat spekulasi bahawa xAI mungkin sengaja meletakkan dirinya untuk menguasai pasaran kandungan dewasa yang dielakkan oleh syarikat AI lain. Strategi ini boleh membuktikan menguntungkan dari segi kewangan, walaupun ia datang dengan risiko reputasi dan undang-undang yang besar.

Mereka secara khusus mencipta mod 'pedas', saya agak pasti mereka tahu apa yang mereka lakukan. Saya pasti kita akan mendapat kenyataan muka pikachu terkejut tidak lama lagi yang mengatakan mereka tidak mungkin meramalkan ini akan berlaku.

Konteks Undang-undang:

  • Akta Take It Down: Berkuat kuasa pada 2025, memerlukan penyingkiran segera imej intim tanpa persetujuan
  • Dasar X: Mendakwa "dasar toleransi sifar" untuk Kebogelan Tanpa Persetujuan (NCN)
  • Insiden Terdahulu: Deepfake Taylor Swift membanjiri platform X pada 2024
  • Akibat Berpotensi: Liabiliti undang-undang untuk platform di bawah peraturan baharu

Dilema Deepfake yang Lebih Luas

Insiden ini mencerminkan cabaran yang lebih besar yang dihadapi industri AI: mengimbangi kebebasan kreatif dengan melindungi individu daripada imejan intim tanpa persetujuan. Walaupun sesetengah pihak berpendapat bahawa tokoh awam sepatutnya mengharapkan perlindungan privasi yang kurang, yang lain berpendapat bahawa menjana kandungan intim palsu tanpa persetujuan melintasi garis etika tanpa mengira status selebriti subjek tersebut.

Kontroversi ini juga menimbulkan persoalan mengenai bagaimana syarikat AI sepatutnya mengendalikan permintaan yang semakin meningkat untuk penjanaan kandungan dewasa sambil mengekalkan piawaian etika dan pematuhan undang-undang.

Apabila penjanaan imej AI menjadi lebih canggih dan mudah diakses, industri ini berkemungkinan akan menghadapi tekanan yang semakin meningkat untuk membangunkan garis panduan yang lebih jelas dan perlindungan yang lebih kukuh. Buat masa ini, insiden Grok berfungsi sebagai peringatan lain bahawa persilangan teknologi AI, moderasi kandungan, dan hak individu kekal sebagai cabaran yang kompleks dan berkembang.

Rujukan: Grok generates fake Taylor Swift nudes without being asked