Penjana Video AI Veo 3 Google Dieksploitasi untuk Mencipta Kandungan Perkauman Walaupun Ada Langkah Keselamatan

Pasukan Komuniti BigGo
Penjana Video AI Veo 3 Google Dieksploitasi untuk Mencipta Kandungan Perkauman Walaupun Ada Langkah Keselamatan

Penjana video AI terbaru Google , Veo 3 , telah menjadi alat yang tidak dijangka untuk mencipta kandungan berbahaya. Walaupun syarikat itu mempunyai dasar keselamatan dan perlindungan yang komprehensif, pengguna masih menemui cara untuk menghasilkan video perkauman dan antisemitik yang tersebar di platform media sosial seperti TikTok dan YouTube .

Situasi ini menyerlahkan cabaran yang semakin meningkat dalam pembangunan AI: mengimbangi kebebasan kreatif dengan keselamatan kandungan. Walaupun Google telah melabur besar-besaran untuk mencegah penyalahgunaan alat AI nya, kecanggihan kualiti output Veo 3 telah menjadikannya sangat menarik kepada mereka yang ingin mencipta kandungan yang membakar.

Ciri-ciri Kandungan:

  • Panjang video: Maksimum 8 saat
  • Tera air: Tera air " Veo " mengesahkan asal model AI Google
  • Jenis kandungan: Stereotaip perkauman yang menyasarkan komuniti kulit hitam, pendatang, dan Jewish
  • Kualiti: Output sempurna piksel dengan ciri-ciri penjanaan AI yang jelas

Ekonomi Penglibatan Mendorong Kandungan Berbahaya

Perbincangan komuniti mendedahkan bahawa kebanyakan video ini tidak semestinya dicipta oleh perkauman yang komited, tetapi oleh pencipta kandungan yang mengejar metrik penglibatan. Landskap media sosial moden memberi ganjaran kepada kandungan kontroversi dengan tontonan, komen, dan perkongsian - mewujudkan sistem insentif yang menyimpang di mana bahan yang keterlaluan menghasilkan pendapatan.

Ia bukan 'perkauman' sebenar, ia lebih kepada umpan api, di mana semakin keterlaluan dan gila sesuatu pandangan, semakin besar kemungkinan ia akan menarik perhatian dan mungkin juga mencetuskan reaksi.

Realiti ekonomi ini bermakna selagi platform memberi ganjaran kepada penglibatan berbanding kualiti, pencipta akan terus mencari cara untuk menghasilkan kandungan yang menarik perhatian, tanpa mengira kesan sosialnya. Masalah ini meluas melampaui perkauman kepada mana-mana topik yang mencetuskan respons emosi yang kuat.

Batasan Teknikal Sistem Keselamatan AI

Komuniti telah mengenal pasti kelemahan khusus dalam langkah keselamatan AI semasa. Gesaan yang samar-samar dan ketidakupayaan AI untuk memahami imej perkauman yang halus membolehkan pengguna memintas penapis kandungan. Sebagai contoh, menggunakan haiwan dan bukannya manusia dalam konteks tertentu boleh terlepas daripada sistem pengesanan automatik yang mencari pelanggaran yang jelas.

Batasan teknikal ini menunjukkan bahawa pendekatan semasa terhadap keselamatan AI mungkin tidak mencukupi secara asasnya. Sistem ini bergantung pada pengecaman corak dan penapisan kata kunci, tetapi kreativiti manusia dalam mencari jalan keluar sering melebihi kecanggihan langkah perlindungan ini.

Perjuangan Moderasi Platform

Kedua-dua TikTok dan Google mempunyai dasar yang jelas yang melarang ucapan kebencian dan kandungan perkauman. Walau bagaimanapun, penguatkuasaan kekal tidak konsisten dan reaktif dan bukannya proaktif. Jumlah muat naik harian TikTok yang besar menjadikan moderasi masa nyata hampir mustahil, manakala penapis kandungan Google nampaknya tidak mencukupi untuk mencegah penciptaan awal video bermasalah.

Skala platform media sosial moden mewujudkan cabaran moderasi yang wujud. Walaupun dengan sistem semakan kandungan yang dibantu AI, jumlah muat naik yang besar bermakna kandungan berbahaya sering tersebar secara meluas sebelum dikesan dan dikeluarkan.

Respons Dasar:

  • TikTok: Lebih separuh daripada akaun yang disebut telah diharamkan sebelum penerbitan laporan MediaMatters
  • Google: Dasar Penggunaan Terlarang yang komprehensif mengharamkan ucapan kebencian dan gangguan
  • Jurang penguatkuasaan: Dasar wujud tetapi pelaksanaan masih tidak mencukupi

Implikasi yang Lebih Luas untuk Pembangunan AI

Situasi ini menimbulkan persoalan asas tentang pembangunan dan penggunaan alat AI yang berkuasa. Sesetengah ahli komuniti berpendapat bahawa teknologi itu sendiri bukanlah masalah - perkauman wujud lama sebelum penjana video AI. Yang lain berpendapat bahawa alat ini menguatkan masalah sosial sedia ada dengan memudahkan penciptaan dan pengedaran kandungan berbahaya secara besar-besaran.

Perdebatan ini mencerminkan ketegangan yang lebih luas dalam industri teknologi antara inovasi dan tanggungjawab. Memandangkan keupayaan AI terus berkembang dengan pesat, cabaran untuk mencegah penyalahgunaan menjadi semakin kompleks dan mendesak.

Insiden dengan Veo 3 berfungsi sebagai amaran tentang akibat yang tidak diingini daripada alat AI yang berkuasa. Walaupun teknologi ini mempunyai aplikasi kreatif yang sah, penyalahgunaannya menunjukkan keperluan untuk langkah keselamatan yang lebih canggih dan mungkin perubahan asas kepada cara platform media sosial memberi insentif kepada penciptaan kandungan.

Rujukan: TikTok is being flooded with racist AI videos generated by Google's Veo 3