AI Google Gemini Terdedah kepada Serangan Pancingan Data Melalui Manipulasi Teks E-mel Tersembunyi

Pasukan Editorial BigGo
AI Google Gemini Terdedah kepada Serangan Pancingan Data Melalui Manipulasi Teks E-mel Tersembunyi

Kelemahan keselamatan kritikal dalam AI Google Gemini telah ditemui yang membolehkan penjenayah siber memanipulasi ringkasan e-mel dan memperdaya pengguna untuk terjebak dengan penipuan pancingan data yang canggih. Kelemahan ini mengeksploitasi ciri ringkasan e-mel Gemini dalam Gmail Workspace, yang berpotensi meletakkan berjuta-juta pengguna dalam risiko kecurian kelayakan dan serangan kejuruteraan sosial.

Bagaimana Serangan Ini Berfungsi

Penyelidik keselamatan Marco Figueroa menemui kelemahan ini, yang menggunakan teknik yang dipanggil suntikan gesaan. Penyerang mencipta e-mel yang mengandungi teks tidak kelihatan menggunakan manipulasi HTML dan CSS, menetapkan saiz fon kepada sifar dan warna kepada putih. Walaupun penerima tidak dapat melihat kandungan tersembunyi ini, AI Gemini memprosesnya semasa menjana ringkasan e-mel. Teks berniat jahat mengandungi arahan yang menyebabkan Gemini memaparkan amaran keselamatan palsu atau makluman mendesak dalam output ringkasan.

Serangan ini memintas penapis spam tradisional kerana ia tidak bergantung pada pautan atau lampiran yang mencurigakan. Sebaliknya, ia memanipulasi pemprosesan bahasa semula jadi AI untuk mencipta amaran yang kelihatan sah. Dalam contoh yang didokumentasikan, gesaan tersembunyi mengarahkan Gemini untuk memberi amaran kepada pengguna bahawa kata laluan Gmail mereka telah terjejas dan memberikan nombor telefon palsu untuk sokongan.

Butiran Kaedah Serangan:

  • Teknik: Suntikan gesaan menggunakan teks HTML/CSS yang tidak kelihatan
  • Sasaran: Pengguna Gmail Workspace yang menggunakan ringkasan AI Gemini
  • Kaedah Pintasan: Mengelakkan penapis spam dengan tidak menggunakan pautan atau lampiran
  • Keterlihatan: Teks tersembunyi menggunakan saiz fon sifar dan warna putih
  • Penemuan: Penyelidik keselamatan Marco Figueroa

Penipuan Kelihatan Sah

Kelemahan ini amat berbahaya kerana amaran palsu kelihatan datang terus dari sistem AI Google. Pengguna yang mempercayai ringkasan Gemini mungkin tidak mempersoalkan makluman yang seolah-olah berasal dari perkhidmatan rasmi Google. Penipuan ini mengeksploitasi pergantungan yang semakin meningkat terhadap kandungan yang dijana AI dan andaian pengguna bahawa ringkasan ini selamat dan boleh dipercayai.

Teknik teks tidak kelihatan cukup canggih sehingga mangsa tidak melihat apa-apa yang mencurigakan dalam e-mel asal. Mereka hanya menghadapi kandungan berniat jahat apabila mereka meminta ringkasan AI, menjadikan vektor serangan hampir tidak dapat dikesan tanpa pengetahuan teknikal.

Respons Google dan Status Semasa

Google mengakui kebimbangan keselamatan apabila dihubungi oleh penyelidik tetapi menyatakan mereka tidak memerhatikan bukti kelemahan ini dieksploitasi secara meluas. Syarikat itu merujuk kepada pertahanan sedia ada terhadap serangan suntikan gesaan dan menekankan usaha pengukuhan keselamatan yang berterusan. Wakil Google menyebut bahawa langkah perlindungan tambahan sedang digunakan, walaupun butiran khusus tidak diberikan.

Gergasi teknologi itu menyerlahkan latihan pasukan merah mereka yang direka untuk melatih model AI terhadap serangan musuh. Walau bagaimanapun, penemuan ini menunjukkan bahawa perlindungan semasa mungkin tidak mencukupi untuk mencegah semua bentuk manipulasi gesaan.

Strategi Perlindungan dan Kesedaran Pengguna

Pakar keselamatan mengesyorkan beberapa langkah pertahanan untuk organisasi yang menggunakan Gemini dalam persekitaran Workspace. Sistem e-mel harus menapis atau meneutralkan kandungan teks tersembunyi sebelum pemprosesan AI berlaku. Selain itu, penapis pasca-pemprosesan boleh mengimbas output AI untuk elemen mencurigakan seperti nombor telefon yang tidak dijangka, amaran mendesak, atau makluman keselamatan yang tidak berkaitan dengan kandungan e-mel yang kelihatan.

Bagi pengguna individu, keraguan kekal sebagai pertahanan terbaik. Sebarang amaran keselamatan mendesak yang muncul dalam ringkasan AI harus diteliti dengan teliti, terutamanya jika ia kelihatan tidak berkaitan dengan tujuan e-mel yang jelas. Pengguna juga harus memerhatikan tanda-tanda pancingan data, seperti ejaan yang salah seperti GMail bukannya Gmail atau permintaan untuk menghubungi nombor telefon untuk sokongan Google.

Langkah Perlindungan yang Disyorkan:

  • Buang atau neutralkan kandungan teks tersembunyi sebelum pemprosesan AI
  • Laksanakan penapis pasca-pemprosesan untuk output yang mencurigakan
  • Imbas untuk URL, nombor telefon, atau amaran keselamatan yang tidak dijangka
  • Pendidikan pekerja mengenai batasan ringkasan AI
  • Kekalkan sikap skeptikal terhadap amaran segera yang dijana AI

Implikasi Lebih Luas untuk Keselamatan AI

Kelemahan ini menyerlahkan cabaran keselamatan yang semakin meningkat apabila alat AI menjadi lebih terintegrasi dalam aliran kerja harian. Insiden ini menunjukkan bagaimana penyerang menyesuaikan teknik pancingan data tradisional untuk mengeksploitasi ciri berkuasa AI yang baharu. Apabila organisasi semakin bergantung pada AI untuk produktiviti dan membuat keputusan, memastikan sistem ini tidak boleh dimanipulasi menjadi kritikal untuk mengekalkan keselamatan siber.

Penemuan ini berfungsi sebagai peringatan bahawa ringkasan AI, walaupun mudah, tidak seharusnya menggantikan semakan teliti komunikasi penting. Pengguna mesti mengimbangi keuntungan kecekapan dari bantuan AI dengan berhati-hati dan amalan pengesahan yang sesuai.