JAKARTA, RADIANTVOICE.ID – Sejak Israel memulai serangan udara terhadap Iran pada 13 Juni lalu, gelombang disinformasi masif membanjiri dunia maya. Berdasarkan laporan BBC Verify, dicatat puluhan unggahan yang memperbesar narasi kehebatan serangan balasan Iran dan keberhasilan menghancurkan target-target penting di Israel.
Dalam analisisnya, BBC Verify menemukan banyak video palsu, termasuk hasil rekayasa kecerdasan buatan (AI), yang menampilkan kekuatan militer Iran. Tiga video palsu terpopuler yang berhasil dilacak bahkan telah ditonton lebih dari 100 juta kali lintas platform.
Namun, disinformasi tidak hanya datang dari satu sisi. Akun-akun pro-Israel juga turut menyebarkan klip-klip lama yang diklaim sebagai unjuk rasa baru di Iran untuk menunjukkan bahwa rakyat negeri itu mendukung aksi militer Israel. Banyak dari unggahan tersebut terbukti rekaman lama yang didaur ulang.
Sebuah organisasi pengamat gambar menyebut tingkat penyebaran hoaks ini sebagai sesuatu yang “mencengangkan”. Mereka menyebut banyak konten datang dari “petani engagement” yang mengejar keuntungan lewat konten manipulatif demi viralitas di media sosial.
“Kami melihat semuanya, dari cuplikan tak terkait dari Pakistan, video daur ulang serangan Oktober 2024, hingga cuplikan gim video dan konten buatan AI yang diklaim sebagai kejadian nyata,” tulis kelompok verifikasi Geoconfirmed di platform X sebagaimana dilansir dari BBC.
Salah satu akun pro-Iran yang jadi sorotan, Daily Iran Military, mengalami lonjakan pengikut dari 700 ribu menjadi 1,4 juta hanya dalam waktu enam hari. Akun ini termasuk di antara banyak akun “obskur” bercentang biru yang muncul masif, menyebarkan disinformasi secara konsisten.
AI dan Propaganda Visual
Menurut Emmanuelle Saliba dari kelompok analis Get Real, konflik Israel-Iran ini menandai “pertama kalinya AI generatif digunakan dalam skala besar selama perang berlangsung.” Laporan BBC Verify juga menemukan gambar AI yang menggambarkan rudal hujan di Tel Aviv serta klip palsu penyerangan malam hari yang sulit diverifikasi.
Isu besar lainnya adalah penyebaran informasi palsu mengenai kehancuran jet tempur F-35 milik Israel. Salah satu unggahan menampilkan jet yang “ditembak jatuh” di gurun Iran, namun terlihat jelas manipulasi AI: ukuran warga sipil di video tak sebanding dengan kendaraan di sekitarnya, dan pasir tak menunjukkan dampak ledakan. Video lain yang meraih 21 juta penonton di TikTok berasal dari gim simulator penerbangan, bukan kejadian nyata.
Lisa Kaplan dari lembaga Alethea mengatakan, narasi ini banyak didorong oleh jaringan akun yang sebelumnya dikaitkan dengan operasi pengaruh Rusia.
“Rusia tidak punya balasan terhadap F-35. Maka yang mereka lakukan adalah merusak persepsi publik terhadap jet ini,” ujarnya.
Dukungan Resmi dan AI “Halusinasi”
Ironisnya, beberapa media resmi di Iran dan Israel ikut menyebarkan konten palsu. Media pemerintah Iran membagikan gambar jet F-35 jatuh yang dibuat AI, sementara akun resmi militer Israel sempat mengunggah video lama dan tak relevan yang kemudian diberi label koreksi oleh komunitas di X.
Platform X sendiri banyak menjadi tempat penyebaran hoaks, termasuk melalui chatbot AI-nya, Grok. Dalam beberapa kasus, Grok justru mengklaim video AI sebagai kejadian nyata, bahkan mengutip laporan dari media seperti Newsweek dan Reuters untuk memperkuat klaimnya. X menolak berkomentar pada permintaan BBC Verify.
TikTok dalam pernyataannya menyebut aktif menghapus konten yang terbukti menyesatkan, sementara Meta (pemilik Instagram), tidak memberikan respons.
Motif dan Psikologi Penyebaran
Matthew Facciani, peneliti dari University of Notre Dame, mengatakan bahwa disinformasi menyebar lebih cepat ketika publik terpolarisasi, seperti dalam isu konflik. “Orang cenderung membagikan konten yang sesuai dengan identitas politik mereka, terutama yang emosional dan sensasional,” jelasnya.
Di tengah meningkatnya potensi keterlibatan AS dalam konflik dan kemungkinan serangan terhadap situs nuklir Iran, disinformasi berbasis AI ini diprediksi akan terus meningkat, memperkeruh situasi yang sudah genting (RED).
Discussion about this post