Het conflict tussen Israël en Hamas heeft een onverwachte wending genomen door de invloed van kunstmatige intelligentie (AI). Hoewel de vervalsingen gerelateerd aan het conflict beperkt en grotendeels onovertuigend zijn geweest, heeft hun aanwezigheid mensen doen twijfelen aan echt bewijsmateriaal1. Een gruwelijk beeld van een verkoold lichaam, beschreven als een overleden kind, verspreidde zich snel over het internet. Sommige waarnemers op sociale media verwierpen het snel als een “AI-gegenereerde nep” – gecreëerd met behulp van AI-tools die fotorealistische beelden kunnen produceren met een paar klikken1.
Sinds de terreuraanval van Hamas op 7 oktober hebben desinformatiewaakhonden gevreesd dat vervalsingen gecreëerd door AI-tools, inclusief de realistische weergaven bekend als deepfakes, het publiek zouden verwarren en propaganda-inspanningen zouden versterken1. Tot nu toe hebben ze gelijk gehad in hun voorspelling dat de technologie een grote rol zou spelen in de oorlog – maar niet precies om de reden die ze dachten. Desinformatieonderzoekers hebben relatief weinig AI-nepinhoud gevonden, en nog minder die overtuigend zijn. Toch leidt de loutere mogelijkheid dat AI-inhoud in omloop zou kunnen zijn, ertoe dat mensen echte beelden, video’s en audio als onecht afwijzen1.
Kunstmatige intelligentie is het afgelopen jaar sterk verbeterd, waardoor bijna iedereen een overtuigende nep kan creëren door tekst in te voeren in populaire AI-generatoren die beelden, video’s of audio produceren, of door geavanceerdere tools te gebruiken1. Toen in het voorjaar van 2022 een deepfake-video van president Volodymyr Zelensky van Oekraïne werd uitgebracht, werd deze algemeen belachelijk gemaakt als te ruw om echt te zijn; een soortgelijke vervalste video van president Vladimir V. …1. Tijdens zeer emotionele discussies over Gaza, die veelal plaatsvinden op sociale mediaplatforms die moeite hebben om gebruikers te beschermen tegen grafische en onnauwkeurige inhoud, blijft het vertrouwen afbrokkelen1.
Nu zeggen experts dat kwaadwillende agenten gebruik maken van de beschikbaarheid van AI om authentieke inhoud als nep af te wijzen – een concept dat bekend staat als de leugenaarsdividend1. Hun misleiding tijdens de oorlog is deels versterkt door de aanwezigheid van enige inhoud die kunstmatig is gecreëerd1. Een post op X met 1,8 miljoen views beweerde voetbalfans in een stadion in Madrid te tonen die een enorme Palestijnse vlag vasthielden; gebruikers merkten op dat de vervormde lichamen in het beeld een duidelijk teken waren van AI-generatie1. Een Hamas-gerelateerd account op X deelde een afbeelding die bedoeld was om een tentenkamp voor ontheemde Israëli’s te tonen, maar toonde een vlag met twee blauwe sterren in plaats van de enkele ster die op de daadwerkelijke Israëlische vlag staat1. De post werd later verwijderd1.