Oude wijn in nieuwe zakken…
De ophef is weer compleet en neemt zoals altijd hysterische vormen aan. Want:
Sinds de komst van AI kan van elk mens nep-opnamen gemaakt worden. Zelfs porno! Owee! Gruwel! Misdadig! Weg met AI! Enzovoorts. Zucht.
Als liefhebber van fotografie (en film) zal ik je iets vertellen: Dit bestaat al tientallen jaren, al voor AI bekend werd. En ik denk dat er ook voor die tijd al ‘nep’ afbeeldingen werden gemaakt: schilderijen van bekende mensen, die zogenaamd naakt poseerden… Of gewoonweg mooier gemaakte kunst van mensen en dingen, omdat het kon. En kan. En steeds beter door de almaar voortschrijdende technische mogelijkheden.
Werd dit vroeger dan misschien nog beperkt door de kennis en kunde die je moest hebben van bepaalde (schilder- en fotografische) technieken; nu installeer je Photoshop op je computer of een nieuw ontwikkeld en heel simpel AI-programma, wat van elk ‘net’ mens een pornoster maakt.
Photoshop bestaat trouwens al sinds 1990… En ik weet heel goed dat er sinds die tijd van vrijwel elke bekende (meer of minder mooie) vrouw ‘geshopte’ foto’s zijn gemaakt. Speciale pornosites staan er vol mee. En ook ik heb er wel een aantal in bezit. Van mensen zoals Emma Watson, Jennifer Lawrence of Greta Thunberg… Ja echt, van elk mens weten ze wel iets ‘erotisch’ te maken.
Emma, Jennifer en Greta… Fake nudes.
Beetje zielig wel…
Eigenlijk is dat mijn mening. Maar dat geldt al voor de opgeleukte foto’s van modellen die bewust verbeterd worden om ze er in de reclame veel mooier uit te laten zien, dan ze in werkelijkheid van dichtbij zijn. ‘Zo oud als de weg naar Kralingen’… Daarom haat ik de reclame ook zo: alles wat ze zogenaamd zo mooi (en lekker) voorstellen is allemaal nep. Maar mensen worden gewoon graag bedonderd. Dat is een feit. Want met de realiteit willen veel mensen liever niets te maken hebben… En dat vind ik dus zielig.
Die fake-porno wordt gemaakt omdat de makers (en kijkers…) dit gewoon ‘leuk’ vinden. Kicken toch? Om bekende vrouwelijke politici, actrices en andere bekenden te zien neuken?
Vroeger werd er dan meestal alleen nog door de paparazzi fanatiek gezocht naar momenten dat ‘celebrities’ een slippertje maakten en op het strand, in de tuin of per ongeluk op de rode loper een blote tepel lieten zien. Klik-klik-klik: wereldnieuws! 😉
Soms kwamen er rechtszaken van, als de ‘slachtoffers’ dit niet wilden laten publiceren. Soms wonnen ze dit dan ook en kregen ze een flinke schadevergoeding.
Tegenwoordig kan bijna iedereen elk onwaarschijnlijk scenario maken op de computer. Foto en film. Soft en hard. Alles kan.
Het verschil is dan tegenwoordig wel steeds minder goed te zien door die almaar verbeterde techniek. Ligt Sylvana IJsselmuiden nu echt keihard te neuken met die kerel, of…
Soms doen mensen het wel eens in het echt, weet je wel… En dan maken ze daar zogenaamd zelf een filmpje van, wat niet had mogen uitlekken maar wat toch is gebeurd… Daar hoor je ook zo vaak sappig nieuws over. Waar is de grens? Technisch gezien zie ik die niet.
De moraal
Dit is alles waar het om draait. Mensen schreeuwen moord en brand als er iets van ‘nep’ opnamen van hen zijn verspreid. Zoals een Matthijs van Nieuwkerk die expres voor een documentaire even extra ‘uit z’n bol ging’, wat nu wordt gezien als ‘grensoverschrijdend gedrag’. Of de hilarische en wereldwijd hysterisch ontvangen Photoshop foto van de Engelse prinses Kate, die ze nota bene zelf heeft gemaakt! Dit soort mensen wil nu eenmaal niet ‘minder leuk’ in de media verschijnen, dus je wil gewoon niet weten wat er allemaal aan NEP opnamen in kranten en op internet verschijnen. Misschien wel bijna alles, zeker van celebrities.
Actuele wereldberoemde ‘geshopte’ foto’s van het Engelse koningshuis!
Seksueel getinte en zelfs harde porno opnamen zijn dan misschien van een andere orde.
Maar eigenlijk: waarom? Als iets nep is, hoe subtiel ook, is het nep. Als iets niet gepubliceerd mag worden, zou je daar beter sluitende regelgeving voor kunnen maken. Die bestaat nu al, maar dat houdt nog onvoldoende rekening met de nieuwste (AI-) technieken. Daarmee houd je de maak ervan echter niet tegen. Zoals ik al eerder zei: iedereen kan feitelijk alles maken en verspreiden. Als je dit niet wil laten gebeuren, zou je nooit en te nimmer meer een foto of film van jezelf mogen laten maken. Want van alles en iedereen kan iets ‘geshopt’ worden.
Op dit moment valt het maken van wat voor ‘fake’ opnamen dan ook niet tegen te houden.
Wat wel dringend veranderd moet worden, wat in deze tijd ook niet eenvoudig is: de moraal. Mensen schieten volledig in de stress of krijgen zelfs langdurige trauma’s als een simpele naaktopname van hen is verspreid. Of het nu via scholen, sportclubs, collega’s op werk of via een ‘vriendenkring’ is: het kan altijd gebeuren. Sommige mensen kicken juist op het maken van kinky opnamen… Anderen vinden dit een schande. Want het naakte lichaam mag niet zomaar getoond worden. Deze bekrompen opvattingen moeten de wereld uit. Want elk mens wordt naakt geboren en de meeste mensen doen iets aan seks. Dit is geen misdaad. Wie hier ophef over maakt, veroorzaakt zelf de grootste ellende. Zowel de ‘slachtoffers’ als de mensen die het zo zwaar opnemen als ze dit per ongeluk zien. Juist die aandacht maakt het leuk voor de makers. Die kicken op het ‘leed’ van de slachtoffers. Word geen slachtoffer. Sta er boven. Dan stopt het een keer vanzelf.
Als de algehele moraal nu eindelijk eens zou veranderen en naakt en seksualiteit de gewoonste dingen van het leven worden, wat ze feitelijk ook gewoon zijn, dan verandert ook de wens van die gefrustreerde makers van fake opnamen. Er zal dan simpelweg gewoon genoeg regulier te zien zijn en gebeuren, overal. Dan behoeft niemand meer zo nodig ‘spannende’ nep situaties te maken. Als iedereen ‘gezonder’ gaat denken over deze gewone en natuurlijke dingen, die voor heel veel mensen wel ‘normaal’ zijn, dan houdt ook dit soort misbruik op. Ooit. Maar helaas vrees ik dat de huidige tendens meer in de richting gaat van ‘harder aanpakken en straffen’. Dom dom dom…
Het gaat nog veel erger worden, mensen! Eigen schuld. 😉
Fantastiche ????
I can’t wait to see what the authorities try to do when 10-year-old kids make and share porno deepfakes
Exactly. Everyone (who likes it) can do it. Unstoppable. The more ’they’ want to hide, the more they will see created. 😉