Intelligenza Artificiale e la nuova frontiera del DeepFake
Dilagano gli allarmi sulla minaccia di Fake News costruite con l’Intelligenza Artificiale. Le cosiddette Deep Fake contro le quali, tanto per dirne una, in Italia, l’Ordine Nazionale dei Giornalisti scende in campo sbandierando il caso del clone di una giornalista RAI che, da un finto Tg1, annunciava l’omicidio del virologo Bassetti o di quello di una giornalista Sky che presentava false dichiarazioni del professor Garattini contro i vaccini usati al tempo del Covid. Allarmismo spesso condito dai media mainstream con l’immancabile russofobia.
Ad esempio, citando in ogni dove il falso video di Zelensky che, nel marzo 2022, ordinava alle sue truppe di arrendersi ai russi. Video che, con buona pace di blasonati “esperti” si direbbe essere stato confezionato non già dai russi bensì dall’intelligence NATO per convincere Zelensky che ogni sua dichiarazione difforme dal volere dei suoi burattinai sarebbe stata neutralizzata sul nascere.
Ma, forse, l’esempio più famoso di Deep Fake avente una finalità ben diversa da quella apparente è stato il video del decollo dell’aereo da Kabul con afgani aggrappati alle sue ali. Video spacciato inizialmente come autentico dai media mainstream nonostante evidentissime incongruenze quali la folla di afgani (nessuno con una borsa o una valigia) che, festosamente, rincorreva l’aereo militare statunitense per salirvi a bordo, l’assenza della turbina nel vano motore e tante altre cosucce che lasciamo al vostro acume. Video che – dopo essere stato veicolato da innumerevoli TG e da post sui social – veniva additato come Deep Fake verosimilmente per neutralizzare le vere immagini della fuga da Kabul attestanti per gli Usa una sconfitta militare forse superiore a quella del Vietnam. Una operazione, tra l’altro, riproposta con confusi “debunking” di altre immagini inerenti l’Afghanistan.
Le considerazioni sull’uso che i media maistream stanno facendo delle Fake News prodotte con l’Intelligenza Artificiale e delle loro ipocrite denunce, potrebbero continuare a lungo, ma visto il caldo, concludiamo con una domanda: oggi è possibile smascherare la maggior parte delle Fake News prodotte con l’Intelligenza Artificiale? Sì, secondo questo magistrale video, che suggerisce di soffermarsi su incongruenze presenti, ad esempio, nello sbattere delle palpebre, nei riflessi nelle pupille, in bordi leggermente sfocati, nel labiale… Mi permetto di aggiungere un rapido consiglio: domandarsi il perché il sospetto video fake sia finito sotto i nostri occhi. Chi lo ha veicolato e, soprattutto, perché? È il metodo del cui prodest, reso celebre, nel 1917, da Benedetto Croce. Da allora sono passati più di cento anni ma resta un metodo prezioso.
Francesco Santoianni