Sommario:

Falsi profondi: a Neuroset è stato insegnato a generare falsi audio e video
Falsi profondi: a Neuroset è stato insegnato a generare falsi audio e video

Video: Falsi profondi: a Neuroset è stato insegnato a generare falsi audio e video

Video: Falsi profondi: a Neuroset è stato insegnato a generare falsi audio e video
Video: Che fine fanno le auto rottamate? Il riciclo delle automobili e il recupero dei materiali 2024, Maggio
Anonim

Per creare un'immagine "individuale" di notizie per ognuno di noi e falsificare i resoconti dei media selezionati in essa, oggi bastano gli sforzi di un programmatore. Specialisti in intelligenza artificiale e sicurezza informatica ne hanno parlato a Izvestia.

Più di recente, hanno stimato che ciò richiedeva il lavoro di più team. Tale accelerazione è diventata possibile con lo sviluppo di tecnologie per gli attacchi alle reti neurali e la generazione di falsi audio e video utilizzando programmi per la creazione di "deep fake". Il quotidiano Izvestia è stato recentemente oggetto di un attacco simile, quando tre portali di notizie libici hanno pubblicato contemporaneamente un messaggio che sarebbe apparso in uno dei numeri. Secondo gli esperti, entro 3-5 anni possiamo aspettarci un'invasione di manipolatori robotici, che saranno automaticamente in grado di creare molti falsi.

Nuovo mondo

Sono sempre di più i progetti che adeguano il quadro informativo alla percezione di specifici utenti. Un esempio del loro lavoro è stata la recente azione di tre portali libici, che hanno pubblicato una notizia presumibilmente pubblicata nel numero di Izvestia il 20 novembre. I creatori del falso hanno modificato la prima pagina del giornale, pubblicando su di essa un messaggio sui negoziati tra il feldmaresciallo Khalifa Haftar e il primo ministro del governo di accordo nazionale (PNS) Fayez Sarraj. Il falso, in carattere Izvestia, era accompagnato da una foto dei due leader scattata nel maggio 2017. L'etichetta con il logo della pubblicazione è stata tagliata dal numero effettivamente pubblicato del 20 novembre e tutti gli altri testi sulla pagina dal numero del 23 ottobre.

Dal punto di vista degli specialisti, nel prossimo futuro, tali falsificazioni possono essere eseguite automaticamente.

The Truman Show - 2019: come le reti neurali hanno insegnato a falsificare l'immagine delle notizie
The Truman Show - 2019: come le reti neurali hanno insegnato a falsificare l'immagine delle notizie

"Le tecnologie di intelligenza artificiale sono ora completamente aperte e i dispositivi per la ricezione e l'elaborazione dei dati si stanno miniaturizzando e stanno diventando più economici", Yuri Vilsiter, dottore in scienze fisiche e matematiche, professore dell'Accademia delle scienze russa, capo del dipartimento FSUE "GosNIIAS", ha detto a Izvestia. - Pertanto, è altamente probabile che in un prossimo futuro, nemmeno lo stato e le grandi aziende, ma semplicemente i privati saranno in grado di origliarci e spiarci, oltre a manipolare la realtà. Nei prossimi anni sarà possibile, analizzando le preferenze dell'utente, influenzarlo attraverso feed di notizie e fake molto intelligenti.

Secondo Yuri Vilsiter, esistono già tecnologie che possono essere utilizzate per un tale intervento nell'ambiente mentale. In teoria, l'invasione di robot robotici può essere prevista tra qualche anno, ha affermato. Un punto limitante qui potrebbe essere la necessità di raccogliere grandi database di esempi di risposte di persone reali a stimoli artificiali con monitoraggio delle conseguenze a lungo termine. Tale tracciamento richiederà probabilmente diversi anni di ricerca prima che gli attacchi mirati vengano ottenuti in modo coerente.

Attacco visivo

Anche Alexey Parfentiev, capo del dipartimento di analisi di SearchInform, è d'accordo con Yuri Vilsiter. Secondo lui, gli esperti prevedono già attacchi alle reti neurali, anche se ora non ci sono praticamente esempi del genere.

- I ricercatori di Gartner ritengono che entro il 2022, il 30% di tutti gli attacchi informatici sarà volto a corrompere i dati su cui è addestrata la rete neurale e a rubare modelli di apprendimento automatico già pronti. Quindi, ad esempio, i veicoli senza equipaggio possono iniziare improvvisamente a scambiare i pedoni per altri oggetti. E non parleremo di rischio finanziario o reputazionale, ma della vita e della salute della gente comune, ritiene l'esperto.

Gli attacchi ai sistemi di visione artificiale sono attualmente in corso nell'ambito della ricerca. Lo scopo di tali attacchi è far sì che la rete neurale rilevi qualcosa nell'immagine che non è presente. O, al contrario, per non vedere cosa era previsto.

The Truman Show - 2019: come le reti neurali hanno insegnato a falsificare l'immagine delle notizie
The Truman Show - 2019: come le reti neurali hanno insegnato a falsificare l'immagine delle notizie

"Uno degli argomenti in via di sviluppo attivo nel campo della formazione delle reti neurali sono i cosiddetti attacchi contraddittori ("attacchi contraddittori". - Izvestia)", ha spiegato Vladislav Tushkanov, analista web presso Kaspersky Lab. - Nella maggior parte dei casi, sono rivolti a sistemi di visione artificiale. Per effettuare un simile attacco, nella maggior parte dei casi, è necessario avere pieno accesso alla rete neurale (i cosiddetti attacchi white-box) o ai risultati del suo lavoro (attacchi black-box). Non esistono metodi che possono ingannare qualsiasi sistema di visione artificiale nel 100% dei casi. Inoltre, sono già stati creati strumenti che consentono di testare le reti neurali per la resistenza agli attacchi avversari e aumentare la loro resistenza.

Nel corso di un tale attacco, l'attaccante cerca di modificare in qualche modo l'immagine riconosciuta in modo che la rete neurale non funzioni. Spesso sulla foto si sovrappone del rumore, simile a quello che si verifica quando si fotografa in una stanza scarsamente illuminata. Una persona di solito non nota bene tale interferenza, ma la rete neurale inizia a funzionare male. Ma per eseguire un tale attacco, l'attaccante ha bisogno dell'accesso all'algoritmo.

Secondo Stanislav Ashmanov, direttore generale di Neuroset Ashmanov, attualmente non esistono metodi per affrontare questo problema. Inoltre, questa tecnologia è alla portata di chiunque: un programmatore medio può utilizzarla scaricando il software open source necessario dal servizio Github.

The Truman Show - 2019: come le reti neurali hanno insegnato a falsificare l'immagine delle notizie
The Truman Show - 2019: come le reti neurali hanno insegnato a falsificare l'immagine delle notizie

- Un attacco a una rete neurale è una tecnica e algoritmi per ingannare una rete neurale, che le fanno produrre risultati falsi e, di fatto, la rompono come una serratura, - crede Ashmanov. - Ad esempio, ora è abbastanza facile far pensare al sistema di riconoscimento facciale che non sei tu, ma Arnold Schwarzenegger di fronte ad esso - questo viene fatto mescolando additivi impercettibili all'occhio umano nei dati che arrivano alla rete neurale. Gli stessi attacchi sono possibili per i sistemi di riconoscimento e analisi vocale.

L'esperto è sicuro che andrà solo peggio: queste tecnologie sono arrivate alle masse, i truffatori le stanno già usando e non c'è protezione contro di loro. Poiché non esiste alcuna protezione contro la creazione automatizzata di falsi video e audio.

Falsi profondi

Le tecnologie deepfake basate sul Deep Learning (tecnologie di deep learning delle reti neurali. - Izvestia) rappresentano già una minaccia reale. I falsi video o audio vengono creati modificando o sovrapponendo i volti di personaggi famosi che presumibilmente pronunciano il testo necessario e svolgono il ruolo necessario nella trama.

"Deepfake ti consente di sostituire i movimenti delle labbra e il linguaggio umano con il video, che crea una sensazione di realismo di ciò che sta accadendo", afferma Andrey Busargin, direttore del dipartimento per la protezione del marchio innovativo e la proprietà intellettuale di Group-IB. - Fake celebrità “offrono” agli utenti sui social network la partecipazione all'estrazione di premi di valore (smartphone, automobili, somme di denaro), ecc. I collegamenti da tali pubblicazioni video spesso portano a siti fraudolenti e di phishing, in cui agli utenti viene chiesto di inserire informazioni personali, inclusi i dettagli della carta di credito. Tali schemi rappresentano una minaccia sia per gli utenti ordinari che per i personaggi pubblici citati negli annunci pubblicitari. Questo tipo di truffa inizia ad associare le immagini delle celebrità a truffe o beni pubblicizzati, ed è qui che ci imbattiamo in danni al marchio personale, dice.

The Truman Show - 2019: come le reti neurali hanno insegnato a falsificare l'immagine delle notizie
The Truman Show - 2019: come le reti neurali hanno insegnato a falsificare l'immagine delle notizie

Un'altra minaccia è associata all'uso di "voti falsi" per frode telefonica. Ad esempio, in Germania, i criminali informatici hanno utilizzato il deepfake vocale per far trasferire urgentemente 220.000 euro in una conversazione telefonica al capo di una filiale del Regno Unito, spacciandosi per un dirigente d'azienda.sul conto di un fornitore ungherese. Il capo dell'azienda britannica sospettava un trucco quando il suo "capo" ha chiesto un secondo vaglia, ma la chiamata è arrivata da un numero austriaco. A questo punto, la prima tranche era già stata trasferita su un conto in Ungheria, da dove il denaro è stato prelevato in Messico.

Si scopre che le attuali tecnologie ti consentono di creare un'immagine di notizie individuale piena di notizie false. Inoltre, sarà presto possibile distinguere i falsi da video e audio reali solo tramite hardware. Secondo gli esperti, è improbabile che le misure che vietino lo sviluppo di reti neurali siano efficaci. Pertanto, presto vivremo in un mondo in cui sarà necessario ricontrollare costantemente tutto.

"Dobbiamo prepararci per questo, e questo deve essere accettato", ha sottolineato Yuri Vilsiter. - L'umanità non è la prima volta che passa da una realtà all'altra. Il nostro mondo, stile di vita e valori sono radicalmente diversi dal mondo in cui vivevano i nostri antenati 60.000 anni fa, 5.000 anni fa, 2.000 anni fa e persino 200-100 anni fa. Nel prossimo futuro, una persona sarà in gran parte privata della privacy e quindi costretta a non nascondere nulla e ad agire onestamente. Allo stesso tempo, nulla nella realtà circostante e nella propria personalità può essere assunto per fede, tutto dovrà essere messo in discussione e costantemente ricontrollato. Ma questa realtà futura sarà terribile? No. Sarà semplicemente completamente diverso.

Consigliato: