bikini-off-deep-nude

Sappiamo bene che l’intelligenza artificiale (AI) è uno strumento sempre più utilizzato e, allo stesso tempo, discusso. Questo accade perché riguarda una nuova tecnologia di cui non si conoscono le reali conseguenze.

Una di queste è, infatti, il trend del BikiniOFF, ossia un bot di Telegram che, come si evince dal termine stesso, spoglia delle vesti le persone in foto. Stiamo parlando di un servizio automatizzato utilizzabile per mezzo della popolare piattaforma di messaggistica istantanea. Il bot è stato sviluppato da un’azienda estone specializzata nella produzione di giochi, la Crystal Future, che si palesa sul sito ufficiale con la seguente spiegazione: “la nostra tecnologia di editing fotografico può rimuovere facilmente i vestiti da qualsiasi immagine, lasciando solo lo stretto necessario”.

Come funziona BikiniOFF

Per utilizzare il “prodotto” è necessaria l’utenza di Telegram e, cercando BikiniOff nel motore di ricerca, è possibile iniziare una conversazione con l’AI. Seguendo le semplici istruzioni impartite e, caricando la foto che si vuole “denudare”, in circa 30 secondi si ottiene un risultato ancora una volta pari alla realtà, seppur con qualche piccolo difetto visibile agli occhi più attenti.

Il servizio è a pagamento tramite criptovaluta ma, il bot, mette a disposizione la modifica di una prima foto gratuita e questo rende il tutto ancor più pericoloso. Stiamo parlando di uno strumento facilmente accessibile e semplice da utilizzare che rappresenta una grave violazione della privacy e dei diritti del singolo individuo.

Negli ultimi giorni abbiamo letto articoli di diverse testate a riguardo perché è stata coinvolta, nel “calderone” di image editing, una scuola media di Roma in cui si vedono indagati due adolescenti di 14 anni per aver utilizzato il servizio e aver, dunque, ricreato foto nude di ben 5 compagne di classe.

Questo bot non è che l’ultimo caso riguardante il macro-fenomeno del Deepnude che imperversa nella nostra quotidianità, investendo sempre più il mondo dei giovani e sfociando, poi, nella pedopornografia. Sono concetti duri e difficili da gestire, che portano molto spesso a situazioni di bullismo, ricatti e vendette.

Il nostro consiglio? Avvicinarsi con molta cautela a queste nuove tecnologie che si rivelano poco affidabili sia dal punto di vista informatico che dal punto di vista morale e trasmettere una cultura sul tema che possa salvaguardare i minori dai rischi legati al mondo delle App e del nudo.

Ti serve una consulenza privacy?

Il nostro team sarà felice di trovare la soluzione perfetta per te!