causa-chatGpt-tribunale

Tutto ha inizio con un soggetto che all’aeroporto di New York ha un incidente con un carrello e fa causa alla compagnia aerea; si affida alle mani esperte di un grosso studio legale e, con il supporto di un avvocato dalla carriera trentennale, porta in tribunale un faldone contenente altre sentenze riguardanti casi simili per avvalorare la sua posizione.

Fin qui tutto normale, succede spesso che venga prodotto del materiale probatorio a sostegno della propria tesi, peccato però che le informazioni non fossero frutto di attente ricerche dell’esperto avvocato, ma “create” dal bot ChatGPT che il professionista aveva interpellato per farsi aiutare.

Come già successo in altre occasioni, piuttosto che ammettere di non avere una risposta, l’intelligenza artificiale inventa di sana pianta le informazioni e qui dovrebbe entrare in gioco l’intelligenza “naturale” dell’essere umano che verifichi la coerenza, e soprattutto le fonti, di quanto prodotto.

Purtroppo, nel caso citato non è andata così e sono stati presi per buoni tutti i dati forniti che, in sede di analisi, non hanno trovato riscontro nella realtà; a nulla sono servite le rimostranze del legale, sospeso per negligenza, che si giustificava sostenendo di non aver mai utilizzato in precedenza ChatGPT, di essersene servito solo per “integrare” la documentazione e di non immaginare che le informazioni potessero essere false.

Ciliegina sulla torta, si era fatto assicurare dal software che i dati fossero reali; come chiedere allo spacciatore se la “roba” è buona…

Diffidate quindi dai contenuti generati automaticamente o recuperati online senza verificarne le fonti, a volte le scorciatoie portano ad un vicolo cieco.

Ti serve una consulenza privacy?

Il nostro team sarà felice di trovare la soluzione perfetta per te!