L'intelligenza artificiale in grado di scrivere falsi testi è considerata troppo pericolosa

Profondo falso per i testi: la macchina su misura per l'era post-verità

Gli ultimi 3 anni su Internet sono stati dominati dalla nascente consapevolezza del pericolo di notizie false e dalla persuasione di elettori o consumatori attraverso algoritmi che si nutrono in tempo reale delle loro informazioni per manipolare il loro comportamento online. Questo rischio, che alcuni considerano un tentativo contro la democrazia e l'autonomia, potrebbe avere un nuovo attore con lo sviluppo di programmi che riescono a scrivere articoli che possono essere facilmente scritti dagli umani, fino a un punto indistinguibile o quasi indistinguibile.

Un paio di settimane fa, la piattaforma OpenAI ha annunciato di essere preoccupata per il potenziale uso dannoso del suo modello GPT2, che è stato chiamato " deep fake for text". La società, che ha Elon Musk tra i suoi investitori, ha dichiarato di non rendere pubbliche le informazioni della sua indagine per paura che questa tecnologia abbia conseguenze negative. Il modello GPT2 è in grado di generare testo plausibile una volta alimentato con un testo, qualcosa di simile a un'idea da sviluppare che si collega ad altre informazioni.

Il sistema differisce dagli altri programmi in quanto mantiene lo stesso tema e sintassi e crea passaggi standard che sembrano essere scritti da una persona. Questa piattaforma è stata addestrata con oltre 10 milioni di articoli. Da un lato, questo è molto interessante, in quanto questo modello può svolgere compiti come la traduzione e la sintesi di testi. Ma d'altra parte ha un potenziale che, sebbene possiamo immaginare dove potrebbe portare, è davvero quasi illimitato nelle possibilità di usi che possono essere dati per ingannare e manipolare. Ad esempio, il sistema può generare innumerevoli recensioni di prodotti positivi o negativi. Potrebbe produrre innumerevoli messaggi spam e persino studiare database per generare e-mail che cercano di truffare le persone. O teorie cospirative, o testi volti a provocare determinati gruppi sociali o politici. Potrebbe produrre intere notizie o siti di informazione falsi a fini di propaganda.

Sebbene questa precauzione sia benvenuta, d'altra parte è chiaro che tra qualche anno questa tecnologia sarà sviluppata da altre persone e probabilmente potrà essere utilizzata per scopi dannosi. Quindi è importante prepararsi ed educare noi stessi. Ciò che sembra indiscutibile è che stiamo raggiungendo un punto in cui la tecnologia che creiamo è in grado di sfruttare rapidamente alcune delle nostre vulnerabilità mentali e il nostro livello morale e intellettuale in quanto la civiltà non è all'altezza per salvaguardare gli usi di questa tecnologia. Il che è preoccupante. Sembra che viviamo nei tempi che Philip K. Dick immaginava:

Le false realtà creeranno falsi umani. Oppure, i falsi esseri umani genereranno false realtà e poi li venderanno ad altri esseri umani, trasformandoli infine in falsi di se stessi. Quindi finiamo con falsi umani che inventano realtà false e poi le vendono ad altri falsi umani.