IA: UOMO RIPORTA IN “VITA” LA FIDANZATA

In una storia per il San Francisco Chronicle, Joshua Barbeau ha dettagliato come Project December, un software che utilizza la tecnologia di intelligenza artificiale per creare chatbot iperrealistici, ha ricreato l’esperienza di parlare con la sua defunta fidanzata. Tutto quello che doveva fare era inserire vecchi messaggi e dare alcune informazioni di base, e improvvisamente il modello poteva emulare il suo partner con una precisione sorprendente.

Dopo la morte della fidanzata di Joshua Barbeau, ha parlato con “lei” per mesi….o meglio ha parlato con un chatbot programmato per parlare esattamente come lei.

Gli amanti della fantascienza, ricorderanno la serie televisiva “Black Mirror” che aveva affrontato proprio questo argomento. Come sempre Cinema e fiction, sono un espediente per anticipare in modo dolce/leggero ciò che l’elite o Cricca, come preferite chiamarla/definirla, ha in serbo/proncinto di applicare alla realtà, sebbene molti tendano a sminuire affemrando secondo il loro illuminato pensiero che è solo un film!

Il progetto December è alimentato da GPT-3, un modello di IA progettato dal gruppo di ricerca OpenAI sostenuto da Elon Musk. Consumando massicci set di dati di testo creato dall’uomo, GPT-3 può imitare la scrittura umana, producendo tutto, dai documenti accademici alle lettere di ex amanti.

Si tratta di una delle più sofisticate e pericolose programmazioni IA basate sul linguaggio fino ad oggi.

Quando OpenAI ha rilasciato GPT-2, il predecessore di GPT-3, il gruppo ha scritto che potrebbe essere usato in “modi malevoli“. L’organizzazione ha anticipato che i cattivi attori che utilizzano la tecnologia potrebbero automatizzare “contenuti abusivi o falsi sui social media“, “generare articoli di notizie fuorvianti” o “impersonare altri online“.

GPT-2 potrebbe essere usato per “sbloccare nuove capacità non ancora anticipate per questi attori“, ha scritto il gruppo. OpenAI ha scaglionato il rilascio di GPT-2, e limita ancora l’accesso al superiore GPT-3, al fine di “dare alla gente il tempo” di imparare le “implicazioni sociali” di tale tecnologia.

Che cosè’GPT-3?

Generative Pre-trained Transformer 3 (GPT-3) è un modello linguistico autoregressivo che utilizza l’apprendimento profondo per produrre testi simili a quelli umani. È il modello di predizione del linguaggio di terza generazione della serie GPT-n (e il successore di GPT-2) creato da OpenAI, un laboratorio di ricerca di intelligenza artificiale con sede a San Francisco. La versione completa di GPT-3 ha una capacità di 175 miliardi di parametri di apprendimento automatico. GPT-3, che è stato introdotto nel maggio 2020, ed era in beta testing a luglio 2020, fa parte di una tendenza nei sistemi di elaborazione del linguaggio naturale (NLP) di rappresentazioni linguistiche pre-addestrate. Prima del rilascio di GPT-3, il più grande modello di linguaggio era Turing NLG di Microsoft, introdotto nel febbraio 2020, con una capacità di 17 miliardi di parametri – meno di un decimo di GPT-3.

La qualità del testo generato da GPT-3 è così alta che è difficile da distinguere da quello scritto da un umano, il che ha sia vantaggi che rischi. Trentuno ricercatori e ingegneri OpenAI hanno presentato il documento originale del 28 maggio 2020 che introduce il GPT-3. Nel loro documento, hanno avvertito dei potenziali pericoli di GPT-3 e hanno chiesto una ricerca per mitigare il rischio. David Chalmers, un filosofo australiano, ha descritto GPT-3 come “uno dei più interessanti e importanti sistemi AI mai prodotti“.

Microsoft ha annunciato il 22 settembre 2020 di aver concesso in licenza l’uso “esclusivo” di GPT-3; altri possono ancora utilizzare l’API pubblica per ricevere l’output, ma solo Microsoft ha accesso al codice sottostante di GPT-3

Mentre l’IA continua a svilupparsi, Oren Etzioni, il CEO dell’Allen Institute (istituo che prende il nome da Paul Allen co-fondatore con Bill Gates di Microsoft), un gruppo di ricerca senza scopo di lucro sulle bioscienze, ha detto in precedenza a Insider che diventerà solo più difficile dire cosa è reale.

“La domanda ‘Questo testo o immagine o video o e-mail è autentico?‘ sta per diventare sempre più difficile rispondere solo sulla base del contenuto da solo”, ha detto.

Tranquilli continuate pure la vostra routine, andrà tutto beeeene!

Fonti ed Approfondimenti

OPENAI (società) : https://en.wikipedia.org/wiki/OpenAI

OPEN AI GPT-3 (Sito ufficiale): https://openai.com/blog/gpt-3-apps/

Insider: https://www.businessinsider.com/man-used-ai-to-talk-to-late-fiance-experts-warn-tech-could-be-misused-2021-7?op=1&r=US&IR=T

Allen Institute:https://alleninstitute.org/

L’informazione è Libertà, l’ignoranza è schiavitù!

Il modo migliore per assicurarti di vedere i nostri articoli è iscriverti alla mailing list sul  sito Web, riceverai una notifica via email ogni qualvolta pubblicheremo un articolo. Se ti è piaciuto questo pezzo, per favore considera di condividerlo, seguirci sul tuo Social preferito tra Facebook , Twitter , Instagram, MeWe, Gab, Linkedin (basta cercare “Database Italia”) o su Telegram (Il nostro preferito) oppure sostenendoci con una donazione seguendo le modalità indicate nella pagina “Donazioni”   Tutti, hanno il mio permesso per ripubblicare, utilizzare o tradurre qualsiasi parte dei nostri lavori (citazione gradita). Davide Donateo – Fondatore e direttore di Database Italia.