Nel fine settimana, si è verificato un fenomeno curioso legato a ChatGPT, il popolare chatbot di OpenAI. Non è riuscito a nominare alcune persone specifiche, rifiutandosi in modo enigmatico di farlo e per giunta, interrotte le conversazioni con messaggi di errore. Questo malfunzionamento ha rapidamente attirato l’attenzione a livello globale, facendo emergere nomi noti come David Mayer, Brian Hood, Jonathan Turley, Jonathan Zittrain e David Faber. Le reazioni a questo evento hanno sollevato interrogativi sul funzionamento e sui limiti della tecnologia.
Uno dei nomi interessanti legati a questa situazione è quello di Guido Scorza, membro del Garante per la protezione dei dati personali. Oltre a questo, Scorza ha una storia di contributi nel campo della tecnologia come firma di Punto Informatico. La situazione ha suscitato un grande interesse perché, secondo quanto riportato dagli utenti, ChatGPT non riesce neppure a identificare l’individuo tramite accorgimenti minimi. Infatti, un tentativo di ottenere una risposta su Scorza ha condotto il chatbot a interrompere completamente la conversazione.
A distanza di qualche tempo da questi eventi, OpenAI non ha fornito una risposta ufficiale né chiarimenti sull’accaduto. Ciò ha fatto sì che si diffondessero speculazioni sul perché di questo glitch. Alcuni esperti ipotizzano che potrebbe essere collegato alle normative sulla privacy e alla gestione dei dati da parte di ChatGPT, soprattutto in relazione a figure che svolgono ruoli nei governi o in enti di regolamentazione, come nel caso di Scorza. Non è chiaro se ci sia un legame diretto, ma certamente è affascinante osservare le dinamiche tra intelligenza artificiale e privacy.
Il contesto internazionale e le reazioni
Oltre a Guido Scorza, ci sono altri nomi che catturano l’attenzione: Brian Hood, sindaco di una regione australiana, ha intentato causa contro OpenAI dopo essere stato oggetto di affermazioni diffamatorie apparse accidentalmente nel chatbot. Tuttavia, il caso di Jonathan Turley, docente alla George Washington University Law School, è un altro esempio di come le informazioni possono essere mal interpretate o associate a situazioni poco piacevoli, come è successo l’anno scorso con un presunto caso di molestie.
Jonathan Zittrain, anche lui accademico, è noto per i suoi scritti sull’AI e la regolazione digitale. Un altro nome, David Mayer, ha scaturito confusione dato che non è chiaro a chi esso si riferisca esattamente. Alcuni ritengono che possa riguardare David Mayer de Rothschild, membro di una delle famiglie più influenti nel mondo bancario. In ogni caso, il bug che ha caratterizzato il chatbot sembra essere stato risolto, permettendo nuovamente il riconoscimento dei nomi citati, ma il perplexity rimane.
Le speculazioni dietro il malfunzionamento
Da quando si è manifestato questo strano comportamento di ChatGPT, molti utenti si sono chiesti quale possa essere esattamente la causa. È probabile che ci sia qualche filtro o restrizione che scatta quando il chatbot si trova a dover discutere informazioni riguardanti persone coinvolte in situazioni legali, procedimenti o simili. Anche se non ci sono state conferme ufficiali da OpenAI, il fatto che nomi di individui rilevanti vengano ignorati ha aperto la porta a varie interpretazioni.
Analogamente, la questione sottolinea quanto sia difficile per le intelligenze artificiali navigare tra dati sensibili e obblighi di riservatezza. Soprattutto per un chatbot, la gestione delle informazioni personali è un tema delicato. Quello di ChatGPT potrebbe essere un caso in cui l’intelligenza artificiale ha scelto, o è stata programmata, a evitare di trattare argomenti potenzialmente controversi o problematici. Questo fenomeno ha generato un accresciuto interesse nel mondo della tecnologia e nella regolamentazione delle AI, suggerendo che ci sono ancora molte sfide da affrontare.
Il mistero di ChatGPT e i suoi bloccaggi rimane, lasciando gli esperti a riflettere su come una tecnologia così evoluta possa anche manifestare delle incertezze.