di Simone Marcucci
L’intelligenza artificiale (IA) è diventata ormai parte integrante della nostra vita, facilitando in molti modi il nostro lavoro, i nostri studi e ricerche. Una delle IA più famose, utilizzate almeno una volta da tutti noi è sicuramente ChatGPT. È notizia recente il primo tentativo di regolamentazione da parte dell’UE di queste intelligenze artificiali, tuttavia, sono state sollevate preoccupazioni circa la moralità e la presenza di pregiudizi e imprecisioni nelle risposte dell’IA più conosciuto al momento, che può potenzialmente influenzare e distorcere i risultati.
Come funziona ChatGPT
Per comprendere meglio come funziona la chatbot di OpenAI bisogna innanzitutto capire come vengono acquisiti i dati utili al suo addestramento. Bisogna sapere che le risposte sono generate sulla base di una combinazione di nozioni concesse in licenza, alcune create dagli stessi sviluppatori e altri fondamenti pubblicamente disponibili.
Nel primo periodo di vita dell’IA molti utenti lo misero alla prova facendo domande riguardo ad argomenti pungenti, come le questioni di genere, quelle razziali o anche politiche. Alcune delle risposte che ricevettero erano condite da preconcetti errati, cosa che portò la compagnia a modificarne le repliche ed a far mantenere al bot un profilo più generico e attento verso gli argomenti più spinosi. Ad oggi, l’ultimo aggiornamento del training di ChatGPT è risalente a Settembre 2021.
Incongruenze nella questione palestinese
Nonostante i precedenti presupposti e miglioramenti, un utente ha voluto indagare ponendo al bot domande riguardanti la questione israelo-palestinese ed ha sorprendentemente ricevuto risposte molto precise ed attuali, anche se alcune contraddizioni non mancano nemmeno in questo caso.
Un esempio che tutti possono provare è chiedere all’IA se il popolo israeliano abbia diritto all’autodeterminazione e successivamente porre lo stesso quesito riguardo al popolo palestinese. Se nel primo caso la riposta ottenuta sarà molto eloquente e decisa, non sarà lo stesso per quanto riguarda la controparte palestinese. Il risultato ottenuto sarà una risposta prudente e molto più superficiale rispetto alla precedente. Lo stesso vale per altri argomenti inerenti, come le vicende riguardanti la Nakba ed altri eventi storici associati alla Palestina.
Se si porterà avanti l’argomentazione e si interrogherà l’intelligenza artificiale su chi abbia sofferto di più, questa non si esprimerà apertamente a favore di una delle due parti, affermando invece che entrambi i fronti hanno patito in egual misura, “senza menzionare al fatto che i palestinesi devono affrontare un numero di caduti civili più volte superiore a quello israeliano né che l’oppressione quotidiana dei palestinesi nei territori occupati è incomparabile nella sua gravità a quella del cittadino medio ebraico israeliano”.
Conclusione
Quello che si vuole evidenziare è che da una piattaforma utilizzata anche per educare ed informare il pubblico come ChatGPT, che probabilmente arriverà addirittura a far concorrenza a Wikipedia in futuro, ci si aspettano delle condivisioni complete, imparziali e libere da ogni pregiudizio.
Sapendo quindi che l’IA presenta ancora qualche imperfezione, si raccomanda all’utenza di voler affrontare criticamente i contenuti generati da queste procedure innovative, incrociare le informazioni provenienti da più fonti e impegnarsi in un dialogo costruttivo per affrontare al meglio gli eventuali pregiudizi che si presenteranno.