FOGLIO LAPIS - MAGGIO - 2024

 

Entusiasti e timorosi si fronteggiano davanti alla sfida rappresentata dall'intelligenza artificiale- É un fatto che questa straordinaria innovazione fa discutere.. Un passo decisivo del Parlamento europeo

 

Il tema dell’AI (Artificial Intelligence) sta monopolizzando soprattutto in questi ultimi mesi, il dibattito nei suoi confronti dividendo, come immaginabile quando si è di fronte ad una grande innovazione, l’opinione pubblica in due fazioni: gli entusiasti ed i timorosi. Per i primi, l’aspetto positivo dell’AI consiste principalmente nel poter affidare all’attività autonoma degli strumenti azioni meccaniche e ripetitive con garanzia di precisione ed accuratezza, senza dover incorrere nel fisiologico calo di prestazioni o altre variabili che caratterizzano il comportamento umano. A ciò è da aggiungere l’enorme vantaggio proveniente dal poter essere impiegata ed utilizzata, sia in campo ludico che in quello produttivo, senza avere alle spalle un solido bagaglio tecnico e professionale. A questi enormi vantaggi i fautori dell’atteggiamento più guardingo sono soliti ricordare gli aspetti negativi che accompagnano, o possono accompagnare, un eventuale uso intensivo dell’AI quali i potenziali e progressivi rischi legati all’occupazione e alla sicurezza dei dati personali, dei diritti e della libertà individuale.

Storico a tal proposito il voto del 13 marzo 2024 tramite il quale il Parlamento europeo ha approvato, primo al mondo, il Regolamento UE sull’intelligenza artificiale (AI Act) con il quale si propone di regolamentare l’utilizzo dell’IA sia da parte dei fornitori che degli utilizzatori. L’approccio concettuale è quello basato sul rischio, ed i sistemi di AI sono stati divisi in quattro macrocategorie: rischio minimo, limitato, alto ed inaccettabile. Eccezioni nell’applicazione del Regolamento sono ammesse solo per scopi militari, di difesa e di sicurezza nazionale o per attività di ricerca o di utilizzo puramente personale.

A tal proposito è bene ricordare che la nascita dell’AI si fonda ed è legata allo sviluppo di macchine o sistemi capaci autonomamente di svolgere azioni e funzioni tradizionalmente compiute tramite l’intervento umano. E’ l’uomo, in ultima analisi, il modello di riferimento, è colui che la macchina deve cercare di emulare e di sostituire nello svolgimento di determinate mansioni. Questo, appunto, sviluppando capacità di ragionamento e di apprendimento simili a quelle umane.

Proprio al fine di poter distinguere se un’attività sia svolta da una macchina o da un umano nel 1950 venne messo a punto il famoso “test di Turing”, dal nome di uno dei padri fondatori dell’AI il matematico britannico Alan Turing. Nei confronti di suddetto test, a dir la verità, molti studiosi hanno da tempo palesato le proprie perplessità ritenendolo ormai obsoleto, anche alla luce di quanto pubblicato sulla rivista PNAS (Proceedings of the National Academy of Sciences) del febbraio scorso. Lo studio richiamato è quello condotto da un gruppo di ricercatori capitanati da Matthew Jackson, professore di economia presso la Stanford School of Humanities and Scientes dell’Università di Stanford negli Stati Uniti.

L’obiettivo finale non era valutare l’accuratezza delle risposte, ma i tratti della personalità dei chatbot e di confrontarli con quelli della componente umana. Per far questo la ricerca ha utilizzato le versioni 3 e 4 di ChatGPT a cui ha somministrato diverse batterie di test standardizzati invitando i chatbot, in vari giochi comportamentali, ad elaborare strategie che simulassero, nel reale, decisioni economiche e morali. Le risposte sono state confrontate con quelle di oltre 100.000 individui provenienti da più di cinquanta paesi differenti con il sorprendente risultato che le risposte “umane” non erano così dissimili da quelle dei chatbot, giungendo, a detta dei ricercatori, al parziale superamento del test di Turing. Anche i tratti di personalità dei bot sono stati analizzati applicando metodologie proprie della psicologia dell’economia comportamentale quale il test OCEAN Big-5, uno dei più importanti modelli tassonomici atti a descrivere i tratti della personalità attraverso cinque fattori: apertura mentale/chiusura all’esperienza, coscienziosità/inaffidabilità, estroversione/introversione, gradevolezza o amicalità/antagonismo, stabilità emotiva/nevroticismo. Soprattutto la versione 4 di ChatGPT ha mostrato livelli normali in tutti e cinque i tratti, anche se ha evidenziato una scarsa “affabilità”.

La ricerca ha anche rilevato che le scelte dei chatbot nei giochi erano spesso ottimizzate per il massimo beneficio sia per il bot che per la controparte umana. Evidenziando, in questo, la scelta di strategie coerenti con l’altruismo, l’equità, la fiducia e la cooperazione, elementi che hanno suggerito ai ricercatori l’ipotesi di un loro ipotetico utilizzo come agenti al servizio clienti o mediatori di conflitti.

Mica male visto i tempi!

                                                                      Clemente Porreca           

 

 


                                           

Clicca qui per iscriverti alla nostra newsletter!

 

Torna al Foglio Lapis

 

Mandaci un' E-mail!