Entusiasti
e timorosi si fronteggiano davanti alla sfida rappresentata
dall'intelligenza artificiale- É un fatto che questa
straordinaria innovazione fa discutere.. Un passo decisivo
del Parlamento europeo
Il
tema dell’AI (Artificial Intelligence) sta monopolizzando
soprattutto in questi ultimi mesi, il dibattito nei suoi
confronti dividendo, come immaginabile quando si è
di fronte ad una grande innovazione, l’opinione pubblica
in due fazioni: gli entusiasti ed i timorosi. Per i primi,
l’aspetto positivo dell’AI consiste principalmente
nel poter affidare all’attività autonoma degli
strumenti azioni meccaniche e ripetitive con garanzia di
precisione ed accuratezza, senza dover incorrere nel fisiologico
calo di prestazioni o altre variabili che caratterizzano
il comportamento umano. A ciò è da aggiungere
l’enorme vantaggio proveniente dal poter essere impiegata
ed utilizzata, sia in campo ludico che in quello produttivo,
senza avere alle spalle un solido bagaglio tecnico e professionale.
A questi enormi vantaggi i fautori dell’atteggiamento
più guardingo sono soliti ricordare gli aspetti negativi
che accompagnano, o possono accompagnare, un eventuale uso
intensivo dell’AI quali i potenziali e progressivi
rischi legati all’occupazione e alla sicurezza dei
dati personali, dei diritti e della libertà individuale.
Storico
a tal proposito il voto del 13 marzo 2024 tramite il quale
il Parlamento europeo ha approvato, primo al mondo, il Regolamento
UE sull’intelligenza artificiale (AI Act) con il quale
si propone di regolamentare l’utilizzo dell’IA
sia da parte dei fornitori che degli utilizzatori. L’approccio
concettuale è quello basato sul rischio, ed i sistemi
di AI sono stati divisi in quattro macrocategorie: rischio
minimo, limitato, alto ed inaccettabile. Eccezioni nell’applicazione
del Regolamento sono ammesse solo per scopi militari, di
difesa e di sicurezza nazionale o per attività di
ricerca o di utilizzo puramente personale.
A
tal proposito è bene ricordare che la nascita dell’AI
si fonda ed è legata allo sviluppo di macchine o
sistemi capaci autonomamente di svolgere azioni e funzioni
tradizionalmente compiute tramite l’intervento umano.
E’ l’uomo, in ultima analisi, il modello di
riferimento, è colui che la macchina deve cercare
di emulare e di sostituire nello svolgimento di determinate
mansioni. Questo, appunto, sviluppando capacità di
ragionamento e di apprendimento simili a quelle umane.
Proprio
al fine di poter distinguere se un’attività
sia svolta da una macchina o da un umano nel 1950 venne
messo a punto il famoso “test di Turing”, dal
nome di uno dei padri fondatori dell’AI il matematico
britannico Alan Turing. Nei confronti di suddetto test,
a dir la verità, molti studiosi hanno da tempo palesato
le proprie perplessità ritenendolo ormai obsoleto,
anche alla luce di quanto pubblicato sulla rivista PNAS
(Proceedings of the National Academy of Sciences) del febbraio
scorso. Lo studio richiamato è quello condotto da
un gruppo di ricercatori capitanati da Matthew Jackson,
professore di economia presso la Stanford School of Humanities
and Scientes dell’Università di Stanford negli
Stati Uniti.
L’obiettivo
finale non era valutare l’accuratezza delle risposte,
ma i tratti della personalità dei chatbot e di confrontarli
con quelli della componente umana. Per far questo la ricerca
ha utilizzato le versioni 3 e 4 di ChatGPT a cui ha somministrato
diverse batterie di test standardizzati invitando i chatbot,
in vari giochi comportamentali, ad elaborare strategie che
simulassero, nel reale, decisioni economiche e morali. Le
risposte sono state confrontate con quelle di oltre 100.000
individui provenienti da più di cinquanta paesi differenti
con il sorprendente risultato che le risposte “umane”
non erano così dissimili da quelle dei chatbot, giungendo,
a detta dei ricercatori, al parziale superamento del test
di Turing. Anche i tratti di personalità dei bot
sono stati analizzati applicando metodologie proprie della
psicologia dell’economia comportamentale quale il
test OCEAN Big-5, uno dei più importanti modelli
tassonomici atti a descrivere i tratti della personalità
attraverso cinque fattori: apertura mentale/chiusura all’esperienza,
coscienziosità/inaffidabilità, estroversione/introversione,
gradevolezza o amicalità/antagonismo, stabilità
emotiva/nevroticismo. Soprattutto la versione 4 di ChatGPT
ha mostrato livelli normali in tutti e cinque i tratti,
anche se ha evidenziato una scarsa “affabilità”.
La
ricerca ha anche rilevato che le scelte dei chatbot nei
giochi erano spesso ottimizzate per il massimo beneficio
sia per il bot che per la controparte umana. Evidenziando,
in questo, la scelta di strategie coerenti con l’altruismo,
l’equità, la fiducia e la cooperazione, elementi
che hanno suggerito ai ricercatori l’ipotesi di un
loro ipotetico utilizzo come agenti al servizio clienti
o mediatori di conflitti.
Mica
male visto i tempi!
Clemente Porreca
|