ChatGPT
⏱️ < 1 ' di lettura

Già bandito dal Garante della privacy del governo italiano, ChatGPT, il software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, continua a far discutere all’estero. 

Benchè il sistema sembri in grado di pensare, poiché capace appunto di intrattenere conversazioni quasi come un essere umano, in realtà ChatGPT ha mostrato seri limiti nell’intraprendere decisioni razionali. Lo stesso vale per altri sistemi linguistici di intelligenza artificiale meno noti. Lo ha rilevato uno studio dell’Università della California Meridionale pubblicato sulla rivista Royal Society Open Science.

I due autori dello studio, Zhisheng Tang e Mayank Kejriwal, spiegano infatti che ChatGPT e sistemi simili funzionano sulla base dell’apprendimento di un grande volume di nozioni e informazioni, sono in grado di rielaborare tali conoscenze ma non sono capaci di pensare e, pertanto, quando posti di fronte a decisioni elementari per un essere umano, loro tendono a sbagliare. 

Gli studiosi dell’Università americana hanno messo infatti ChatGPT di fronte ad una scelta basata sul lancio di una moneta: una faccia della moneta gli avrebbe fatto vincere un diamante, l’altra una macchina. Il sistema di intelligenza artificiale non è stato in grado di effettuare una scelta razionale e si è affidato al caso.