​ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo ha subìto una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati. Nonostante il tempestivo intervento dei tecnici di OpenAI – la società statunitense che ha sviluppato e gestisce la piattaforma – per risolvere il problema e limitare i danni – è arrivato lo stop del Garante per la privacy in Italia, disponendo con effetto immediato la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI. L'Autorità ha dato tempo fino al 30 aprile 2023 all'azienda statunitense per adeguarsi alle prescrizioni imposte al suo chatbot conversazionale, avviando contestualmente un'istruttoria. Un accordo permetterebbe di chiudere il contenzioso.

Il Garante ha chiesto a OpenAI di fornire e collocare in una posizione ben visibile ai fruitori del sito per accedere a ChatGPT, un'informativa trasparente, per spiegare come vengono trattati i dati necessari ad addestrare l'algoritmo, come funziona l'interfaccia di programmazione e quali sono i diritti degli utenti.


Si legge in una nota del garante: “Per gli utenti che si collegano dall'Italia, l'informativa dovrà essere presentata prima del completamento della registrazione e, sempre prima del completamento della registrazione, dovrà essere loro richiesto di dichiarare di essere maggiorenni".

Per dati personali, nel caso di ChatGPT, si intendono tutti quelli che cediamo, anche involontariamente, quando lo interroghiamo.

L'Authority ha anche chiesto un piano entro il 31 maggio per realizzare un sistema di verifica dell'età, per vietare l'accesso ai minori di 13 anni che non hanno il consenso dei genitori. Infine, le campagne di comunicazione su radio, tve internet dovranno informare le persone su come gli algoritmi usano i dati personali. OpenAI dovrà informare “le persone dell'avvenuta probabile raccolta dei loro dati personali ai fini dell'addestramento degli algoritmi" e del fatto che sul sito ci sono le informative aggiornate e gli strumenti per opporsi all'uso dei dati.

Il Garante ha chiesto a OpenAI di fornire e collocare in una posizione ben visibile ai fruitori del sito di accesso a ChatGPT un'informativa trasparente. Anche per le compagnie assicurative l'intelligenza artificiale potrebbe provocare conseguenze molto rilevanti

L'evoluzione della situazione va seguita con attenzione anche da parte delle compagnie assicurative (clicca qui per approfondire i possibili effetti di ChatGPT sulle polizze). Secondo uno studio dell'European Insurance and Occupational pensions Authority, strumenti come l'intelligenza artificiale o il machine learning (ML) sono già utilizzati dal 31% delle imprese assicurative, mentre un altro 24% si trova in una fase di proof-of-concept nell'uso di questi sistemi informatici.

Le compagnie assicurative potrebbero ottimizzare l'utilizzo dell'intelligenza artificiale nella consulenza, nell'assistenza e nella scelta dei prodotti assicurativi, nella fase di personalizzazione del premio, nella gestione dei sinistri e nella prevenzione delle truffe.

I vantaggi nell'utilizzo dell'AI sono molteplici e non è fantascienza pensare che l'evoluzione di ChatGPT potrebbe consentire di raggiungere maggiore efficienza, riduzione dei costi e dei rischi operativi.