Tab Magazine

Tecnologie per assicurazioni e banche

Intelligenza artificiale: al convegno Aiba gli impatti su mondo assicurativo e intermediazione

11 Aprile 2024

L’evento si è posto l’obiettivo di identificare opportunità, rischi e applicazioni dell’Ia nel mondo della polizza e nella distribuzione

intelligenza artificiale

 

In che modo l’intelligenza artificiale entrerà nel settore assicurativo e nell’intermediazione? Ha provato a rispondere il convegno annuale Aiba (Ai am a broker – L’evoluzione del ruolo del broker nell’era dell’Ai: potenzialità, etica e sviluppo sostenibile), svoltosi oggi a Roma (Villa Miani, via Trionfale 151).
L’evento ha visto la partecipazione di Flavio Sestilli, presidente dell’Aiba, Riccardo Cesari, consigliere dell’Ivass, Maria Bianca Farina, presidente dell’Ania, Umberto Guidoni, co-direttore generale dell’Ania, Lorenzo Maternini, cofondatore e vicepresidente di Talent Garden, Fausto Parente, executive director dell’Eiopa e Tiziana Catarci, direttore del dipartimento di Ingegneria informatica, automatica e gestionale “A. Ruberti” alla Sapienza di Roma.

 

Le applicazioni possibili

Nel mondo assicurativo, è emerso dal dibattito, l’intelligenza artificiale è ancora ai primi passi, ma in breve tempo prenderà sempre più spazi. Un ambito di applicazione dell’Ia sarà la prevenzione del rischio, tramite l’analisi dei dati.
Secondo Sestilli, questa nuova disciplina può esporre in maniera minore le compagnie assicurative agli impatti di sinistri imprevisti, con un calo delle tariffe delle polizze.
L’intelligenza artificiale, ha detto il presidente dell’Aiba, permetterà di “personalizzare l’offerta come mai accaduto prima, se non con impegno di tempo e mezzi molto importante e oneroso. Attraverso l’intelligenza artificiale, posso per esempio analizzare le immagini satellitari e valutare lo stato di manutenzione del tetto di un immobile, oppure calcolare la frequenza specifica locale di eventi climatici avversi o la concentrazione di rischio in una determinata località.”
Ha proseguito Sestilli: “l’intelligenza artificiale può già, e potrà in misura crescente, rendere efficienti i processi nel nostro settore, specialmente quelli semplici e ripetitivi, migliorare la gestione delle relazioni con la clientela – grazie a chatbot e a sistemi di gestione dei sinistri – e permettere agli operatori di individuare nuovi target grazie ad analisi migliori e adeguate.”

 

I rischi

L’intelligenza artificiale nasconde anche rischi. Forti rischi. “Occorre considerare diverse potenziali implicazioni”, ha detto Sestilli, “in particolare la gestione dei dati personali, le ricadute etiche ma più di tutto il rischio di non correttezza delle informazioni. Dobbiamo cercare di essere più che sicuri che tutto ciò che l’Ia elabora, sia corretto”. Con una serie di controlli “stringenti e ferrei”.
E attenzione a non credere di entrare nell’ottica di questa disciplina in breve tempo.  “Credo che ci vorranno decenni per comprendere questa rivoluzione in tutta la sua complessità”, ha sottolineato Sestilli. “Come professionisti e manager avremo un ruolo fondamentale, per certi versi nuovo e, sicuramente, saremo legati a un apprendimento continuo costante e molto affascinante”.

 

La sfida della neutralità

Un altro problema dell’intelligenza artificiale è la neutralità, che è tutt’altro che scontata. Tutto il meccanismo dipende infatti da algoritmi sviluppati da persone, che possono (volontariamente o meno) inserirvi i loro pregiudizi o i loro schemi mentali
“I sistemi di apprendimento automatico si basano su dati creati dagli esseri umani”, ha puntualizzato Tiziana Catarci nel keynote. “Ciò significa che qualsiasi pregiudizio, conscio o inconscio, in loro è incorporato negli algoritmi e a volte anche amplificato. Questi, anche se neutri, riproducono e aumentano le disuguaglianze o la discriminazione esistenti (di genere, di etnia, culturali, sociali).
Un problema difficilmente risolvibile. “Sono fondamentali consapevolezza e formazione. Insieme alle competenze digitali, è necessario sviluppare gli strumenti cognitivi per discernere l’informazione attendibile e analizzarla in modo critico e responsabile”, ha proseguito Tiziana Catarci. “Chiave in questa direzione è il contributo delle discipline classiche (come logica, filosofia, matematica, storia e latino) e del pensiero critico (etica e morale)”.

 

Regolamentazione del settore

C’è poi il capitolo delle normative. Un discorso aperto dall’Unione Europea con l’Artificial Intelligence Act, la prima legge quadro al mondo su questa disciplina,
“L’introduzione di un quadro normativo riferito all’intelligenza artificiale è certamente un passo necessario”, ha detto Tiziana Catarci. “Quando sono state inventate le automobili, per esempio, sono state definite anche le regole del traffico, oltre a strisce pedonali, semafori, airbag, eccetera. Molte iniziative utili mirano a introdurre la visione etica (e incentrata sull’essere umano) dell’Ia. Tuttavia, l’etica non è sufficiente, perché riguarda la responsabilità individuale mentre la politica pubblica riguarda la responsabilità sociale. Non possiamo semplicemente affidarci alle maggiori responsabilità delle imprese”.

 

Immagine di Julius H. da Pixabay

Show Buttons
Hide Buttons