Tab Magazine

Tecnologie per assicurazioni e banche

Un appello dal mondo scientifico: l’Ai Act dia regole certe

30 Novembre 2023

Una lettera aperta per la regolamentazione dei modelli generativi nella legge sull’intelligenza artificiale. A diffonderla, alcuni scienziati che si occupano di Ia, per promuovere regole certe in questo ambito.
La riportiamo integralmente.

Ai Act intelligenza artificiale

 

Lettera aperta della comunità scientifica per la regolamentazione dei modelli generativi nell’AI Act

Come scienziati della comunità dell’Intelligenza Artificiale vogliamo far sentire la nostra voce a sostegno della necessità di regole sui grandi modelli generativi, i “foundation model”, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale, l’AI Act, in corso di negoziazione finale.

I modelli linguistici generativi come GPT-2, GPT-3(.5) e GPT-4, modelli di complessità gigantesca ottenuti per addestramento su enormi risorse di dati da varie fonti (come web, libri, social media e altro), hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici. ChatGPT ha introdotto l’uso di tali modelli al grande pubblico globale. Sistemi come Stable Diffusion e MidJourney hanno rivoluzionato la creazione di immagini a partire da descrizioni testuali.
Tali modelli generativi (pre-addestrati) possono essere specializzati in una miriade di applicazioni in domini diversi, con effetti dirompenti sulla società e sull’economia: educazione, salute, scienza, tecnologia, industria, pubblica amministrazione, etc., alimentando un ecosistema e una catena del valore innovativi.
D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono. Nel contesto attuale, è difficile valutare l’impatto sulla società e l’economia a medio/lungo termine, inclusi i rischi esistenziali per la democrazia, la scienza e il lavoro, preoccupazioni espresse anche dagli stessi pionieri che hanno contribuito allo sviluppo della tecnologia dell’AI generativa.
Crediamo che l’assenza di regole certe per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, comporti un forte rischio economico sulle aziende
europee e italiane che stanno creando prodotti e servizi basati su tali modelli.
L’assenza di regole a monte avrebbe la conseguenza di scaricare sulle piccole e medie imprese europee l’intera responsabilità di essere conformi alle disposizioni dell’AI Act, senza però disporre di alcun controllo sui modelli generativi usati all’interno dei loro prodotti e quindi poter garantire robustezza, trasparenza e affidabilità.
Lungi dall’essere un freno per l’industria europea, la regolamentazione applicata ai modelli generativi sposta la responsabilità anche su chi li produce e li mette sul mercato per ulteriori utilizzi, e offre una protezione essenziale che andrà a vantaggio dell’industria europea e italiana e dell’ecosistema emergente dell’AI.

Regole a monte garantiscono che i pochi grandi sviluppatori forniscano i meccanismi di trasparenza e fiducia per i numerosi ulteriori attori a valle. Altrimenti, gli utenti finali saranno esposti a rischi che gli sviluppatori dei servizi a valle, e le PMI in particolare, non possono gestire tecnicamente. Le “carte modello” e i codici di condotta volontari – e quindi non sanzionabili – non sono sufficienti, come ampiamente dimostrato dall’esperienza. La regolamentazione, snella ma certa, dei modelli generativi è uno scudo cruciale per la sicurezza dell’industria europea e dei cittadini europei.
Facciamo quindi appello al governo italiano perché continui ad adoperarsi per un testo definitivo dell’AI Act che includa regole chiare per i modelli generativi, rinforzando il ruolo dell’Europa di avanguardia globale della regolamentazione dell’Intelligenza Artificiale, consentendo di coglierne le opportunità con le migliori salvaguardie per la sicurezza.

 

Tra gli aderenti, pionieri dell’Ia moderna, come Yoshua Bengio, Stuart Russell e Raja Chatila. La lettera si può firmare a questa pagina internet.

Show Buttons
Hide Buttons