Vai al contenuto

Contesto

La rapida diffusione dei sistemi di Intelligenza Artificiale (IA) sempre più potenti e pervasivi sta moltiplicando in maniera esponenziale il loro impatto a livello economico, sociale e culturale. Un esempio importante è dato dai cosiddetti modelli linguistici generativi (language models) come ChatGPT o DALL-E che sono in grado di generare contenuti sotto forma di testi e immagini che hanno qualità spesso indistinguibili da quelle umane. Si stanno quindi aprendo scenari applicativi fino a pochi anni fa impensabili, che rendono urgente il tema della potenziale pericolosità dell’IA (es. per la creazione di falsi, disinformazione, ecc.). Questo è anche giustificato dalla natura stessa dei modelli usati – tipicamente “scatole nere” neurali la cui complessità rende arduo se non impossibile spiegarne i comportamenti – e anche dai limiti che tuttora essi mostrano, spesso peraltro difficili da individuare proprio per il loro carattere “opaco” e che ne inficiano l’affidabilità.

Diventa dunque necessario poter distinguere una “buona IA”, a cui delegare con fiducia molti compiti anche in contesti critici, da una “cattiva IA”, che è invece imperativo controllare e limitare. Tale discrimine è oggetto anche di un’innovativa iniziativa normativa da parte dell’Unione Europea, lo “AI Act”, che definisce l’obiettivo strategico di sviluppare una “buona IA” che sia affidabile, trasparente, robusta, sicura ed etica. Questo implica che un sistema di IA dovrà essere valutato non solo rispetto alla sua performance nel risolvere il particolare task per il quale è stato progettato, ma anche rispetto alla sua capacità di soddisfare i criteri fondamentali di affidabilità, trasparenza, robustezza, sicurezza, eticità e rispetto dei sistemi valoriali, anche nelle loro rispettive specificità linguistiche e culturali. Tale valutazione di conformità preventiva rispetto ad ogni immissione sul mercato sarà necessaria per i sistemi ad “alto rischio” (es. un sistema di IA usato in un contesto di valutazione di curriculum per l’accesso professionale, in cui il rischio è legato a potenziali discriminazioni causate da bias del modello), ma raccomandata in generale per ogni tipo di IA. Questo avrà naturalmente un effetto importante sul mercato stesso dei sistemi IT, in quanto il successo di un’applicazione potrà dipendere proprio dal suo grado di conformità ai valori della “buona IA”.