L’AI Act, regolamento sull’IA, stabilisce 4 livelli di rischio delle applicazioni AI:
- Rischio inaccettabile. Applicazioni vietate: Tecniche subliminali o sistemi di punteggio sociale o identificazione biometrica remota utilizzati dalle autorità pubbliche.
- Rischio alto. Per le applicazioni legate ai trasporti, all’istruzione, all’impiego e al welfare, tra le altre. Prima di mettere sul mercato o in servizio nell’UE un sistema di IA ad alto rischio, le aziende devono condurre una “valutazione di conformità”.
- Rischio limitato. Sistemi di IA che soddisfano specifici obblighi di trasparenza: l’uso di un chatbot deve essere esplicitato.
- Rischio minimo. Filtri antispam, videogiochi abilitati all’IA e sistemi di gestione delle scorte.