La norma ISO/IEC 42001 ha introdotto il sistema di gestione dell’Intelligenza Artificiale, indicata anche come AI.
L’AI è la disciplina volta a sviluppare la capacità di un sistema IT di imitare peculiarità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività, attraverso processi di apprendimento denominati “machine learning”. L’AI è sempre più applicata in contesti che usano la tecnologia a supporto dei processi aziendali, dalla sanità alla finanza, dall’energia ai trasporti, dalle risorse umane all’entertainment.
L’introduzione dell’AI in processi finora basati sul pensiero umano , porta con sé una serie di dubbi etici e di rischi legati al conferimento di poteri decisionali a strumenti automatici. Questi strumenti modificano infatti il loro comportamento nel tempo e potrebbero essere influenzati da fattori non trasparenti ed estranei alla volontà dei proprietari dei processi.
Lo scopo del sistema di gestione per l’AI è fornire alle organizzazioni - di qualunque dimensione e ambito di attività - gli strumenti per governare i processi di AI di proprio interesse, nel ruolo di sviluppatori, fornitori o utenti di sistemi AI. In questo modo, si forniscono al mercato le garanzie di uso etico, responsabile, affidabile e sicuro dell’AI.
La nostra pluriennale esperienza nel settore ICT con le certificazioni ISO/IEC 27001 e ISO/IEC 20000, garantisce che i tecnici dei nostri team di valutazione abbiano specifiche competenze in materia di Informatica e programmazione. Inoltre, partecipano attivamente alle Community di studio sull’Intelligenza Artificiale.
La durata della certificazione ISO/IEC 42001 è pari a 3 anni, rinnovabile al termine del triennio.
Dal punto di vista tecnico, i sistemi di gestione per l’AI fanno riferimento ad alcune norme ISO di inquadramento, come le ISO/IEC TS 4213, 23053 e 5259 sul “Machine Learning”, ISO/IEC 5338 sul “System life cycle”, nonché alle norme metodologiche ISO/IEC 22989 (Concetti e terminologia), 23894 (Risk Management), 24368 (Aspetti etici).
Anche il NIST ha sviluppato un “Risk Management Framework”.
In ambito legislativo, è in fase di approvazione sul territorio europeo l’”Artificial Intelligence Act”, il principale Regolamento che disciplinerà l’uso dell’Intelligenza Artificiale in base al livello di rischio assegnato alle applicazioni che la utilizzano.