Valutare i rischi di IA per le compagnie di assicurazione mediante l'uso di strategie di red teaming
L'uso dell'intelligenza artificiale (AI) nel settore assicurativo è sotto crescente scrutinio da parte dei regolatori del settore assicurativo, poiché le preoccupazioni riguardo ai potenziali rischi e pregiudizi associati al deployment dell'AI continuano ad aumentare.
Il concetto di red teaming, utilizzato nella cybersecurity per testare e valutare la sicurezza e la robustezza dei sistemi AI, sta diventando sempre più familiare nei settori del rischio aziendale, del diritto e della conformità dell'industria assicurativa in relazione agli sforzi di governance dell'AI aziendale.
Il red teaming per le applicazioni AI viene utilizzato per valutare in modo obiettivo la capacità del sistema AI di resistere agli attacchi che potrebbero compromettere l'integrità dei dati, la privacy o la funzionalità operativa. Il Dipartimento del Commercio degli Stati Uniti, Istituto Nazionale di Standard e Tecnologia, definisce un red team come un gruppo autorizzato a emulare gli attacchi dei potenziali avversari sulla postura di sicurezza dell'impresa.
Le compagnie assicurative utilizzano il red teaming per testare le applicazioni AI sviluppate internamente nonché quelle acquistate da fornitori terzi. Tuttavia, alcuni fornitori terzi potrebbero non rivelare l'uso del red teaming, e le compagnie assicurative non dovrebbero basarsi esclusivamente su queste rappresentazioni a causa di potenziali vulnerabilità aggiuntive, pregiudizi o output illeciti causati dall'uso dei propri dati e delle modifiche proprietarie alle applicazioni AI.
La trasparenza e la documentazione delle valutazioni del rischio del red teaming sono essenziali per migliorare la postura di sicurezza della compagnia assicurativa, proteggere i dati sensibili e migliorare la loro governance dell'AI aziendale. Le valutazioni del rischio del red teaming dovrebbero essere documentate in modo trasparente per rispondere efficacemente alla scrutinio regolamentare.
Alcuni stati, come New York e Colorado, hanno emanato regolamentazioni specifiche sull'uso dell'AI nel settore assicurativo. Il Dipartimento di Servizi Finanziari dello Stato di New York ha emanato la Regolamentazione sulla Cybersecurity (23 NYCRR 500) e la Circular Letter No. 7 Regarding the Use of Artificial Intelligence Systems and External Consumer Data and Information Sources in Insurance Underwriting and Pricing (Circular Letter No. 7). Il Colorado ha emanato la Regolamentazione 10-1-1 et seq., Governance and Risk Management Framework Requirements for Life Insurers' Use of External Consumer Data and Information Sources, Algorithms, and Predictive Models (CO AI Regulations).
Inoltre, 24 stati hanno adottato il Model Bulletin on the Use of Artificial Intelligence By Insurers della National Association of Insurance Commissioners (NAIC Model AI Bulletin).
Il red teaming potrebbe rivelare pregiudizi illeciti o pratiche discriminatorie ingiustificate derivanti dall'uso delle applicazioni AI da parte della compagnia assicurativa. I regolatori considerano l'uso dell'AI da parte delle compagnie assicurative come creando rischi significativi per il pubblico che acquista assicurazioni.
Per ulteriori informazioni sul red teaming e sulla governance dell'AI aziendale, contattare Paige Waters all'indirizzo [email protected] o Stephanie Macro all'indirizzo [email protected]. L'organizzazione che ha eseguito gli esercizi di red teaming
Leggi anche:
- "Il governatore Hochul sostiene che le aziende di New York hanno inviato illegalmente prodotti per lo svapo, con particolare attenzione ai bambini"
- Esplorare il nesso: Le infanzie traumatiche alimentano gli antagonisti cinematografici?
- Il Venezuela continua a promuovere le iniziative di energia solare in un'epoca di interruzioni di corrente
- Il capo pubblicitario si è dimesso dopo nove mesi di servizio .