Supervisione dello sviluppo dell'intelligenza artificiale nei fornitori di servizi di applicazioni esterne
In epoca digitale odierna, l'integrazione dell'Intelligenza Artificiale (IA) e dell'Apprendimento Automatico (ML) nelle applicazioni dei fornitori terzi sta diventando sempre più comune. Tuttavia, questa integrazione presenta nuove sfide per le organizzazioni, in particolare in termini di controllo dei dati, responsabilità e trasparenza.
Per mantenere il controllo sui dati e garantire la responsabilità, è essenziale incorporare clausole specifiche relative all'IA nei contratti dei fornitori. Il responsabile della gestione del rischio e del controllo tecnologico di EY (Ernst & Young), Ilakiya Ulaganathan, sottolinea questo punto. Un recente esempio illustra questa esigenza: un fornitore ha aggiunto funzionalità di GenAI alla sua piattaforma di analisi senza preavviso, rendendo necessario un riesame del contratto a metà ciclo. Il contratto è stato subsequently aggiornato per includere il linguaggio che richiede la disclosure esplicita dei componenti AI/ML e il loro ruolo nella presa di decisioni.
Le falle di sicurezza o gli errori di configurazione in un fornitore potrebbero esporre un'organizzazione a violazioni ben oltre il loro controllo diretto. La mancanza di trasparenza nelle funzioni AI può sollevare domande sul trattamento dei dati sensibili. Per affrontare queste preoccupazioni, le organizzazioni dovrebbero richiedere trasparenza, spiegabilità e diritti di audit. Il diritto di audit dei modelli AI per la spiegabilità e il bias è stato introdotto, insieme alle garanzie di cancellazione dei dati alla fine del contratto.
Le organizzazioni dovrebbero anche definire la proprietà delle intuizioni e delle uscite generate dall'AI. In molti casi, la proprietà delle intuizioni generate dall'AI basate sui dati dell'organizzazione è stata chiarita come proprietà intellettuale dell'organizzazione. Per prevenire l'uso non notato dell'AI che potrebbe violare le leggi sulla protezione dei dati come GDPR o HIPAA o le future normative sull'IA, i fornitori dovrebbero divulgare qualsiasi uso dell'AI/ML durante l'adesione, e gli inventari dovrebbero essere revisionati trimestralmente per completezza.
La formazione regolare dovrebbe essere fornita per aiutare i team a porre le giuste domande sull'etica dell'AI, sulla gestione dei dati e sulla trasparenza, indipendentemente dal background tecnico. Molte organizzazioni mancano di una visione completa o del controllo su come queste tecnologie AI operano all'interno dei loro ambienti. Una griglia di rischio specifica per l'AI dovrebbe essere utilizzata per valutare i fornitori durante l'adesione e le revisioni annuali.
Le informazioni critiche potrebbero essere accidentalmente condivise con i sistemi AI esterni senza le opportune protezioni o il consenso. Per prevenire ciò, le organizzazioni dovrebbero stabilire esplicitamente i termini di ritenzione e cancellazione dei dati una volta che i contratti terminano. L'uso non notato dell'AI potrebbe anche portare a modelli AI addestrati sui dati incompleti o distorti, producendo risultati ingiusti o dannosi, specialmente in settori sensibili come il recruiting o la sanità. Pertanto, le organizzazioni dovrebbero considerare l'aggiunta di restrizioni all'uso dei dati aziendali per addestrare o migliorare i modelli AI.
Leggi anche:
- Laureato in ingegneria alla NASA che si impegna a costruire robot per le giunture di marijuana
- Sindrome da deformazione del collo: segni, effetti collaterali e rimedi
- La startup di tecnologia dei droni Stark dalla Germania raggiunge una valutazione di mezzo miliardo di dollari solo 18 mesi dopo la sua fondazione.
- Lo status del paese rimane incerto, poiché la Commissione non dispone di dettagli sull'attuale stato.