Salta al contenuto

Agenti di intelligenza artificiale autonomi in grado di gestire interi processi KYC con una supervisione umana minima?

Capacità dell'IA nella KYC: Gli sistemi autonomi di AI possono gestire i processi end-to-end di Know Your Customer (KYC) con poco supervisione umana, potenzialmente rendendo i sistemi Legally-Learned Model (LLM) che assumono i ruoli di analisti umani?

Possono gli agenti AI gestire la KYC completa con supervisione minima degli esseri umani e gli...
Possono gli agenti AI gestire la KYC completa con supervisione minima degli esseri umani e gli avoidanceweg li eliminendenti modelli linguistici renderanno il bisogno di analisti umani?

Agenti di intelligenza artificiale autonomi in grado di gestire interi processi KYC con una supervisione umana minima?

Nel panorama digitale in continua evoluzione, la lotta contro frodi sempre più sofisticate vedrà l'arrivo di un nuovo alleato: un specialista "superumano" dotato di strumenti AI. Questo sviluppo arriva mentre si accende il dibattito sul ruolo dell'IA nei settori regolamentati.

Mentre la responsabilità rimane un aspetto cruciale nell'operare in questi settori, la responsabilità per gli errori legati all'IA ricade sull'operatore. Ciò solleva domande sulla possibile sostituzione degli analisti umani con sistemi alimentati da IA, un argomento che sarà senza dubbio affrontato nel dibattito.

Il processo di verifica, una catena di passaggi interconnessi, include la verifica dell'identità, il controllo dell'autenticità, la cattura di una selfie, i controlli di vivacità, il confronto della selfie con l'ID, la scansione delle liste di sanzioni e la decisione basata sulle regole e sulla valutazione del rischio.

Mentre l'IA può aiutare in questo processo rendendo gli strumenti avanzati più accessibili, rilevando le anomalie nei flussi di eventi e persino redigendo i rapporti, ci sono limiti alle sue capacità. Ad esempio, le prestazioni dell'IA possono crollare quando devono concatenare diverse decisioni, rendendo le probabilità di un'esecuzione impeccabile accettabilmente basse.

Ci sono anche problemi tecnici più profondi con l'IA, come i limiti di contesto lungo, le "allucinazioni", le contraddizioni tra i modelli di dati e le regole e l'incapacità di misurare l'incertezza. Questi problemi mettono in evidenza la necessità di un tocco umano nel processo di verifica.

Yin Yan, a capo del dipartimento LLM di Sumsub, e Eugeny Malyutin, anche lui a capo del LLM di Sumsub, saranno in prima linea in questo dibattito. Malyutin esplorerà la fattibilità di agenti AI autonomi che effettuano la verifica dei documenti KYC in modo end-to-end con il minimo controllo umano.

Tuttavia, il futuro della verifica online non prevede l'eliminazione degli esseri umani, ma piuttosto una collaborazione tra IA e umani. L'IA può automatizzare i compiti che i macchinari svolgono meglio, come la rilevazione di deepfake sofisticati ed estrazione dei dati, mentre gli esseri umani possono concentrarsi sull'analisi, sulla scoperta e su indagini più approfondite.

Questa collaborazione è già evidente nei cambiamenti che l'IA ha portato nei processi di verifica e continuerà a plasmare il settore mentre cerchiamo di smettere di sprecare il tempo e le competenze umane sui compiti ripetitivi e di routine e reinvestire quel tempo in compiti più significativi. Nonostante i progressi compiuti, c'è un grande divario tra i prototipi di IA e la lotta contro le frodi nella vita reale, un divario che richiederà innovazione e collaborazione continue per colmarlo.

Leggi anche:

Più recente