Lo specialista in intelligenza artificiale Roman Yampolskiy avverte che entro il 2030 ci saranno massicci sfollamenti di posti di lavoro, senza alcuna strategia di riserva in vista.
Nel panorama in costante evoluzione dell'intelligenza artificiale (AI), gli esperti come Roman Yampolskiy sollevano una preoccupazione urgente: la necessità di diffondere una maggiore consapevolezza tra i stakeholder chiave del settore AI, poiché le decisioni prese oggi potrebbero avere conseguenze a lungo termine per il nostro futuro.
Yampolskiy sottolinea l'importanza di garantire che questi decisori siano qualificati e attrezzati per gestire le complessità dell'AI. Con molte aziende del settore che investono miliardi senza una chiara roadmap per la redditività, la necessità di un giudizio solido e di pianificazione strategica è fondamentale.
Yampolskiy suggerisce che, in quanto esseri umani, possiamo prendere l'iniziativa e assumere la responsabilità di prevenire i potenziali pericoli dell'AI. Crea che possiamo riprendere il controllo sull'AI costruendo cose che sono benefiche per l'umanità. Questo approccio potrebbe aiutare a indirizzare lo sviluppo dell'AI in una direzione che serve i nostri bisogni e valori, invece di creare conseguenze indesiderate.
Bill Gates, una figura rinomata nell'industria tecnologica, condivide sentimenti simili. Argomenta che alcune professioni sono troppo complesse per essere completamente integrate con l'AI, indicando che l'intervento umano rimarrà cruciale. Gates crede che l'AI sostituirà gli esseri umani per la maggior parte dei compiti, ma individua tre professioni che sopravvivrebbero alla rivoluzione AI: programmatori, esperti di energia e biologi.
Tuttavia, l'avanzamento dell'AI porta anche nuove sfide. Yampolskiy sostiene che man mano che gli strumenti AI diventano più avanzati e le aziende si avventurano nello sviluppo di robot umanoidi, potrebbe diventare antieconomico assumere esseri umani nel prossimo futuro. Ciò solleva preoccupazioni sul livello di disoccupazione, con Yampolskiy che suggerisce che in cinque anni i livelli di disoccupazione potrebbero raggiungere livelli senza precedenti, potenzialmente superando il 99%.
I ricercatori come Marisa Tschopp hanno contribuito a comprendere gli aspetti psicologici, etici e sociali dei rapporti uomo-macchina nell'AI. Essi sottolineano la necessità di un aperto dibattito sui rischi, sull'uso responsabile dei dati e sulla trasparenza sull'adozione dei sistemi AI. Gli esperti di cybersecurity hanno dimostrato i rischi di sicurezza pratici nell'AI generativa esponendo le vulnerabilità come quelle nel chatbot Lena di Lenovo, evidenziando l'urgenza di valutare rigorosamente la sicurezza dei sistemi AI prima del loro deployment.
Inoltre, i ricercatori come il guru dell'IT svizzero Marc Ruef mettono in guardia dalle minacce emergenti come il ransomware guidato dall'AI. Anche se l'AI abbassa le barriere per i criminali informatici, difendersi da questi attacchi richiede l'anticipazione delle capacità AI oltre i modelli attuali, indicando un futuro conflitto di cybersecurity guidato dall'AI.
Campi di ricerca più ampi affrontano i problemi fondamentali dell'AI come le allucinazioni, la replica del bias, la dominanza del mercato e la manipolazione dei dati. Questi problemi richiedono approcci multidisciplinari, compresi la tecnologia previsionale, la regolamentazione e il dialogo sociale per comprendere e controllare meglio i pericoli dell'AI generativa.
Le preoccupazioni per la sicurezza e le implicazioni etiche dell'AI non riguardano solo Yampolskiy. I laboratori AI come OpenAI, Google e Anthropic stanno apparentemente incontrando difficoltà nello sviluppo di modelli AI sofisticati a causa della mancanza di contenuti di alta qualità per l'addestramento. Inoltre, il CEO di Anthropic, Dario Amodei, ha ammesso che l'azienda non comprende appieno come funzionano i suoi modelli AI.
Di fronte a queste sfide, è chiaro che il futuro dell'AI è incerto. L'AI rappresenta una minaccia esistenziale significativa, con il ricercatore sulla sicurezza dell'AI Roman Yampolskiy che indica una probabilità del 99,99999% che l'AI potrebbe porre fine all'umanità. Man mano che continuiamo a spingere i limiti di ciò che l'AI può fare, è essenziale che ci avviciniamo a questa tecnologia con cautela, responsabilità e un impegno per garantire che i suoi benefici superino i suoi rischi.