Company name: Dynamic Solutions s.r.l.
Address: VIA USODIMARE 3 - 37138 - VERONA (VR) - Italy

E-Mail: [email protected]

Intelligenza artificiale, stiamo vivendo una nuova bolla finanziaria?

Le recenti turbolenze sui mercati finanziari e i cali dei titoli tecnologici suggeriscono che l'espansione dell'AI potrebbe aver raggiunto il suo apice, sollevando importanti interrogativi sulla sostenibilità degli investimenti nel settore tecnologico.
  • I titoli tecnologici, tra cui Nvidia, Apple, e Tesla, hanno subito cali tra il 7% e il 9% nelle ultime settimane.
  • La percezione della poca remuneratività degli investimenti in AI potrebbe portare a un ripensamento delle politiche aziendali nel settore tecnologico.
  • Secondo l'FMI, il 30% dei posti di lavoro nelle economie avanzate è ad alto rischio di sostituzione dall'AI, rispetto al 20% nei mercati emergenti.

Una tempesta finanziaria è alle porte? È presto per dirlo ma non per cogliere determinati segnali: tra i titoli più colpiti in queste ore ci sono tutti quelli legati alla tecnologia. Qualcuno ipotizza che la trasformazione digitale abbia già esaurito il suo potenziale espansivo. Nelle ultime settimane, le turbolenze sui mercati finanziari hanno scatenato paure diventate virali, allarmando sia i governi che le comunità di molti Paesi, tra cui il nostro.

È dietro l’angolo una nuova recessione? La tempesta finanziaria proseguirà abbattendosi su famiglie e imprese e riporterà le lancette dell’orologio a epoche contrassegnate da una devastante instabilità? È presto per dirlo perché le variabili sono tantissime e i segnali sono per certi aspetti contraddittori. Di sicuro sarà ancora una volta decisiva la tenuta dell’economia americana, che risentirà dei conflitti in corso in Ucraina e in Medio Oriente e della campagna elettorale per il dopo Biden. Il dilemma che avranno di fronte gli elettori americani è tra il possibile isolazionismo di Donald Trump e una più forte tassazione di Kamala Harris. In entrambi i casi i riflessi sulla finanza internazionale sono al momento imprevedibili.

Ma c’è un altro segnale che si può cogliere esaminando il recentissimo andamento dei mercati finanziari. Qualcuno azzarda perfino che sia già scoppiata la bolla dell’Intelligenza Artificiale, cioè che questa trasformazione digitale abbia già esaurito il suo potenziale espansivo in termini di remunerazione degli investimenti e stia diventando quasi una palla al piede per il sistema finanziario globale. Infatti, tra i titoli più colpiti dai sommovimenti di queste ore ci sono tutti i titoli tecnologici come Nvidia, Apple, Tesla, Broadcom, Super Micro Computer, lunedì scorso in calo tra il 7% e il 9% (non a caso c’è stato chi ha parlato di “lunedì nero”). Il riassestamento dei titoli tecnologici, in un clima di grande nervosismo tra gli operatori, ha poi avuto un punto di caduta attorno ai 4-5 punti di perdita.

C’è una diffusa percezione della precarietà degli investimenti in soluzioni di Intelligenza Artificiale, che non offrirebbero grandi margini di monetizzazione. Non sarebbe cioè particolarmente conveniente per le aziende del settore tecnologico puntare su quella trasformazione digitale. D’altra parte molti analisti hanno la memoria corta e dimenticano che ciclicamente le rivoluzioni tecnologiche hanno delle ripercussioni sulle borse. Proprio trent’anni fa, nel 1994, nacque la new economy, con la quotazione in borsa della società Netscape, che aveva prodotto il primo browser commerciale per Internet, aprendo la strada all’espansione delle dot-com companies, che all’inizio attiravano investimenti sull’onda dell’innovazione, alimentando l’euforia per ingenti guadagni sul valore dei titoli emessi dalle aziende del comparto.

La stessa dinamica si sta riproducendo oggi con l’Intelligenza Artificiale, che sta giocando lo stesso ruolo delle dot-com di trent’anni fa. Sono già diversi anni che le aziende interessate allo sviluppo dell’AI investono in questo campo e galvanizzano i mercati, garantendo rendimenti nettamente superiori a quelli dei titoli di Stato. Oggi, però, sembra che tale meccanismo si stia inceppando a causa della scarsa remunerazione di questi titoli, collegata ai ridotti margini di monetizzazione sui prodotti di AI creati dalle aziende. Se questa percezione dovesse confermarsi nei prossimi mesi, assisteremmo a un ripensamento delle politiche sull’AI da parte di grandi player del settore tra cui Apple, Microsoft, Nvidia, Alphabet (Google), Amazon, Meta (Facebook) e Tesla, il che potrebbe frenare lo slancio rivoluzionario dell’AI e contrarne l’espansione.

I Rischi dell’Intelligenza Artificiale per l’Economia

I veri effetti dirompenti dell’intelligenza artificiale sull’economia e sui mercati finanziari potrebbero non essere evidenti fino a quando non ci sarà una recessione, che potrebbe trasformarsi in una crisi conclamata a meno che i rischi dell’AI non vengano affrontati, ha avvertito di recente l’FMI. Durante un discorso a un vertice sull’AI in Svizzera il 30 maggio, la vice direttrice generale dell’FMI Gita Gopinath ha affermato che la discussione sui rischi dell’AI si è concentrata in gran parte sulla privacy, la sicurezza e la disinformazione. Ma molto meno si parla del rischio che l’AI rafforzi la prossima recessione.

In un mondo di adozione diffusa dell’intelligenza artificiale, la tecnologia potrebbe convertire una recessione altrimenti ordinaria in una crisi economica molto più profonda, sconvolgendo i mercati del lavoro, i mercati finanziari e le catene di approvvigionamento, ha affermato. In tempi economici normali, le aziende storicamente tendono a investire nell’automazione, ma continuano a trattenere i lavoratori perché hanno i profitti per farlo. Ma quando le aziende tagliano i costi in una fase di recessione, i lavoratori vengono licenziati e sostituiti dall’automazione, ha spiegato. Gopinath ha indicato una ricerca dell’FMI che mostra che nelle economie avanzate, il 30% dei posti di lavoro è ad alto rischio di sostituzione dell’AI, rispetto al 20% nei mercati emergenti e al 18% nei Paesi a basso reddito. “Quindi abbiamo una scala molto più ampia di potenziali perdite di posti di lavoro che potremmo avere”, ha avvertito. “E ancora una volta, i rischi di disoccupazione a lungo termine sono piuttosto gravi”.

L’industria finanziaria ha da tempo abbracciato l’automazione e le prime forme di intelligenza artificiale, come il trading basato su algoritmi, e oggi il settore sta adottando rapidamente nuove tecnologie di intelligenza artificiale. Gopinath ha osservato che parte del trading basato sull’intelligenza artificiale viene sostituito da modelli più complessi in grado di apprendere da soli e le previsioni suggeriscono che i robo-advisor controlleranno più di 2 trilioni di dollari di asset entro il 2028, rispetto a meno di 1,5 trilioni di dollari nel 2023. Se da un lato l’AI può migliorare l’efficienza e l’inclusività del mercato, dall’altro è più probabile che i rischi dell’AI si manifestino anche in una fase di ribasso, ha aggiunto. Questo perché i nuovi modelli di intelligenza artificiale funzionerebbero male in eventi diversi da quelli su cui sono stati addestrati. “E una cosa che sappiamo: non ci sono due recessioni che tendono ad essere uguali”, ha detto Gopinath. In uno scenario del genere, l’AI potrebbe stimolare un rapido e simultaneo passaggio agli asset più sicuri, portando a un calo dei prezzi per gli altri asset. I modelli di intelligenza artificiale rileverebbero quindi i cali dei prezzi, li vedrebbero come un’affermazione dei loro movimenti precedenti, e raddoppierebbero con più vendite di asset. E data la natura della scatola nera dell’AI, tale comportamento potrebbe essere difficile da controllare. “Si potrebbero avere vendite a raffica e comportamenti dannosi, che portano a crolli ancora più grandi dei prezzi degli asset”, ha detto Gopinath.

Man mano che le aziende adottano l’intelligenza artificiale, potrebbero lasciare che svolga un ruolo più importante nel decidere quanto produrre. In tempi economici normali, ciò potrebbe aumentare l’efficienza e la produttività. Ma i modelli di intelligenza artificiale che sono stati addestrati su “dati obsoleti” potrebbero produrre gravi errori e portare a una cascata di nodi nella catena di approvvigionamento, ha affermato.

Cosa ne pensi?
  • 🌟 L'IA sta cambiando il mondo, ma siamo pronti a…...
  • ⚠️ La bolla dell'IA è reale: i titoli tecnologici stanno…...
  • 🔍 E se la vera minaccia dell'IA fosse la perdita di…...

Il Problema della Fiducia nell’Intelligenza Artificiale

Con decine di miliardi investiti nell’IA l’anno scorso e attori di primo piano come OpenAI in cerca di altri trilioni, l’industria tecnologica sta correndo per aumentare la disponibilità di modelli di IA generativa. L’obiettivo è mostrare costantemente prestazioni migliori e, così facendo, colmare il divario tra ciò che gli esseri umani possono fare e ciò che può essere realizzato con l’IA. C’è, tuttavia, un altro divario che dovrebbe avere la stessa priorità, se non addirittura maggiore, quando si pensa a questi nuovi strumenti e sistemi: il gap di fiducia nell’IA.

Questo divario si colma quando una persona è disposta ad affidare a una macchina un lavoro che altrimenti sarebbe stato affidato a persone qualificate. È essenziale investire nell’analisi di questa seconda lacuna, poco apprezzata, e in ciò che si può fare al riguardo, se si vuole che l’IA venga adottata su larga scala. Il gap di fiducia nell’IA può essere inteso come la somma dei rischi persistenti (sia reali che percepiti) associati all’IA; a seconda dell’applicazione, alcuni rischi sono più critici di altri. Questi riguardano sia l’apprendimento automatico predittivo che l’IA generativa.

Secondo la Federal Trade Commission, i consumatori esprimono le loro preoccupazioni in merito all’IA, mentre le aziende sono preoccupate per diversi problemi a breve e lungo termine. Consideriamo 12 rischi legati all’IA che sono tra i più comunemente citati da entrambi i gruppi:

– Il problema della scatola nera
– Allucinazioni nei Large Language Model (LLM)
– Perdita del lavoro e disuguaglianze sociali
– Eccesso di potere da parte dello Stato

L’effetto cumulativo di questi rischi contribuisce all’ampio scetticismo dell’opinione pubblica e alle preoccupazioni delle aziende nei confronti della diffusione dell’IA. Questo, a sua volta, ne scoraggia l’adozione. Ad esempio, i radiologi esitano ad adottare l’IA quando la natura di scatola nera della tecnologia impedisce una chiara comprensione di come l’algoritmo prenda decisioni sulla segmentazione delle immagini mediche, sull’analisi della sopravvivenza e sulla prognosi. Garantire un livello di trasparenza sul processo decisionale degli algoritmi è fondamentale perché i radiologi sentano di adempiere responsabilmente ai loro obblighi professionali, ma questa necessaria trasparenza è ancora molto lontana; e il problema della scatola nera è solo uno dei tanti rischi di cui preoccuparsi.

Considerati i problemi simili in diverse situazioni applicative e settori, dobbiamo aspettarci che il divario di fiducia nell’IA sia permanente, anche se stiamo migliorando nella riduzione dei rischi. Ciò ha tre implicazioni principali. In primo luogo, a prescindere dai progressi compiuti nel migliorare le prestazioni dell’IA, i suoi utilizzatori – utenti domestici e aziendali, responsabili delle decisioni nelle organizzazioni, responsabili politici – devono superare un persistente gap di fiducia. In secondo luogo, le aziende devono investire nella comprensione dei rischi maggiormente responsabili del gap di fiducia che incide sull’adozione delle loro applicazioni, e lavorare per mitigarli. In terzo luogo, l’accoppiamento degli esseri umani con l’IA sarà lo strumento più essenziale per la gestione del rischio, il che significa che avremo sempre bisogno di esseri umani che ci guidino attraverso il divario – e gli esseri umani devono essere addestrati in modo appropriato.

Bullet Executive Summary

In un mondo sempre più dominato dalla tecnologia, è essenziale che i consumatori siano consapevoli dei rischi e delle opportunità offerte dall’Intelligenza Artificiale. La recente volatilità dei mercati finanziari e le preoccupazioni espresse dall’FMI e da altri esperti sottolineano l’importanza di un approccio equilibrato e informato. La fiducia nell’IA è un elemento cruciale per la sua adozione su larga scala, e le aziende devono lavorare per mitigare i rischi e aumentare la trasparenza.

Nozione base: La difesa dei consumatori richiede che essi siano informati e consapevoli dei rischi associati all’uso dell’Intelligenza Artificiale, come la perdita di posti di lavoro e la disinformazione.

Nozione avanzata: Per garantire un’adozione sicura e responsabile dell’IA, è fondamentale che le aziende investano in trasparenza e che i responsabili politici sviluppino regolamentazioni efficaci che bilancino innovazione e protezione dei diritti dei consumatori. La vigilanza umana e l’educazione all’”igiene digitale” saranno essenziali per navigare nel complesso panorama tecnologico del futuro.


Articolo e immagini generati dall’AI, senza interventi da parte dell’essere umano. Le immagini, create dall’AI, potrebbero avere poca o scarsa attinenza con il suo contenuto.(scopri di più)
0 0 votes
Article Rating
Subscribe
Notificami
guest
2 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
2
0
Ci interessa la tua opinione, lascia un commento!x