Si prega di assicurarsi che Javascript sia abilitato ai fini dell'accessibilità al sito web. L'evoluzione dell'AI e il suo potenziale: domande e risposte con Google - Janus Henderson Investors
Per investitori privati in Italia

Evoluzione dell'IA e del suo potenziale: Q&A con Google

Sintesi di un recente dibattito sull'AI con alti dirigenti di Google Asia, moderato dal gestore di portafoglio, Richard Clode.

Richard Clode, CFA

Richard Clode, CFA

Gestore di portafoglio


1 novembre 2023
8 minuti di lettura

In sintesi

  • I modelli transformer come gli LLM (modelli linguistici di grandi dimensioni) stanno liberando tutta la potenza dell'AI generativa, suscitando un enorme interesse da parte dei clienti.
  • Gli hyperscaler stanno beneficiando della necessità di infrastrutture cloud, il meccanismo che mette a disposizione l'AI generativa.
  • La disruption responsabile sta diventando un punto focale, il che è molto positivo per le prospettive a lungo termine del settore tecnologico.

D: L'AI esiste da decenni, perché sta tornando così alla ribalta in questo periodo?

Molte aziende, tra cui Google, utilizzano l'intelligenza artificiale da anni per migliorare i loro prodotti e servizi - che si tratti di risultati di ricerca più accurati o di suggerire percorsi migliori in Maps. Un altro uso comune dell'AI è stato il testo predittivo, per esempio in Gmail. Google è stato il pioniere del concetto dei modelli transformer come tecnologia e l'ha reso open source. In ChatGPT, GTP è l'acronimo di generative pre-transformer, o pre-trasformatore generativo.

Ora, i fondamenti per creare opportunità per l'AI ci sono. La velocità di elaborazione è migliorata moltissimo. Per addestrare i modelli linguistici di grandi dimensioni con centinaia di miliardi di parametri è necessaria una performance di altissimo livello. In secondo luogo, la massiccia esplosione di dati è il carburante che consente a questi modelli di produrre risultati ed esiti ancora migliori.

Allo stesso tempo, questi modelli linguistici di grandi dimensioni (LLM) sono oggetto di uno sviluppo rapido e stanno diventando più intelligenti, con una velocità di apprendimento sempre maggiore. Le possibilità, in termini di applicazioni dell'AI generativa (gen AI), sono infinite. Gli LLM stanno alimentando l'intelligenza artificiale generativa. Se oggi si chiede a Google quanto fa 2+2, la risposta sarà 4 non perché è intelligente, ma perché il risultato è apparso da qualche parte in un documento su cui gli LLM di Google sono stati addestrati.

Sono le capacità predittive a rendere l'AI così interessante. Le aziende e le organizzazioni in genere si pongono tre domande chiave: Come possiamo risparmiare sui costi con l'AI? Come possono essere più produttivi i miei dipendenti? Come si può migliorare l'esperienza del cliente? Un assistente di supporto digitale è un caso di utilizzo reale dell'AI generativa e diventa sempre più utile, man mano che viene ulteriormente integrato nei processi.

È fondamentale anche il fatto che la monetizzazione dei dati è iniziata. Le interfacce di programmazione delle applicazioni (API) che consentono a due componenti software (come un'app e un telefono cellulare) di comunicare tra loro in molti casi erano gratuite. Recentemente abbiamo visto che piattaforme sociali popolari come Twitter e Reddit fanno pagare agli sviluppatori l'accesso ai dati per le loro applicazioni. Le aziende cercano di monetizzare i loro dati e, cosa fondamentale, in questo modo impediscono che chiunque possa estrarre dati da internet per creare LLM.

D: Quali sono le aree con il maggior potenziale per le applicazioni AI?

Per quanto riguarda i consumatori, l'attenzione è rivolta agli strumenti e ai servizi che possono migliorare la vita.  Esiste un'enorme gamma di interazioni con i consumatori che diventeranno molto più facili e coinvolgenti grazie all'AI. Nel frattempo, i clienti aziendali stanno utilizzando l'AI per potenziare la crescita delle loro attività.

La terza tappa è la responsabilità: quali sono le opportunità per migliorare la società nel suo complesso? Dobbiamo proteggere le persone dai potenziali pericoli dell'AI attraverso salvaguardie e regolamenti. Come possiamo migliorare la vita delle persone e come può farlo l'AI in modo molto più efficiente? Alcune aree in cui l'AI sta già fornendo aiuto sono la diagnosi delle malattie su scala e la previsione delle inondazioni, ma anche l'aumento di produttività che sta portando gli Stati Uniti a registrare un anno record per numero di lanci di nuovi farmaci.

D: Dove viene utilizzata oggi l'AI generativa?

Ogni prodotto di Google ha l'intelligenza artificiale incorporata. Google sta riscontrando un reale interesse da parte dei consumatori a interagire con questa tecnologia e a utilizzarla in modi interessanti. Ci sono diverse aree che sono entusiasmanti e hanno un enorme potenziale con l'aiuto dell'AI. Il desiderio umano fondamentale di cercare informazioni rilevanti e di natura semantica è molto forte. Possiamo compiere un tragitto assistito dall'AI attraverso l'helpdesk delle risorse umane, l'helpdesk di una banca, l'helpdesk per un viaggio o qualsiasi altra esigenza del cliente. L'AI aiuta a sbloccare la ricerca dei dati. L'AI generativa che utilizza modelli linguistici di grandi dimensioni ha la capacità di interrogare in modo naturale qualsiasi fonte di dati e può essere addestrata in modo specifico per adattarsi alle esigenze.

Sundar Pichai, CEO di Google e Alphabet, ha affermato che il loro approccio all'AI deve essere coraggioso, ma anche responsabile. Il modo in cui l'AI viene sviluppata e impiegata può contribuire al miglioramento della società, che sia per trasformare l'assistenza sanitaria o per rallentare il cambiamento climatico, o per altri scopi con il fine ultimo di migliorare la nostra vita. Il progetto Green Light di Google si avvale dell'intelligenza artificiale e delle tendenze di guida per contribuire a ridurre le emissioni delle automobili, creando gli schemi di traffico e gli itinerari più efficienti.

In termini di miglioramento della produttività dei dipendenti, in media uno sviluppatore di software trascorre almeno 30 minuti al giorno alla ricerca di soluzioni. La tecnologia AI può aiutare accelerando il processo, offrendo una soluzione in pochi secondi e scrivendo il codice per distribuirla. Questo esempio di utilizzo dell'AI è già molto diffuso e si estende a tutti i settori, dai servizi finanziari alle telecomunicazioni, dal commercio al dettaglio alla sanità, fino all'e-commerce, ai governi, ecc.

D: Perché il cloud è un meccanismo di distribuzione chiave per l'AI? Che cosa spinge gli hyperscaler a dotarsi di microchip specializzati che comportano costi significativi di ricerca e sviluppo?

L'AI generativa non è una sola tecnologia, ma una serie di tecnologie, la più fondamentale delle quali è l'infrastruttura. Andrew Ng della Stanford University ha detto: "L'intelligenza artificiale è la nuova elettricità". Se estendiamo questa frase, i dati sono il carburante che alimenta la rete, e la rete è in realtà il cloud. I dati del cloud e l'AI sono strettamente interconnessi; gli hyperscaler del cloud stanno diventando il cuore pulsante di tutto ciò che riguarda l'AI. Il cloud è l'infrastruttura di base, necessaria per gestire, elaborare e archiviare grandi serie di dati. Uber Eats ha fatto girare l'intera interfaccia di intelligenza artificiale conversazionale utilizzando le API e l'infrastruttura di Google. E soprattutto, i big data sono il catalizzatore del cloud, perché per riarchitettare veramente e poter sfruttare l'AI generativa e rendere accessibili i dati, è necessaria un'infrastruttura cloud.

Ci sono tre ragioni che giustificano la necessità di chip su misura: il rapporto prezzo-performance, la sostenibilità e l'enorme complessità degli LLM per soddisfare le esigenze sofisticate e personalizzate dei clienti. Google ha collaborato con NVIDIA sul lato GPU (elaborazione grafica), ma ha anche innovato storicamente sulle TPU, o unità di elaborazione dei tensori. Le TPU sono circuiti integrati specifici per le applicazioni (ASIC) sviluppati da Google e utilizzati per accelerare i carichi di lavoro dell'apprendimento automatico.

I chip generici di oggi eseguono solo la moltiplicazione standard, ma le serie di dati complessi di grandi dimensioni (zettabyte di informazioni) richiedono la moltiplicazione matriciale, non eseguibile dalle CPU standard (su cui girano il sistema operativo e le applicazioni). Ecco perché è nata la nozione degli acceleratori che ora sono progettati da aziende del calibro di nVIDIA e Marvell Technology. Il modello linguistico di grandi dimensioni più vasto oggi per Google ha circa 540 miliardi di parametri. Il prossimo ne avrà circa un trilione.

In termini di costi e fattori di sostenibilità, più si diventa efficienti, più il costo per soddisfare la domanda si riduce. I costi di addestramento e di inferenza per i modelli linguistici di grandi dimensioni hanno anche un'impronta di carbonio estremamente rilevante, il che spiega il desiderio e la necessità per gli hyperscaler di progettare il proprio silicio.

D: Quali sono le principali preoccupazioni legate all'AI, visto quanto può essere potente?

La disruption responsabile è estremamente importante perché ha un impatto sulla vita delle persone, i posti di lavoro, i governi e le economie. In generale, le aziende tecnologiche stanno adottando un approccio molto più attento rispetto al passato, qualcosa di molto positivo per il settore.

La sicurezza a livello di privacy dei dati e criminalità informatica è incorporata in qualsiasi nuova tecnologia in via di sviluppo. Ciò che l'AI porta con sé è anche una sfida di spiegabilità. Quando uno strumento chatbot/AI conversazionale riceve una domanda e sputa fuori una risposta, come spiega in che modo è arrivato a quella risposta? È una questione che riguarda in particolare le entità in cui il rapporto con i clienti si basa sulla fiducia, come i governi e le banche.

La spiegabilità è un problema difficile in un modello linguistico di grandi dimensioni. Quando due esseri umani interagiscono, non è facile prevedere come risponderà l'altro, perché dipende dal contesto, da dove e quando si incontrano, ecc. Lo stesso accade nel caso dell'AI generativa e dei modelli linguistici di grandi dimensioni. Collegato a questo c'è il concetto di "allucinazione", quando l'AI generativa propone qualcosa di completamente inventato.

Google Bard ha incorporato una funzione di controllo, che sfrutta il suo punto di forza nella ricerca per verificare i fatti, con l'obiettivo di contribuire a rendere l'AI un'esperienza più rassicurante e positiva. Identificare ed eliminare la disinformazione sono aspetti cui viene riservata grande attenzione.

Per quanto riguarda i dati proprietari e i problemi di scraping, l'opinione di Google è che l'accesso ai modelli linguistici di grandi dimensioni sarà democratizzato, sia da Google, OpenAI, Meta ecc. In genere gli LLM sono addestrati su dati generici disponibili gratuitamente. Le aziende ottengono un valore reale quando combinano i loro dati proprietari con la potenza di un modello linguistico di grandi dimensioni. È qui che iniziano a trarre vantaggio, integrando i dati dei clienti all'interno di database proprietari con piattaforme front-end e sistemi back-end.

Nota: alti dirigenti di Google - Mitesh Agarwal, Chief Technology Officer, Google Cloud APAC e Simon Kahn, Chief Marketing Officer, Google APAC.

Inferenza AI: la prima fase dell'apprendimento automatico è la fase di addestramento, in cui si sviluppa l'intelligenza registrando, memorizzando ed etichettando le informazioni. Nella seconda fase, il motore di inferenza applica regole logiche alla base di conoscenza per valutare e analizzare nuove informazioni, che possono essere utilizzate per aumentare il processo decisionale umano.

Computazione: indica la potenza di elaborazione, la memoria, la rete, l'archiviazione e altre risorse necessarie per il successo computazionale di qualsiasi programma.

CPU: l'unità di elaborazione centrale è il centro di controllo che gestisce il sistema operativo e le applicazioni della macchina, interpretando, elaborando ed eseguendo le istruzioni dei programmi hardware e software.

AI generativa: si riferisce a modelli di apprendimento strutturato profondo che si addestrano su grandi volumi di dati grezzi per generare "nuovi contenuti", in forma di testo, immagini, audio e video.

GPU: un'unità di elaborazione grafica esegue complessi calcoli matematici e geometrici necessari per il rendering grafico.

Hyperscaler: aziende che forniscono l'infrastruttura per servizi cloud, di rete e internet su scala. Alcuni esempi sono Google Cloud, Microsoft Azure, Meta Platforms, Alibaba Cloud e Amazon Web Services (AWS).

LLM (large language model, modello linguistico di grandi dimensioni): un tipo specializzato di intelligenza artificiale che è stato addestrato su grandi quantità di testo per comprendere i contenuti esistenti e generare contenuti originali.

Software open source: codice progettato per essere accessibile al pubblico, a scopo di visualizzazione, modifica e distribuzione.

TPU: il compito principale delle unità di elaborazione dei tensori è l'elaborazione di matrici, che è una combinazione di operazioni di moltiplicazione e accumulazione. Le TPU contengono migliaia di moltiplicatori-accumulatori che sono direttamente collegati tra loro per formare una grande matrice fisica.

Modello transformer: una rete neurale che apprende il contesto e quindi il significato tracciando le relazioni nei dati sequenziali.

INFORMAZIONI IMPORTANTI

I settori tecnologici possono essere influenzati in modo significativo dall'obsolescenza della tecnologia esistente, dai cicli brevi dei prodotti, dal calo dei prezzi e dei profitti, dalla concorrenza di nuovi operatori che arrivano sul mercato e dalle condizioni economiche generali. Un investimento concentrato in un singolo settore potrebbe essere più volatile rispetto alla performance del mercato e di investimenti meno concentrati.

Queste sono le opinioni dell'autore al momento della pubblicazione e possono differire da quelle di altri individui/team di Janus Henderson Investors. I riferimenti a singoli titoli non costituiscono una raccomandazione all'acquisto, alla vendita o alla detenzione di un titolo, di una strategia d'investimento o di un settore di mercato e non devono essere considerati redditizi. Janus Henderson Investors, le sue affiliate o i suoi dipendenti possono avere un’esposizione nei titoli citati.

 

Le performance passate non sono indicative dei rendimenti futuri. Tutti i dati dei rendimenti includono sia il reddito che le plusvalenze o le eventuali perdite ma sono al lordo dei costi delle commissioni dovuti al momento dell'emissione.

 

Le informazioni contenute in questo articolo non devono essere intese come una guida all'investimento.

 

Comunicazione di Marketing.

 

Glossario