Greg Pavlik | Senior Vice President, Oracle Cloud Infrastructure | 15 settembre 2023
L'intelligenza artificiale generativa (o AI generativa) è una forma relativamente nuova di intelligenza artificiale che, a differenza dei suoi predecessori, può creare nuovi contenuti estrapolando dai suoi dati di addestramento. La sua straordinaria capacità di produrre scrittura, immagini, audio e video simili a quelli prodotti dall'uomo ha catturato l'immaginazione del mondo, fin da quando il primo consumer chatbot di AI generativa è stato rilasciato al pubblico nell'autunno del 2022. Un report di giugno 2023 di McKinsey & Company ha stimato che l'AI generativa ha il potenziale per aggiungere tra 6100 e 7900 miliardi di dollari all'anno all'economia globale aumentando la produttività dei lavoratori. Per rendere chiara l'idea, la stessa ricerca fissa il potenziale economico annuale di una maggiore produttività data da tutte le tecnologie AI tra i 17100 e i 25600 miliardi di dollari. Quindi, sebbene l'AI generativa sia il piatto forte della metà del 2023, è comunque solo una parte del menu che è l'intelligenza artificiale.
Ma ogni azione ha una reazione uguale e opposta. Insieme alle sue notevoli prospettive di produttività, l'intelligenza artificiale generativa porta nuovi potenziali rischi aziendali, come l'imprecisione, le violazioni della privacy, l'esposizione della proprietà intellettuale, e la capacità di provocare interruzioni economiche e sociali su larga scala. Ad esempio, è improbabile che i benefici per la produttività dell'intelligenza artificiale generativa si realizzino senza sostanziali sforzi di riqualificazione dei lavoratori e, anche in questo caso, molti saranno costretti a cambiare lavoro. Di conseguenza, i responsabili governativi delle politiche di tutto il mondo, e anche alcuni dirigenti del settore tecnologico, stanno chiedendo una rapida adozione di normative AI.
Questo articolo rappresenta un'analisi approfondita della promessa e del pericolo dell'AI generativa: come funziona, le sue applicazioni, casi d'uso ed esempi più immediati, i suoi limiti, i suoi potenziali benefici e i suoi rischi per il business, le best practice per usarla, e uno sguardo al suo futuro.
Per intelligenza artificiale generativa (GAI, generative AI) si intende un sottoinsieme di tecnologie di machine learning AI che hanno recentemente sviluppato la capacità di creare rapidamente contenuti in risposta a prompt testuali che possono essere tanto brevi e semplici quanto molto lunghi e complessi. Diversi strumenti di intelligenza artificiale generativa possono produrre nuovi contenuti audio, immagini e video, ma è l'intelligenza artificiale conversazionale text-oriented che ha acceso l'immaginazione. Difatti, le persone possono conversare e imparare dai modelli di intelligenza artificiale generativa addestrati con testo praticamente nello stesso modo in cui lo fanno con gli esseri umani.
L'AI generativa ha conquistato il mondo nei mesi successivi al rilascio ChatGPT, un chatbot basato sul modello di rete neurale GPT-3.5 di OpenAI, avvenuto il 30 novembre 2022. GPT sta per generative pretrained transformer (trasformatore addestrato generativo), parole che descrivono principalmente l'architettura di rete neurale sottostante del modello.
Ci sono molti casi precedenti di chatbot conversazionali, a partire da ELIZA del Massachusetts Institute of Technology, prodotto a metà degli anni '60. Ma la maggior parte dei chatbot precedenti, ELIZA compreso, erano interamente o in gran parte basati su regole, quindi mancavano di comprensione contestuale. Le loro risposte erano limitate a un insieme di regole e modelli predefiniti. Al contrario, i modelli di intelligenza artificiale generativa emergenti ora non dispongono di tali regole o modelli predefiniti. Metaforicamente parlando, sono cervelli (reti neurali) primitivi e vuoti che sono esposti al mondo attraverso l'addestramento sui dati del mondo reale. Poi sviluppano autonomamente l'intelligenza, un modello rappresentativo di come funziona quel mondo che usano per generare nuovi contenuti in risposta ai prompt. Anche gli esperti di intelligenza artificiale non sanno esattamente come lo fanno poiché gli algoritmi sono auto-sviluppati e ottimizzati man mano che il sistema viene addestrato.
Le aziende grandi e piccole dovrebbero essere entusiaste del potenziale che l'AI generativa ha di portare i vantaggi dell'automazione tecnologica al knowledge work, il quale fino ad ora ha fatto ampiamente resistenza all'automazione. Gli strumenti di intelligenza artificiale generativa cambiano il calcolo dell'automazione del knowledge work; la loro capacità di produrre scrittura, immagini, audio o video simili a quelli umani in risposta a prompt di testo in inglese significa che possono collaborare con partner umani per generare contenuti che rappresentano il lavoro pratico.
"Nei prossimi anni, molte aziende formeranno i propri modelli linguistici di grandi dimensioni specializzati", ha dichiarato Larry Ellison, Chairman e Chief Technology Officer di Oracle, durante la conferenza di presentazione degli utili dell'azienda di giugno 2023.
L'intelligenza artificiale è una vasta area dell'informatica, di cui, almeno al momento, l'AI generativa è una piccola parte. Naturalmente, l'intelligenza artificiale generativa ha molti attributi in comune con l'intelligenza artificiale tradizionale. Ma ci sono anche alcune differenze importanti.
Un'altra differenza che vale la pena sottolineare è che la formazione di modelli fondamentali per l'AI generativa è "vergognosamente costosa", per citare un ricercatore di intelligenza artificiale. Ad esempio, 100 milioni di dollari sono necessari solo per l'hardware di cui c'è bisogno per iniziare, a questi poi si aggiungono i costi equivalenti dei servizi cloud, poiché è qui che si svolge la maggior parte dello sviluppo dell'AI. Poi c'è il costo degli enormi volumi di dati necessari.
Concetti chiave
Per le aziende grandi e piccole, la promessa apparentemente magica dell'AI generativa è che può portare i vantaggi dell'automazione tecnologica al knowledge work. Oppure, come afferma un report di McKinsey, "attività che coinvolgono il processo decisionale e la collaborazione, che in precedenza avevano il più basso potenziale per l'automazione".
Storicamente, la tecnologia è stata più efficace nell'automazione di attività di routine o ripetitive per le quali le decisioni erano già note o potevano essere determinate con un alto livello di fiducia basato su regole specifiche e ben comprese. Si pensi al manufacturing, con la sua precisa ripetizione della catena di montaggio, o alla contabilità, con i suoi principi regolati stabiliti dalle associazioni di settore. Ma l'AI generativa ha il potenziale per fare un lavoro cognitivo molto più sofisticato. Per suggerire un esempio certamente estremo, l'intelligenza artificiale generativa potrebbe supportare la formazione della strategia di un'organizzazione rispondendo a richieste di idee e scenari alternativi da parte dei manager di un'azienda nel bel mezzo di un'interruzione del settore.
Nel suo report, McKinsey ha valutato 63 casi d'uso in 16 funzioni aziendali, concludendo che il 75% dei trilioni di dollari di valore potenziale che potrebbero essere realizzati dall'intelligenza artificiale generativa deriverà da un sottoinsieme di casi d'uso facenti parte di solo quattro di queste funzioni: customer operations, marketing e vendite, software engineering e ricerca e sviluppo. Le prospettive di aumento dei ricavi in tutti i settori sono state distribuite in modo più uniforme, anche se ci sono stati picchi: l'high tech si è posizionato in cima alla lista in termini di possibile aumento come percentuale delle entrate del settore, seguito da banking, prodotti farmaceutici e medici, istruzione, telecomunicazioni e sanità.
Separatamente, un'analisi di Gartner ha corroborato le previsioni di McKinsey: ad esempio, oltre il 30% dei nuovi farmaci e materiali sarà scoperto utilizzando tecniche di intelligenza artificiale generativa entro il 2025, rispetto allo 0% di oggi, e il 30% dei messaggi di marketing in uscita da grandi organizzazioni sarà, similmente, generato sinteticamente nel 2025, rispetto al 2% nel 2022. E in un sondaggio online, Gartner ha rilevato che customer experience e fidelizzazione sono state la risposta principale (al 38%) data dai 2.500 dirigenti a cui è stato chiesto per cosa le loro organizzazioni stavano investendo nell'AI generativa.
Ciò che rende possibile che tutto questo accada così velocemente è che, a differenza dell'AI tradizionale, la quale automatizza silenziosamente e aggiunge valore ai processi commerciali da decenni, l'AI generativa è salita alla ribalta a livello mondiale grazie al talento conversazionale human-like di ChatGPT. È questo che ha fatto anche luce sulle tecnologie di AI generativa che si focalizzano su altre modalità, attirando l'interesse delle persone; tutti sembrano stare sperimentando con la scrittura di testi, col fare musica, o col creare immagini e video utilizzando uno o più dei vari modelli che si specializzano in ogni area. Quindi, con molte organizzazioni che già sperimentano con l'AI generativa, il suo impatto sul business e sulla società sarà probabilmente colossale e accadrà molto velocemente.
Il rovescio della medaglia è che il knowledge work cambierà. I ruoli individuali cambieranno, a volte in modo significativo, ragion per cui i lavoratori dovranno imparare nuove competenze. Alcuni lavori spariranno. Storicamente, tuttavia, i grandi cambiamenti tecnologici, come l'AI generativa, hanno sempre aggiunto all'economia più posti di lavoro (e di valore più elevato) di quelli che eliminano. Ma questo non è molto di conforto per coloro che vedono il proprio lavoro eliminato.
Ci sono due risposte alla domanda su come funzionano i modelli di intelligenza artificiale generativa. Empiricamente, sappiamo come funzionano in dettaglio perché gli esseri umani hanno progettato le loro varie implementazioni di rete neurale per fare esattamente quello che fanno, iterando quei progetti nel corso di decenni per renderli sempre migliori. Gli sviluppatori di intelligenza artificiale sanno esattamente come sono connessi i neuroni; hanno progettato il processo di addestramento di ogni modello. Tuttavia, nella pratica, nessuno sa esattamente come i modelli di intelligenza artificiale generativa facciano ciò che fanno: è questa l'imbarazzante verità.
"Non sappiamo come effettuino l'attività creativa vera e propria perché ciò che accade all'interno dei livelli di rete neurale è troppo complesso per noi da decifrare, almeno ora come ora", ha affermato Dean Thompson, ex chief technology officer di diverse startup AI che sono state acquisite nel corso degli anni da altre aziende, tra cui LinkedIn e Yelp, dove è rimasto come senior software engineer e lavora su modelli linguistici di grandi dimensioni (LLM, large language model). La capacità dell'AI generativa di produrre nuovi contenuti originali sembra essere una proprietà emergente di ciò che è già noto, cioè la loro struttura e la loro formazione. Quindi, sebbene ci sia molto da spiegare su ciò che sappiamo, ciò che un modello come GPT-3.5 sta effettivamente facendo internamente, quello che sta"pensando", deve ancora essere capito. Alcuni ricercatori dell'intelligenza artificiale sono fiduciosi che questo diventerà noto nei prossimi 5-10 anni; altri non sono sicuri che sarà mai pienamente compreso.
Ecco una panoramica di ciò che già sappiamo sul funzionamento dell'AI generativa:
Inizia con il cervello. Secondo quanto affermato da Jess Hawkins nel suo libro del 2004 "On Intelligence", un buon punto di partenza per capire i modelli di intelligenza artificiale generativa è il cervello umano. Hawkins, informatico, neuroscienziato e imprenditore, ha presentato il suo lavoro in una sessione del 2005 al PC Forum, che era una conferenza annuale dei principali dirigenti di aziende tech guidata dall'investitrice tecnologica Esther Dyson. Hawkins ipotizzò che, a livello neurologico, il cervello funzionasse prevedendo continuamente cosa accadrà dopo e poi imparando dalle differenze tra le sue previsioni e la realtà successiva. Per migliorare la sua capacità predittiva, il cervello costruisce una rappresentazione interna del mondo. Nella sua teoria, l'intelligenza umana emerge da questo processo. Che sia influenzata da Hawkins o meno, l'AI generativa funziona esattamente in questo modo. E, sorprendentemente, agisce come se fosse intelligente.
Costruisci una rete neurale artificiale. Tutti i modelli di AI generativa partono da una rete neurale artificiale codificata nel software. Thompson afferma che una buona metafora visiva per una rete neurale è un foglio di calcolo, ma in tre dimensioni perché i neuroni artificiali sono su più livelli, in modo simile a come i neuroni reali sono impilati nel cervello. I ricercatori dell'AI chiamano i neuroni anche "celle", osserva Thompson, e ogni cella contiene una formula che lo mette in relazione con altre celle della rete, imitando il modo in cui le connessioni tra i neuroni cerebrali hanno diversi punti di forza.
Ogni strato può avere decine, centinaia o migliaia di neuroni artificiali, ma non è il numero di neuroni quello su cui i ricercatori di intelligenza artificiale si focalizzano. Piuttosto, misurano i modelli in base al numero di connessioni tra i neuroni. I punti di forza di queste connessioni variano in base ai coefficienti delle loro equazioni delle celle, i quali sono più comunemente chiamati "pesi" o "parametri". Questi coefficienti di definizione della connessione sono ciò a cui ci si riferisce quando si legge, ad esempio, che il modello GPT-3 ha 175 miliardi di parametri. L'ultima versione, GPT-4, si dice abbia bilioni di parametri, anche se non è stato ancora confermato. Ci sono una manciata di architetture di rete neurale con caratteristiche diverse che si prestano a produrre contenuti in modalità particolari; ad esempio, l'architettura del trasformatore sembra essere la migliore per i modelli linguistici di grandi dimensioni.
Insegna al neonato modello di rete neurale. Ai modelli linguistici di grandi dimensioni vengono dati enormi volumi di testo da elaborare e il compito di fare semplici previsioni, come la prossima parola che verrà digitata in una sequenza o l'ordine corretto di un insieme di frasi. In pratica, però, i modelli di rete neurale funzionano in unità chiamate token, e non parole.
"Una parola comune potrebbe avere un proprio token, parole non comuni sarebbero certamente costituite da più token, e alcuni token potrebbero rappresentare un singolo spazio seguito da 'th' perché quella sequenza di tre caratteri è estremamente comune", ha detto Thompson. Per effettuare le previsioni, il modello inserisce un token nel livello inferiore di una particolare pila di neuroni artificiali; quel livello lo elabora e passa il suo output al livello successivo, il quale a sua volta elabora e passa il suo output, e così via fino a quando l'output finale emerge dalla parte superiore della pila. Le dimensioni degli stack possono variare in modo significativo, ma in genere sono nell'ordine di decine di livelli, non di migliaia o milioni.
Nelle prime fasi di addestramento, le previsioni del modello non risultano molto accurate. Ma ogni volta che il modello prevede un token, ne controlla la correttezza rispetto ai dati di addestramento. Che sia giusto o sbagliato, un algoritmo di "retropropagazione" regola i parametri, cioè i coefficienti delle formule, in ogni cella dello stack che ha effettuato quella previsione. L'obiettivo delle modifiche è quello di rendere più probabile la previsione giusta.
"Lo fa anche per le risposte giuste, perché quella giusta previsione potrebbe aver avuto solo, per esempio, una certezza del 30%, ma quel 30% era, fra tutte le risposte possibili, la probabilità più elevata", ha detto Thompson. Quindi, la retropropagazione cerca di trasformare quel 30% in 30,001%, o qualcosa del genere".
Dopo che il modello ha ripetuto questo processo per bilioni di token di testo, diventa molto bravo a prevedere il token o la parola successivi. Dopo il training iniziale, i modelli di intelligenza artificiale generativa possono essere perfezionati tramite una tecnica di apprendimento supervisionata, come l'apprendimento per rinforzo dal feedback umano (RLHF, reinforcement learning from human feedback). Nel RLHF, l'output del modello viene dato a revisori umani che effettuano una valutazione binaria positiva o negativa (pollici in su o in giù) che viene reinserita nel modello. Il RLHF è stato utilizzato per perfezionare il modello GPT 3.5 di OpenAI allo scopo di aiutare a creare il chatbot ChatGPT che è poi diventato virale.
Ma il modello come ha risposto alla mia domanda? È un mistero. Ecco in che modo Thompson spiega lo stato attuale di comprensione: "C'è un enorme 'non lo sappiamo' nel mezzo della mia spiegazione. Quello che sappiamo è che prende tutta la domanda come una sequenza di token, e al primo livello li elabora tutti contemporaneamente. E sappiamo che poi elabora gli output da quel primo livello nel livello successivo e così via fino a quando arriva in cima allo stack. E poi sappiamo che usa quel livello superiore per prevedere, cioè produrre un primo token, e quel primo token è rappresentato come un dato in tutto quel sistema per produrre il token successivo, e così via.
"A rigor di logica, la domanda successiva è: a cosa ha pensato in tutta questa elaborazione e come lo ha fatto? Cosa hanno fatto tutti quei livelli? La risposta è: non lo sappiamo. Noi... non... lo... sappiamo. Puoi studiarlo. Puoi osservarlo. Ma la sua complessità va oltre la nostra capacità di analisi. È proprio come una F-MRI [risonanza magnetica funzionale] sul cervello delle persone. È la bozza più rozza di ciò che il modello ha effettivamente fatto. Non lo sappiamo".
Sebbene sia controverso, un gruppo di oltre una dozzina di ricercatori che hanno avuto accesso anticipato a GPT-4 nell'autunno del 2022 ha concluso che l'intelligenza con cui il modello risponde alle complesse sfide che gli hanno posto e l'ampia gamma di competenze che mostra, indica che il GPT-4 ha raggiunto una forma di intelligenza generale. In altre parole, ha costruito un modello interno di come funziona il mondo, proprio come potrebbe fare un cervello umano, e usa quel modello per ragionare sulle domande poste ad esso. Uno dei ricercatori ha riportato nel podcast "This American Life" che ha avuto un momento di shock quando ha chiesto a GPT-4 "Dammi una ricetta per biscotti con gocce di cioccolato, ma scritto nello stile di una persona molto depressa," e il modello ha risposto "Ingredienti: 1 tazza di burro ammorbidito, se si può anche trovare l'energia per ammorbidirlo. 1 cucchiaino di estratto di vaniglia, il falso sapore artificiale della felicità. 1 tazza di gocce di cioccolato semi-dolce, piccole gioie che alla fine si scioglieranno".
Un modo utile per capire l'importanza dell'intelligenza artificiale generativa è pensarla come una calcolatrice per contenuti creativi e aperti. Nello stesso modo in cui una calcolatrice automatizza calcoli di routine e banali, permettendo alle persone di concentrarsi su attività più complesse, l'AI generativa ha il potenziale per automatizzare i subtask più di routine e triviali che costituiscono gran parte del knowledge work, consentendo alle persone di concentrarsi sugli aspetti più importanti del proprio lavoro.
Pensa alle sfide che gli esperti di marketing devono affrontare per ottenere insight utili dai dati non strutturati, incoerenti e disconnessi che spesso devono gestire. Tradizionalmente, avrebbero bisogno in primo luogo di consolidare tali dati, cosa che richiede un po 'di ingegneria del software personalizzata se si vuole dare una struttura comune a fonti di dati diverse quali social media, notizie e feedback dei clienti.
"Ma con i LLM, puoi semplicemente inserire informazioni provenienti da varie fonti direttamente nel prompt e poi chiedere insight chiave, domandare a quale feedback dare la priorità, o richiedere l'analisi del sentiment, e il LLM lo farà", ha dichiarato Basim Baig, senior engineering manager specializzato in AI e sicurezza presso Duolingo. "La potenza del LLM sta nel consentirti di saltare quel passo ingegneristico massiccio e costoso".
Continuando, Thompson suggerisce che gli esperti di marketing dei prodotti potrebbero utilizzare i LLM per etichettare il testo in formato libero per l'analisi. Ad esempio, immagina di avere un enorme database di menzioni sui social media del tuo prodotto. Potresti scrivere un software che applica un LLM e altre tecnologie per:
Poi potresti applicare i risultati per:
L'intelligenza artificiale generativa rappresenta un'ampia categoria di applicazioni basate su un pool sempre più ricco di variazioni della rete neurale. Sebbene tutte le AI generative rientrino nella descrizione generale data nella sezione "Come funziona l'intelligenza artificiale generativa?", le tecniche di implementazione variano per supportare diversi media, come immagini e testo, e per incorporare i progressi della ricerca e dell'industria man mano che si presentano.
I modelli di rete neurale utilizzano i modelli ripetitivi di neuroni artificiali e le loro interconnessioni. Un design di rete neurale, per qualsiasi applicazione, inclusa l'AI generativa, spesso ripete lo stesso modello di neuroni centinaia o migliaia di volte, riutilizzando in genere gli stessi parametri. Questa è una parte essenziale di quella che viene chiamata "architettura di rete neurale". La scoperta di nuove architetture è stata un'area importante dell'innovazione dell'AI dal 1980, spesso guidata dall'obiettivo di sostenere un nuovo mezzo. Ma poi, una volta inventata una nuova architettura, si fanno spesso ulteriori progressi impiegandola in modi inaspettati. Un'ulteriore innovazione deriva dalla combinazione di elementi di diverse architetture.
Due delle architetture meno recenti e tuttora più comuni sono:
Sebbene le RNN siano ancora molto utilizzate, i successivi sforzi per migliorare gli RNN hanno portato a una svolta:
La ricerca, l'industria privata e l'offerta open source hanno creato modelli di impatto che innovano a livelli più elevati di architettura e applicazione di rete neurale. Ad esempio, ci sono state innovazioni cruciali nel processo di formazione, nel modo in cui il feedback training viene incorporato per migliorare il modello e nel modo in cui più modelli possono essere combinati nelle applicazioni di intelligenza artificiale generativa. Ecco una panoramica di alcune delle più importanti innovazioni del modello di AI generativa:
Sebbene il mondo abbia appena iniziato a grattare la superficie dei potenziali usi dell'AI generativa, è facile vedere come le aziende possano trarre vantaggio da quest'ultima applicandola alle loro attività. Pensa a come l'AI generativa potrebbe cambiare aree chiave come le interazioni con i clienti, le vendite e il marketing, l'ingegneria del software e la ricerca e lo sviluppo.
Nel customer service, la precedente tecnologia AI ha automatizzato i processi e introdotto il self-service dei clienti, ma ha anche portato a nuove frustrazioni. L'intelligenza artificiale generativa promette di offrire vantaggi sia ai clienti che agli operatori del customer service, con chatbot che possono essere adattate a diverse lingue e geografie, creando una customer experience più personalizzata e accessibile. Quando l'intervento umano è necessario per risolvere il problema di un cliente, gli operatori del customer service possono collaborare in tempo reale con strumenti di intelligenza artificiale generativa per trovare strategie utilizzabili, migliorando così la velocità e l'accuratezza delle interazioni. La velocità con cui l'intelligenza artificiale generativa può attingere alla knowledge base di un'intera grande azienda e sintetizzare nuove soluzioni per i reclami dei clienti offre al personale di customer service una maggiore capacità di risolvere efficacemente problemi specifici dei clienti, piuttosto che fare affidamento su informazioni obsolete e trasferimenti di chiamate fino a quando non viene trovata una risposta o il cliente non perde la pazienza.
Nel marketing, l'AI generativa può automatizzare l'integrazione e l'analisi dei dati provenienti da fonti diverse, il che dovrebbe accelerare drasticamente i tempi degli insight e portare direttamente a un processo decisionale più informato e a uno sviluppo più rapido delle strategie go-to-market. Gli esperti di marketing possono utilizzare queste informazioni insieme ad altri suggerimenti generati dall'intelligenza artificiale per creare nuove campagne pubblicitarie più mirate. Ciò riduce il tempo che il personale deve dedicare alla raccolta di dati demografici e sul comportamento di acquisto e dà loro più tempo per analizzare i risultati e fare brainstorming di nuove idee.
Tom Stein, presidente e chief brand officer dell'agenzia di marketing B2B Stein IAS, afferma che ogni agenzia di marketing, inclusa la sua, sta esplorando tali opportunità a velocità elevata. Ma, osserva Stein, ci sono anche conquiste più semplici e veloci per i processi di back-end di un'agenzia.
"Quando riceviamo RFI [richiesta di informazioni, request of information], tipicamente, una percentuale di queste che va dal 70% all'80% chiederà sempre le stesse informazioni, forse con alcune differenze contestuali specifiche per la situazione di quell'azienda", afferma Stein, che è stato anche presidente della giuria dei Cannes Lions Creative B2B Awards 2023. "Non è così complicato fare in modo che degli strumenti di intelligenza artificiale si occupino di quei processi al posto nostro... Quindi, se guadagniamo quell'80% del nostro tempo e lo utilizziamo per aggiungere valore alla RFI e farla funzionare correttamente, sarà sempre una vittoria. E ci sono molti processi come questo".
Gli sviluppatori di software che collaborano con l'AI generativa possono semplificare e accelerare i processi in ogni fase, dalla pianificazione alla manutenzione. Durante la fase di creazione iniziale, gli strumenti di intelligenza artificiale generativa possono analizzare e organizzare grandi quantità di dati e suggerire diverse configurazioni del programma. Una volta iniziata la codifica, l'AI può testare e risolvere i problemi del codice, identificare gli errori, eseguire la diagnostica e suggerire correzioni, sia prima che dopo il lancio. Thompson osserva che poiché così tanti software aziendali incorporano più linguaggi e discipline di programmazione, lui e altri ingegneri del software hanno utilizzato l'intelligenza artificiale per educarsi in aree da loro non conosciute molto più velocemente di quanto potessero fare in precedenza. Ha anche utilizzato strumenti di intelligenza artificiale generativa per spiegare il codice sconosciuto e identificare problemi specifici.
Nella ricerca e nello sviluppo (R&S, research and development), l'intelligenza artificiale generativa può aumentare la velocità e la profondità delle ricerche di mercato durante le fasi iniziali della progettazione del prodotto. Quindi i programmi AI, in particolare quelli con funzionalità di generazione di immagini, possono creare progetti dettagliati di potenziali prodotti prima di simularli e testarli, offrendo ai lavoratori gli strumenti di cui hanno bisogno per apportare modifiche rapide ed efficaci durante tutto il ciclo di ricerca e sviluppo.
Ellison, fondatore di Oracle, ha sottolineato durante la conferenza di presentazione degli utili di giugno che "i LLM specializzati accelereranno la scoperta di nuovi medicinali salvavita". La scoperta dei farmaci è un'applicazione di ricerca e sviluppo che sfrutta la tendenza dei modelli generativi ad avere informazioni errate o non verificabili, ma in modo positivo: identificare nuove molecole e sequenze proteiche a sostegno della ricerca di nuovi trattamenti sanitari. Separatamente, Cerner Enviza, società controllata di Oracle, ha collaborato con la Food and Drug Administration (FDA) statunitense e John Snow Labs per applicare gli strumenti di AI alla per "comprendere gli effetti dei farmaci su grandi popolazioni". La strategia AI di Oracle è quella di rendere l'intelligenza artificiale pervasiva nelle sue applicazioni cloud e nell'infrastruttura cloud.
L'intelligenza artificiale generativa ha il grande potenziale per accelerare o automatizzare completamente un insieme eterogeneo di attività. Le aziende dovrebbero pianificare modi deliberati e specifici per massimizzare i vantaggi che possono portare al loro business. Ecco alcuni casi d'uso specifici:
I vantaggi che l'AI generativa può portare a un'azienda derivano principalmente da tre attributi generali: sintesi della conoscenza, collaborazione uomo-AI e velocità. Sebbene molti dei vantaggi indicati di seguito siano simili a quelli promessi in passato dai precedenti modelli di intelligenza artificiale e dagli strumenti di automazione, la presenza di uno o più di questi tre attributi può aiutare le aziende a realizzare i vantaggi in modo più rapido, semplice ed efficace.
Con l'AI generativa, le organizzazioni possono costruire modelli personalizzati addestrati sulla propria conoscenza istituzionale e sulla loro proprietà intellettuale (IP, intellectual property), dopo di che i knowledge worker possono chiedere al software di collaborare a un'attività nella stessa lingua che potrebbero utilizzare con un collega. Un tale modello di intelligenza artificiale generativa specializzata può rispondere sintetizzando le informazioni dell'intera conoscenza base aziendale con una velocità sorprendente. Non solo questo approccio riduce o elimina la necessità di competenze complesse, e spesso meno efficaci e più costose, di ingegneria del software per creare programmi specifici per queste attività, ma è anche probabile che trovi idee e connessioni che approcci precedenti non rivelerebbero.
Maggiore produttività: i lavoratori con conoscenza possono utilizzare l'intelligenza artificiale generativa per ridurre il tempo dedicato alle attività quotidiane di routine, come imparare una nuova disciplina diventata improvvisamente necessaria per un progetto imminente, organizzare o categorizzare i dati, setacciare Internet per la ricerca applicativa o redigere e-mail. Sfruttando l'intelligenza artificiale generativa, un minor numero di dipendenti può svolgere attività che in precedenza richiedevano grandi team o intere ore di lavoro in una frazione del tempo. Un team di programmatori, ad esempio, potrebbe dedicare ore a esaminare il codice difettoso per risolvere ciò che è andato storto, ma uno strumento di intelligenza artificiale generativa potrebbe essere in grado di trovare gli errori in poco tempo e di segnalarli insieme alle correzioni suggerite. Poiché alcuni modelli di intelligenza artificiale generativa possiedono competenze che sono più o meno nella media o migliori in un ampio spettro di competenze dei lavoratori con conoscenza, la collaborazione con un sistema di intelligenza artificiale generativa può aumentare notevolmente la produttività del lavoratore. Ad esempio, un junior product manager potrebbe performare quantomeno come un project manager nella media con un coach AI al suo fianco. Tutte queste funzionalità accelererebbero notevolmente la capacità dei knowledge worker di completare un progetto.
Costi ridotti: grazie alla loro velocità, gli strumenti di AI generativa riducono i costi per completare i processi e, se ci vuole la metà del tempo per svolgere un'attività, l'attività costa la metà di quanto costerebbe altrimenti. Inoltre, l'intelligenza artificiale generativa può ridurre al minimo gli errori, eliminare i tempi di inattività e identificare ridondanze e altre costose inefficienze. C'è tuttavia un però: a causa della tendenza dell'AI generativa ad avere allucinazioni, la supervisione e il controllo della qualità umani sono ancora necessari. Ma ci si aspetta che le collaborazioni uomo-AI facciano molto più lavoro in meno tempo rispetto ai soli esseri umani e in un modo migliore e più accurato rispetto a quando gli strumenti AI da soli, in modo da ridurre così i costi. Quando si testano nuovi prodotti, ad esempio, l'intelligenza artificiale generativa può aiutare a creare simulazioni più avanzate e dettagliate rispetto agli strumenti precedenti. Ciò riduce in ultima analisi i tempi e i costi dei test di nuovi prodotti.
Migliore soddisfazione dei clienti: i clienti possono ottenere un'esperienza migliore e più personalizzata attraverso strumenti self-service basati sull'AI generativa e strumenti di AI generativa "sussurrando all'orecchio" degli operatori del customer service, fornendo loro conoscenze in tempo reale. Sebbene i chatbot del customer service basati sull'intelligenza artificiale che si incontrano oggi possono a volte apparire frustrantemente limitati, è facile immaginare una customer experience di qualità molto più elevata basata sul modello di intelligenza artificiale generativa appositamente addestrato di un'azienda, basato sul calibro delle conversazioni di ChatGPT di oggi.
Processo decisionale più informato: modelli di intelligenza artificiale generativa specifici per l'azienda possono fornire insight dettagliati attraverso la creazione di scenari, la valutazione dei rischi e altri approcci sofisticati agli analytics predittivi. I decision maker possono sfruttare questi strumenti per ottenere una comprensione più approfondita del loro settore e della posizione dell'azienda attraverso consigli personalizzati e strategie attuabili basati su dati di più vasta portata e analisi più rapide di quelle che gli analisti umani o le tecnologie più vecchie potrebbero generare da soli.
Ad esempio, i responsabili delle decisioni possono pianificare meglio l'allocazione del magazzino prima di una stagione impegnativa tramite previsioni della domanda più accurate rese possibili da una combinazione di dati interni raccolti dal loro sistema di enterprise resource planning (ERP) e da ricerche di mercato esterne complete, che poi vengono analizzate da un modello di intelligenza artificiale generativa specializzato. In questo caso, delle decisioni di allocazione migliori riducono al minimo gli acquisti in eccesso e gli esaurimenti scorte, massimizzando al contempo le vendite potenziali.
Lanci più rapidi dei prodotti: l'intelligenza artificiale generativa può produrre rapidamente prototipi di prodotti e bozze iniziali, aiutare a perfezionare i lavori in corso e testare/risolvere i problemi dei progetti esistenti per trovare miglioramenti molto più velocemente di quanto fosse possibile in precedenza.
Controllo della qualità: è probabile che un modello di intelligenza artificiale generativa specializzato e specifico per l'azienda esponga lacune e incoerenze nei manuali utente, nei video e in altri contenuti che un'azienda presenta al pubblico.
Un esempio di vantaggi specifici dell'intelligenza artificiale generativa | |||
---|---|---|---|
Sintesi della conoscenza | Collaborazione tra uomo e AI | Velocità | |
Produttività incrementata | Organizza i dati, velocizza la ricerca, elabora le prime bozze dei prodotto. | Istruisci i lavoratori in nuove discipline, suggerisci nuovi modi per risolvere i problemi. | Accelera la capacità dei knowledge worker di completare un nuovo progetto. |
Riduzione dei costi | Identifica ridondanze e inefficienze per migliorare i flussi di lavoro. | Minimizza gli errori umani, riduci i tempi di inattività attraverso una supervisione collaborativa. | Completa le attività più velocemente (se un'attività richiede la metà del tempo, ha la metà del costo). |
Maggiore soddisfazione dei cliente | Organizza e recupera rapidamente le informazioni sull'account del cliente per accelerare la risoluzione dei problemi. | Chatbot avanzati per automatizzare interazioni semplici e informazioni migliori per i rappresentanti quando è necessario l'intervento umano. | Offri aggiornamenti e informazioni sugli account in tempo reale sia ai clienti che al servizio assistenza. |
Processo decisionale più informato | Accelera gli insight mediando gli analytics predittivi, come la modellazione degli scenari e la valutazione dei rischi. | Offri consigli personalizzati e strategie fruibili ai decision maker. | Genera analisi più rapide da dati di portata più vasta rispetto agli analisti umani o alle tecnologie più vecchie. |
Lanci più rapidi dei prodotti | Produci prototipi e "prodotti minimi funzionanti" (MVP, minimal viable product). | Testa e risolvi i problemi dei progetti esistenti per trovare miglioramenti. | Aumenta la velocità con cui le modifiche possono essere implementate. |
Chiunque abbia utilizzato strumenti di intelligenza artificiale generativa per l'istruzione e / o la ricerca ha probabilmente sperimentato il loro limite più noto: inventano cose. Poiché il modello prevede solo la parola successiva, può estrapolare dai suoi dati di addestramento per affermare falsità con la stessa autorità con cui dice verità. Questo è ciò a cui i ricercatori di intelligenza artificiale si riferiscono con il termine allucinazione, ed è uno dei motivi principali per cui l'attuale gamma di strumenti di intelligenza artificiale generativa richiede collaboratori umani. Le aziende devono avere cura di prepararsi e gestire questa e altre limitazioni quando implementano l'intelligenza artificiale generativa. Se un'azienda ha aspettative irrealistiche o non gestisce efficacemente la tecnologia, le conseguenze possono danneggiare le prestazioni e la reputazione dell'azienda.
L'AI generativa ha suscitato reazioni estreme in relazione ai rischi. Alcuni gruppi hanno paura che condurrà all'estinzione umana, mentre altri insistono sul fatto che salverà il mondo. Questi estremi esulano dall'ambito di questo articolo. Tuttavia, ecco alcuni rischi e preoccupazioni importanti che i leader aziendali che implementano la tecnologia AI devono comprendere se vogliono poter adottare misure per mitigare eventuali conseguenze negative.
Fiducia e affidabilità: i modelli di intelligenza artificiale generativa fanno affermazioni imprecise, a volte "avendo allucinazioni" su informazioni completamente inventate. Allo stesso modo, molti modelli sono addestrati con dati vecchi e si rifanno generalmente a informazioni pubblicate fino a una certa data, e quello che si adattava al mercato dello scorso anno potrebbe non essere più rilevante o utile. Ad esempio, le aziende che desiderano migliorare le operazioni della supply chain potrebbero scoprire che i suggerimenti dei loro modelli sono obsoleti e non rilevanti nell'economia globale in continua evoluzione. Gli utenti devono verificare tutti i reclami prima di agire in base a essi per garantire accuratezza e pertinenza.
Privacy/proprietà intellettuale: i modelli di intelligenza artificiale generativa spesso continuano a imparare dagli input di informazioni fornite come parte dei prompt. Le aziende, in particolare quelle che raccolgono informazioni personali sensibili dai loro clienti, come le pratiche mediche, devono fare attenzione a non esporre IP protetti o dati riservati. Se il modello accede a queste informazioni, potrebbe aumentare la probabilità di esposizione.
Social engineering potenziato: gli autori di frodi stanno già utilizzando l'intelligenza artificiale generativa per personalizzare meglio il social engineering e altri attacchi informatici facendoli apparire più autentici.
"È già molto difficile capire se stai parlando con un bot o un essere umano online", ha dichiarato Baig, ingegnere di sicurezza e AI di Duolingo. "Per i criminali che cercano di guadagnare soldi è diventato molto più facile generare contenuti che possono ingannare le persone".
Riduzione della qualità e dell'originalità dell'output: l'intelligenza artificiale generativa può semplificare e velocizzare la creazione di prodotti e contenuti, ma non garantisce risultati di qualità superiore. Affidarsi a modelli AI senza una significativa collaborazione umana può portare a prodotti che diventano standardizzati e mancano di creatività.
Bias: se un modello di intelligenza artificiale generativa viene addestrato su dati distorti, che vanno da lacune nelle prospettive a contenuti dannosi e pregiudizievoli, tali pregiudizi si rifletteranno sul suo output. Ad esempio, se un'azienda ha assunto storicamente un solo tipo di dipendente, il modello potrebbe paragonare nuovi candidati all'assunto "ideale" ed eliminare candidati qualificati perché non rientrano negli schemi, anche se l'organizzazione intende cercare qualità diverse.
Shadow AI: l'uso dell'intelligenza artificiale generativa da parte dei dipendenti senza l'autorizzazione ufficiale o la conoscenza dell'organizzazione può portare un'azienda a pubblicare inavvertitamente informazioni errate o a violare il copyright di un'altra organizzazione.
Collasso del modello: i ricercatori dell'intelligenza artificiale hanno identificato un fenomeno chiamato collasso del modello che potrebbe rendere i modelli di intelligenza artificiale generativa meno utili nel corso del tempo. In sostanza, man mano che i contenuti generati dall'intelligenza artificiale proliferano, i modelli che vengono addestrati su quei dati sintetici, che inevitabilmente conterranno errori, alla fine "dimenticheranno" le caratteristiche dei dati generati dall'uomo su cui sono stati originariamente addestrati. Questo problema potrebbe raggiungere un punto di rottura man mano che Internet diventa sempre più popolato dai contenuti AI, creando un ciclo di feedback che degrada il modello.
Regolamentazione AI: poiché l'AI generativa è nata da poco, non c'è molta normativa applicabile. Tuttavia, i governi di tutto il mondo stanno indagando su come regolarla. Alcuni paesi, come la Cina, hanno già proposto misure normative su come addestrare i modelli e su cosa permettere loro di produrre. Mentre sempre più paesi impongono normative, le aziende, in particolare le aziende internazionali, devono monitorare nuove e mutevoli leggi per garantire la compliance ed evitare multe o accuse penali per uso improprio della tecnologia.
L'ascesa degli analytics dei big data più di un decennio fa ha sollevato nuove questioni etiche e dibattiti perché gli strumenti emergenti hanno permesso di dedurre informazioni private o sensibili su persone che non le avevano rivelata, e che non avrebbero voluto farlo. Come dovrebbero le aziende gestire la loro capacità di possedere tali informazioni?
Considerato il potenziale che ha per potenziare l'analisi dei dati, l'AI generativa sta sollevando nuove domande etiche e sta facendo riaffiorare quelle più vecchie.
Le aziende di tutte le dimensioni e i settori, dall'esercito degli Stati Uniti a Coca-Cola, stanno sperimentando con l'AI generativa nei modi più svariati. Ecco una piccola serie di esempi che danno prova dell'enorme potenziale della tecnologia e della sua rapida adozione.
Snap Inc., l'azienda responsabile di Snapchat, ha implementato un chatbot chiamato "My AI" e basato su una versione della tecnologia GPT di OpenAI. Personalizzato per adattarsi al tono e allo stile di Snapchat, My AI è programmato per essere amichevole e gradevole. Gli utenti possono personalizzare il suo aspetto con avatar, sfondi e nomi e possono utilizzarlo per chattare da soli o in gruppo con più utenti, simulando il modo tipico in cui gli utenti di Snapchat comunicano con i loro amici. Gli utenti possono richiedere consigli personali o intraprendere conversazioni informali su argomenti come cibo, hobby o musica. Il bot può persino raccontare battute. Snapchat spinge My AI ad aiutare gli utenti a esplorare le funzionalità dell'app, come le lenti di realtà aumentata, e ad aiutare gli utenti a ottenere informazioni per le quali normalmente non si rivolgono a Snapchat, come consigliare luoghi da visitare.
Bloomberg ha annunciato BloombergGPT, un chatbot addestrato per metà con dati generali e per metà con dati proprietari di Bloomberg o con dati finanziari puliti. Può eseguire attività semplici, come scrivere un buon titoli per un articolo, e trucchi utili, come trasformare prompt in inglese in una query del linguaggio Bloomberg richiesto dai terminali di dati dell'azienda, che sono indispensabili in molte aziende del settore finanziario.
Oracle ha stretto una partnership con lo sviluppatore di intelligenza artificiale Cohere per aiutare le aziende a creare modelli interni ottimizzati con dati aziendali privati, in una mossa che mira a diffondere l'uso di strumenti specializzati di AI generativa specifici per le aziende.
"Cohere e Oracle stanno collaborando per rendere molto, molto facile per i clienti aziendali addestrare i propri modelli linguistici di grandi dimensioni specializzati proteggendo al contempo la privacy dei loro dati di addestramento", ha dichiarato Ellison, presidente di Oracle, agli analisti finanziari durante la conferenza di presentazione degli utili di giugno 2023. Oracle prevede di integrare i servizi di intelligenza artificiale generativa nelle piattaforme aziendali per aumentare la produttività e l'efficienza in tutti i processi esistenti, evitando che molte aziende debbano creare e addestrare i propri modelli da zero. A tal fine, l'azienda ha anche recentemente annunciato l'integrazione delle funzionalità di intelligenza artificiale generativa nel suo software per le human resources, Oracle Fusion Cloud Human Capital Management (HCM).
Inoltre:
ChatGPT è lo strumento che è diventato virale, ma moltissimi strumenti di intelligenza artificiale generativa sono disponibili per ogni modalità. Per esempio, per il solo scrivere, ci sono Jasper, Lex, AI-Writer, Writer e molti altri ancora. Nel campo della generazione di immagini, Midjourney, Stable Diffusion e Dall-E sembrano essere al momento i più popolari.
Tra le decine di generatori di musica ci sono AIVA, Soundful, Boomy, Amper, Dadabots e MuseNet. Sebbene i programmatori di software siano noti per collaborare con ChatGPT, ci sono anche molti strumenti specializzati per la generazione di codice, tra cui Codex, codeStarter, Tabnine, PolyCoder, Cogram e CodeT5.
Forse sorprendentemente, il primo passo nel percorso verso i modelli di AI generativa in uso oggi è stato fatto nel 1943, lo stesso anno in cui è stato mostrato il primo computer programmabile elettrico: il Colossus, che è stato poi utilizzato dalla Gran Bretagna per decodificare i messaggi crittografati durante la seconda guerra mondiale. Il passo dell'AI è stato un documento di ricerca, "A Logical Calculus of Ideas Immanent in Nervous Activity", di Warren McCulloch, psichiatra e professore alla University of Illinois College of Medicine, e Walter Pitts, un neuroscienziato computazionale autodidatta.
Pitts, un chiaro prodigio della matematica, era fuggito di casa all'età di 15 anni ed era un senzatetto quando incontrò McCulloch, che portò Pitts a vivere con la sua famiglia. L'unica laurea di Pitts è stata un Associate of Arts assegnata dalla University of Chicago dopo aver pubblicato il documento che ha dimostrato la matematica di base con cui un neurone artificiale "decide" se produrre un uno o uno zero.
Il secondo passo viene fatto invece più a nord-est, a Buffalo, NY, da uno psicologo ricercatore del Cornell Aeronautical Laboratory di nome Frank Rosenblatt. Operando grazie una sovvenzione del luglio 1957 dell'Ufficio per le ricerche navali all'interno del Dipartimento della Marina degli Stati Uniti come parte del Project PARA (Perceiving and Recognizing Automaton) di Cornell, Rosenblatt si basò sulla matematica di McCulloch e Pitts per sviluppare il perceptron, una rete neurale con un singolo livello "nascosto" tra i livelli di ingresso e di uscita. Prima di costruire il Mark I Perceptron, che oggi si trova nella Smithsonian Institution, Rosenblatt e la Marina lo hanno simulato su un computer mainframe IBM 704 per una dimostrazione pubblica nel luglio 1958. Ma il perceptron era una rete neurale così semplice che ha attirato critiche dal computer scientist del Massachusetts Institute of Technology Marvin Minsky, cofondatore del laboratorio AI del MIT. Secondo quanto riferito, Minsky e Rosenblatt hanno discusso le prospettive a lungo termine del perceptron nei forum pubblici, portando la comunità AI ad abbandonare,dal 1960 al 1980, in gran parte la ricerca sulla rete neurale.
Questo periodo divenne noto come "inverno dell'AI".
Il panorama della ricerca sulla rete neurale si scongelò negli anni 1980 grazie al contributo di diversi ricercatori, in particolare Paul Werbos, il cui lavoro iniziale riscoprì il perceptron, Geoffrey Hinton, Yoshua Bengio, e Yann LeCun. Il loro lavoro combinato dimostrò la fattibilità di grandi reti neurali multistrato e il modo in cui tali reti potrebbero imparare dalle loro risposte giuste e sbagliate attraverso l'assegnazione del credito tramite un algoritmo di retropropagazione. È in questo periodo che emersero RNN e CNN. Ma i limiti di queste prime reti neurali, combinati con le eccessive aspettative iniziali che non potevano essere soddisfatte a causa di tali limiti e dello stato della potenza computazionale dell'epoca, hanno portato a un secondo inverno dell'AI negli anni '90 e primi anni 2000.
Questa volta, però, molti ricercatori di reti neurali, tra cui Hinton, Bengio e LeCun, resistettero. Il trio, a cui a volte ci si riferisce come "i padri dell'AI", ha condiviso il Turing Award 2018 per il lavoro da loro svolto negli anni '80, la loro successiva perseveranza e i loro contributi attuali. A metà degli anni 2010, nuove e diverse varianti di reti neurali stavano rapidamente emergendo, come descritto nella sezione "Modelli di intelligenza artificiale generativa".
L'impatto dell'intelligenza artificiale generativa nelle aziende e nel modo in cui le persone lavorano è tutto da scoprire. Ma una cosa è chiara: si sta investendo tantissimo nell'AI generativa in molteplici dimensioni dell'attività umana. Gli investitori, le aziende consolidate, e praticamente qualsiasi altra azienda stanno investendo in startup di intelligenza artificiale generativa a rotta di collo. La "magia" universale dei LLM equivale alla straordinaria capacità di mediare l'interazione umana con i big data, per aiutare le persone a dare un senso all'informazione spiegandola in modo semplice, chiaro e sorprendentemente veloce. Ciò suggerisce che l'intelligenza artificiale generativa verrà incorporata in una moltitudine di applicazioni esistenti e porterà all'invenzione di una seconda ondata di nuove applicazioni.
Gartner, ad esempio, prevede che il 40% delle applicazioni aziendali avrà l'AI conversazionale integrata entro il 2024, il 30% delle aziende avrà strategie di sviluppo e test potenziate dall'AI entro il 2025 e oltre 100 milioni di lavoratori collaboreranno con "robocolleghi" entro il 2026.
Naturalmente, è possibile che i rischi e le limitazioni dell'AI generativa facciano deragliare questo rullo compressore. Ottimizzare modelli generativi affinché apprendano le sfumature di ciò che rende un'azienda unica può rivelarsi troppo difficile, l'esecuzione di tali modelli computazionalmente intensivi può rivelarsi troppo costosa e un'esposizione involontaria di segreti commerciali può spaventare le aziende.
O tutto ciò potrebbe succedere, ma a un ritmo più lento di quanto molti ora si aspettano. Ricordiamoci che la promessa di Internet, alla fine, è stata realizzata. Ma ci è voluto un decennio in più rispetto a quanto la prima generazione di appassionati avesse previsto, un decennio durante il quale sono state costruite o inventate le infrastrutture necessarie e le persone hanno adattato il loro comportamento alle possibilità del nuovo mezzo. Per molti versi, l'intelligenza artificiale generativa è un altro, nuovo mezzo.
Gli influencer stanno pensando molto al futuro dell'AI generativa nelle aziende.
"Potrebbe significare che costruiremo aziende in modo diverso in futuro", afferma Sean Ammirati, venture capitalist che è anche l'illustre professore di servizi di imprenditorialità presso la Tepper School of Business della Carnegie Mellon University e il cofondatore del Corporate Startup Lab della CMU. Nello stesso modo in cui le aziende "digital native" hanno avuto un vantaggio dopo l'ascesa di Internet, Ammirati prevede che le future aziende costruite da zero basandosi sull'automazione dell'AI generativa saranno in grado di prendere il comando.
"Queste aziende si baseranno in primo luogo sull'automazione, quindi non avranno bisogno di smettere di fare le cose manualmente per poi imparare a farle in modo automatizzato", afferma Ammirati. "Potresti finire per fare parte di un tipo di azienda molto diverso".
Oracle non solo ha alle spalle molta esperienza di lavoro con le funzionalità di intelligenza artificiale e le incorpora nei suoi prodotti, ma è anche in prima linea nello sviluppo e nelle attività dell'intelligenza artificiale generativa. Oracle Cloud Infrastructure è utilizzato dalle principali aziende di intelligenza artificiale generativa. Questo cloud di nuova generazione può fornire alle aziende la piattaforma perfetta per creare e implementare modelli di intelligenza artificiale generativa specializzati specifici per le loro organizzazioni e le singole linee di business. Come spiegato da Ellison, presidente di Oracle, "Tutti i data center cloud di Oracle dispongono di una rete RDMA [remote direct memory access] a larghezza di banda elevata e bassa latenza perfettamente ottimizzata per la creazione di cluster GPU su larga scala utilizzati per addestrare modelli generativi linguistici di grandi dimensioni. Le performance elevate e il relativo risparmio sui costi legato all'esecuzione di carichi di lavoro di AI generativa nel nostro cloud Gen 2 hanno fatto di Oracle la scelta numero uno tra le aziende di sviluppo AI all'avanguardia".
La partnership tra Oracle e Cohere ha portato a un nuovo set di offerte di servizi cloud di AI generativa. "Questo nuovo servizio protegge la privacy dei dati di addestramento dei nostri clienti aziendali, consentendo a quest'ultimi di utilizzare in sicurezza i propri dati privati per addestrare i propri modelli linguistici di grandi dimensioni privati e specializzati", ha affermato Ellison.
La storia dell'AI generativa è iniziata 80 anni fa con i calcoli matematici di un adolescente scappato di casa, ed è diventata virale alla fine dello scorso anno con il rilascio di ChatGPT. L'innovazione nell'AI generativa sta accelerando rapidamente, con aziende di tutte le dimensioni e settori che sperimentano e investono nelle sue capacità. Ma insieme alle capacità che ha di migliorare notevolmente il lavoro e la vita, l'AI generativa porta grandi rischi, il quali vanno dalla perdita di posti di lavoro a, se credi nel giorno del giudizio, il potenziale per l'estinzione umana. Quello che sappiamo per certo è che il genio è uscito dalla lampada, e non tornerà indietro.
Oracle offre una piattaforma di dati moderna e un'infrastruttura AI a basso costo e ad alte prestazioni. Altri fattori, come modelli potenti e ad alte prestazioni, sicurezza dei dati ineguagliabile e servizi AI integrati, dimostrano perché l'offerta AI di Oracle è davvero progettata per le aziende.
Qual è la tecnologia dell'intelligenza artificiale generativa?
La tecnologia dell'intelligenza artificiale generativa si basa su architetture software di rete neurale che imitano il modo in cui si pensa che il cervello umano funzioni. Queste reti neurali sono addestrate inserendo grandi quantità di dati in campioni relativamente piccoli e poi chiedendo all'AI di fare semplici previsioni, come la parola successiva in una sequenza o l'ordine corretto di una sequenza di frasi. Alla rete neurale viene attribuito merito o colpa per risposte giuste e sbagliate, in tal modo impara dal processo fino a quando non è in grado di effettuare buone previsioni. Infine, la tecnologia si basa sui suoi dati di addestramento e sul suo apprendimento per rispondere a domande e altri prompt in un modo simile a quello umano.
Qual è un esempio di intelligenza artificiale generativa?
L'esempio più noto di AI generativa al momento è ChatGPT, che è in grado di condurre conversazioni simil-umane e di scrivere su una vasta gamma di argomenti. Altri esempi sono Midjourney e Dall-E, che creano immagini, e una moltitudine di altri strumenti in grado di generare testo, immagini, video e suoni.
Qual è la differenza tra intelligenza artificiale generativa e intelligenza artificiale?
È importante notare che l'AI generativa non è una tecnologia fondamentalmente diversa dall'AI tradizionale; si trovano in punti diversi di uno spettro. I sistemi AI tradizionale di solito eseguono un compito specifico, come il rilevamento di frodi con carte di credito. L'intelligenza artificiale generativa generalmente è più ampia e può creare nuovi contenuti. Ciò è in parte dovuto al fatto che gli strumenti di intelligenza artificiale generativa vengono addestrati su set di dati più grandi e diversificati rispetto all'intelligenza artificiale tradizionale. Inoltre, l'AI tradizionale viene solitamente addestrata utilizzando tecniche di apprendimento supervisionato, mentre l'AI generativa viene addestrata utilizzando l'apprendimento non supervisionato.
Qual è il pericolo dell'intelligenza artificiale generativa?
Nella società è in corso un dibattito importante sui possibili rischi dell'AI generativa. Gli estremisti ai lati opposti del dibattito hanno detto che la tecnologia può portare all'estinzione umana, da una parte, o salvare il mondo, dall'altra. Più probabilmente, l'AI porterà all'eliminazione di molti posti di lavoro attualmente esistenti. Le aziende dovrebbero preoccuparsi dei modi in cui l'intelligenza artificiale generativa guiderà i cambiamenti nei processi aziendali e nei ruoli professionali, nonché della potenziale e inavvertita esposizione di informazioni private o sensibili o della violazione dei diritti d'autore.
A cosa serve l'intelligenza artificiale generativa?
L'intelligenza artificiale generativa può essere perfettamente utilizzata in collaborazione con l'uomo per assistere, ad esempio, nel brainstorming di nuove idee e nell'istruzione dei lavoratori su discipline simili. È anche uno strumento ottimo per aiutare le persone ad analizzare più rapidamente i dati non strutturati. Più in generale, può offrire vantaggi alle aziende migliorando la produttività, riducendo i costi, aumentando la soddisfazione dei clienti, fornendo informazioni migliori per il processo decisionale e accelerando il ritmo dello sviluppo dei prodotti.
Cosa non può fare l'intelligenza artificiale generativa?
L'intelligenza artificiale generativa non può avere idee davvero nuove che non siano state precedentemente espresse nei suoi dati di formazione o quantomeno estrapolate da tali dati. Inoltre, non dovrebbe essere lasciata da sola. L'intelligenza artificiale generativa richiede la supervisione umana e dà il suo meglio nelle collaborazioni uomo-AI.
Quali settori utilizzano l'intelligenza artificiale generativa?
Per via della sua ampiezza, è probabile che l'intelligenza artificiale generativa risulti utile praticamente in ogni settore.
In che modo l'intelligenza artificiale generativa impatterà il futuro del lavoro?
È probabile che l'intelligenza artificiale generativa abbia un impatto importante sul knowledge work, attività nelle quali gli esseri umani collaborano e/o prendono decisioni aziendali. Come minimo, i lavoratori dovranno adattarsi a lavorare in partnership con strumenti di intelligenza artificiale generativa e alcuni posti di lavoro saranno eliminati. La storia dimostra, tuttavia, che un cambiamento tecnologico come quello che ci si aspetta dall'intelligenza artificiale generativa porterà sempre alla creazione di più posti di lavoro di quanti ne distrugga.