11 sfide comuni delle startup AI e come affrontarle

Jeffrey Erickson | Content Strategist | 12 gennaio 2024

Quando OpenAI ha rilasciato ChatGPT, il suo modello linguistici di grandi dimensioni (LLM), al pubblico nel novembre 2022, ha accumulato 100 milioni di utenti in soli due mesi. Ciò ha reso ChatGPT una delle app per consumatori in più rapida crescita di sempre.

Gli investitori se ne sono accorti.

Da allora, i membri della lista delle 50 migliori aziende AI di Forbes hanno guadagnato collettivamente più di 27,2 miliardi di dollari. Alcune di queste aziende sono state fondate meno di un anno fa e hanno meno di 20 dipendenti. Per le startup AI con idee intriganti, il denaro abbonda.

Il denaro raccolto, tuttavia, non garantisce il successo. Le startup AI affrontano sfide uniche che richiedono più della solita determinazione, del tempismo sul mercato e della gestione della crescita. Addestrare i LLM che alimentano servizi come ChatGPT o il generatore di immagini AI Midjourney è uno dei compiti più complessi a livello di computing che l'umanità abbia mai concepito. Le imprese di investimento dicono che la maggior parte del capitale che le startup AI raccolgono va direttamente alle risorse di calcolo.

Oltre a ciò, le startup AI sono responsabili della sicurezza e della privacy delle informazioni sensibili in agguato nelle montagne di dati di addestramento che i loro modelli assimilano, anche mentre si affannano per competere con i giganti che inevitabilmente si stanno muovendo in maniera rapida per conquistare delle quote di mercato.

Il fondatore di Microsoft Bill Gates definisce l'AI lo sviluppo più significativo nel computing dai tempi dell'interfaccia utente grafica, che ha lanciato il Macintosh di Apple e ogni popolare sistema operativo e applicazione a seguire. Quindi è comprensibile che gli imprenditori vogliano una fetta. Diamo un'occhiata ai fattori di cui le startup AI dovrebbero essere a conoscenza mentre si buttano nella mischia.

Che cos'è una startup AI?

Sono tre le tipologie di startup di AI generativa: quelle che creano piattaforme LLM, come OpenAI o Cohere; quelle che offrono nuovi strumenti per la creazione e la formazione di LLM, come MosaicML; e quelle che prendono LLM open source e li addestrano a risolvere problemi aziendali specifici. Un esempio è Tome, che applica l'AI per migliorare le presentazioni di business.

Tutte le startup AI stanno lavorando sulla scia di ChatGPT, Google e altre aziende che hanno utilizzato potenti architetture di calcolo chiamate reti neurali e algoritmi di machine learning per creare interfacce di linguaggio naturale intuitive in grado di generare testi simili a quelli umani, contenuti visivi e codice informato ed eseguire molte altre attività.

Concetti chiave

  • Sebbene le piattaforme AI siano state utilizzate per molti anni, il noto rilascio di LLM per uso pubblico nel 2022 ha portato a un'ondata di nuove startup.
  • Gli investitori stanno trovando, controllando e finanziando queste startup senza sosta.
  • Le startup AI operano in un panorama in continuo cambiamento di preoccupazioni in materia di privacy e normative, concorrenza per la capacità di calcolo e minacce da parte degli operatori storici.

11 sfide per le startup AI

Che siano "bambini prodigio" finanziati o ultimi arrivati che si fanno da sé, queste startup affrontano ostacoli unici per i fornitori di servizi basati sull'intelligenza artificiale. Le 11 sfide elencate di seguito forniscono un buon quadro dei possibili ostacoli che le attendono.

1. Sicurezza e privacy

Le startup AI si assumono responsabilità di sicurezza e privacy che vanno oltre gli sforzi standard di protezione dei dati aziendali. Molte misure di sicurezza saranno familiari, come l'utilizzo di un modello zero-trust e il monitoraggio delle reti per attività dannose che attivano risposte e avvisi automatizzati. Ma ci sono anche nuove sfide. Ad esempio, i modelli AI potrebbero potenzialmente far trapelare dettagli dai dati utilizzati per addestrarli. Questi data set possono avere dimensioni pari a centinaia di gigabyte, o addirittura terabyte, estratti da una vasta gamma di origini. Possono contenere dati sensibili, tra cui nomi, indirizzi e altre informazioni di identificazione personale. Un modello addestrato utilizzando questi dati potrebbe riflettere dettagli privati nel suo output?

È importante che le startup sappiano quali dati sono presenti nei suoi set di addestramento e abbiano un piano per ridurre al minimo i rischi associati alle informazioni sensibili o regolamentate. Queste aziende devono soddisfare gli investitori che hanno a cuore queste preoccupazioni, e avere un piano di risposta alle comunicazioni nel caso in cui qualcosa vada storto.

2. Volume di dati

Le aziende AI addestrano e implementano modelli linguistici di grandi dimensioni (LLM) con set di dati estesi e miliardi di parametri per tutti i tipi di casi d'uso, tra cui l'elaborazione del linguaggio naturale (NLP) e la creazione di immagini. Inoltre, sviluppano modelli di intelligenza artificiale per la visione artificiale, le previsioni, il rilevamento delle anomalie e molto altro ancora. Gli LLM in particolare richiedono volumi di dati incredibilmente grandi per produrre output accurati e coerenti.

Se sei una startup AI, la gestione dei dati è alla base del tuo business.

Una sfida chiave, tuttavia, è trovare i set di dati giusti per le tue esigenze di addestramento AI e caricarli in un enorme data warehouse o data lakehouse. Quindi i dati devono fluire in modo sicuro attraverso reti neurali e algoritmi di machine learning utilizzando supercluster di server graphics processing unit (GPU), se li puoi trovare.

Big Chips

Una GPU è un chip con molti più core rispetto a un'unità di elaborazione centrale (CPU, central processing unit). Questo design, come si può vedere nel CUDA di Nvidia, abbreviazione di compute unified device architecture, alimenta l'enorme parallelismo richiesto per attività come l'addestramento dell'AI.

3. Capacità di calcolo

Un'affermazione che sentiamo in continuazione nei programmi televisivi, nei film e nei media popolari che l'AI distruggerà il mondo. Una controargomentazione potrebbe essere "dove otterrà le GPU questa AI malvagia?"

Per eseguire le reti neurali su cui sono costruiti i modelli AI, le GPU suddividono il lavoro computazionale. Il sistema esegue quindi le query attraverso un gruppo di GPU in parallelo. Ciò solleva il carico dalla CPU del computer e consente alla rete di eseguire calcoli complessi molto rapidamente. L'addestramento e l'esecuzione di modelli AI richiedono così tanta potenza di calcolo che i produttori di chip e i fornitori di servizi cloud di tutto il mondo stanno avendo difficoltà a stare al passo con la domanda. Tieni presente che potresti aver bisogno di metterti in fila per acquistare chip o convincere un provider cloud che la tua startup AI è degna di quelle preziose GPU.

4. Personalizzazione

Possiamo dire che la maggior parte delle startup AI costruirà le loro aziende attorno a un LLM sviluppato da un'altra azienda perché, nella maggior parte dei casi, la personalizzazione di un modello AI come OpenAI o Cohere è più efficiente rispetto alla progettazione, alla costruzione e all'addestramento di uno da zero.

Esistono due approcci comuni per personalizzare un LLM per un particolare settore o caso d'uso: ottimizzazione e retrieval-augmented generation (RAG). Puoi ottimizzare i risultati di un sistema AI addestrandolo su grandi quantità di dati specifici per il tuo obiettivo e istruendo l'AI a dare a tali informazioni più peso nelle risposte. L'altra opzione, la RAG, consiste nell'incorporare documenti altamente rilevanti in un database che l'AI utilizzerà per dare contesto ai prompt scritti o orali che riceve. Con la RAG, tali documenti consentono all'AI di aggiungere dettagli tecnici pertinenti al suo output, e persino di citare dove ha ottenuto le informazioni. Ad esempio, una startup del settore sanitario potrebbe incorporare documenti o articoli che aiutano il suo LLM a comprendere meglio l'intento dei prompt da parte dei medici e quindi fornire un linguaggio di output correlato alle loro specializzazioni.

Ogni metodo presenta vantaggi e svantaggi in termini di velocità, qualità e costi. L'approccio alla personalizzazione LLM è una decisione importante per qualsiasi startup AI che spera di fornire un servizio specifico per settore o caso d'uso.

5. Costi del cloud

Per le aziende in modalità startup in rapida evoluzione, è difficile dire di no a un'infrastruttura cloud già pronta. Tutti i provider cloud iperscalabili offrono le funzionalità necessarie per addestrare o personalizzare modelli linguistici di grandi dimensioni, inclusi cluster di istanze di calcolo connesse da una rete a larghezza di banda elevata e un file system ad alte prestazioni. Inoltre, poiché questi servizi sono basati sul consumo, sono spesso meno costosi e, in genere, molto più veloci rispetto alla configurazione di un'infrastruttura on-premise.

Poiché questi sistemi sono basati sul consumo, la velocità e l'efficienza devono essere valutate rispetto ai costi. Una startup AI può ridurre le spese eseguendo un LLM che fa ciò che deve fare con gli algoritmi meno complessi e il minor numero di dati possibile. Una volta effettuato il calcolo del budget, scegli un'infrastruttura cloud che gestisca il tuo modello in modo efficiente. Ad esempio, l'esecuzione su server bare metal evita il sovraccarico delle istanze virtualizzate e offre prestazioni migliori. Ciò diventa ancora più importante nel caso di carichi di lavoro in cluster comuni agli LLM.

Ricorda, più velocemente esegui il lavoro, meno paghi.

6. Efficienza

Possono essere necessarie molti gigawatt orari di energia per addestrare un LLM. Come riferimento, considera che un gigawatt potrebbe alimentare fino a 874.000 case per un anno, secondo la società di investimento The Carbon Collective. Una startup che cerca finanziamenti venture capital per fornire servizi basati su LLM deve dimostrare che sta usando i suoi soldi con saggezza. Ad esempio, non tutte le attività AI hanno bisogno dello stesso livello di sofisticazione del modello o della stessa potenza di calcolo. Un numero sempre crescente di LLM di aziende come OpenAI, Cohere, Anthropic e altri offrono diverse varianti e dimensioni. Preparati a spiegare perché la tua scelta si adatta alle tue esigenze e al tuo budget.

Dopo aver scelto il modello e i set di dati, seleziona attentamente un'infrastruttura con un'elaborazione parallela efficiente e una scalabilità dinamica per evitare di pagare per le risorse di calcolo che non stai utilizzando. Preparati a mostrare agli investitori che le tue scelte trovano il giusto equilibrio tra prestazioni e convenienza.

7. Scalabilità

Sono tre le tecniche principali per il ridimensionamento dei LLM per aumentare la qualità e/o la velocità dei loro output: aumentare la quantità di dati di addestramento, utilizzare un modello più grande e più complesso o aggiungere capacità di calcolo.

Un modello più grande aumenta il numero di livelli e parametri nell'architettura di rete neurale, offrendo una maggiore capacità di apprendere e rappresentare pattern complessi nei dati. Di conseguenza, il tuo LLM darà risposte più dettagliate e sfaccettate. Aggiungendo più gigabyte di dati di addestramento, la tua startup AI può offrire risposte più accurate o complete. In entrambi i casi, dovrai anche eseguire lo scale-up di costose risorse di calcolo per mantenere le prestazioni del modello.

8. Qualità dei dati

Questa non è una sfida specifica dell'intelligenza artificiale. Gli analisti aziendali sono in pensiero per la qualità dei dati che utilizzano da decenni. Le startup AI devono attingere alle competenze dei data scientist e degli esperti in materia per rimuovere informazioni ridondanti, contenuti irrilevanti e altro "rumore" dai data set utilizzati per addestrare algoritmi e alimentare LLM.

"Garbage in, garbage out" è un detto di cui le startup AI dovrebbero essere a conoscenza.

9. KPI e misurazione

È importante che le startup AI stabiliscano misure quantitative e qualitative per il successo. Le misure quantitative includono il ROI sugli investimenti tecnologici e i key performance indicator (KPI) tecnici, come l'errore quadratico medio (MSE), che identifica i risultati anomali.

Inoltre, una startup di intelligenza artificiale dovrebbe essere in grado di misurare i risultati qualitativi, ad esempio le prestazioni di un modello di intelligenza artificiale su dati nuovi o non visti in precedenza, la pertinenza dei risultati per il pubblico di destinazione e quanto completi siano i risultati nel contesto del campo in discussione.

10. Finanziamento

Ci sono una serie di approcci per finanziare una startup AI. Puoi seguire l'esempio di LLM come Midjourney e Surge AI, che hanno aumentato gradualmente le loro basi di clienti senza prendere soldi per gli investimenti. Se la tua startup AI non può aspettare una crescita graduale, ci sono angel investor, acceleratori e incubatori alla ricerca di fondatori AI con menti brillanti e buone idee. Il vantaggio di incubatori e acceleratori è che forniscono relazioni, accesso alle opportunità di mercato, consulenza aziendale e persino piattaforme tecnologiche per la creazione di un servizio AI.

11. Vendite e marketing

Le piattaforme di vendita e marketing all'avanguardia stanno utilizzando l'intelligenza artificiale in ogni fase del percorso del cliente, e qualsiasi startup AI che cerca di aumentare la quota di mercato vorrà utilizzare l'intelligenza artificiale come supporto. Come? L'intelligenza artificiale può utilizzare dati dettagliati, inclusi dati di geolocalizzazione in tempo reale per mappare e monitorare i movimenti, per creare offerte di prodotti o servizi personalizzate per i potenziali clienti. Gli assistenti AI possono quindi generare opportunità di upselling e cross-selling o spingere gli acquirenti a completare le transazioni una volta che gli articoli sono nei loro carrelli. Queste tattiche hanno dimostrato di aumentare i tassi di conversione e soddisfare gli investitori desiderosi che le vendite della startup crescano.

I servizi post-vendita basati sull'intelligenza artificiale sono in grado di gestire le query, comprendere il contesto e offrire suggerimenti, nonché condividere dettagli concreti sulla pianificazione o sui tempi di consegna e indirizzare domande più complesse agli operatori umani. Scoprire come funzionano questi servizi supportati dall'intelligenza artificiale può aiutarti a confrontare le offerte della tua startup AI.

Ridimensiona la tua azienda con Oracle

Se stai creando un business basato sull'intelligenza artificiale, prendi in considerazione Oracle Cloud Infrastructure (OCI), che offre un'infrastruttura solida per addestrare e servire modelli su larga scala. Grazie alla sua partnership con NVIDIA, Oracle può fornire ai clienti supercluster, che sono alimentati dalle GPU più recenti e connessi con una rete RDMA su Converged Ethernet (RoCE) a latenza ultrabassa. Questa architettura offre un metodo ad alte prestazioni ed economico per l'addestramento di modelli di intelligenza artificiale generativa su larga scala. Molte startup AI, tra cui Adept e MosaicML, stanno creando i propri prodotti direttamente su OCI.

Oracle semplifica l'utilizzo dei servizi OCI, inclusa la selezione di servizi cloud Always Free. Le startup possono imparare con sandbox per sviluppatori o implementazioni in pacchetti di software popolari, ad esempio implementando un cluster Kubernetes.

Per aiutare le startup a decidere, Oracle fornisce strumenti esplorativi, tra cui calcolatori dei costi, revisioni di analisti di terze parti e confronti dettagliati tra OCI e altre piattaforme cloud.

L'intelligenza artificiale fa parte delle nostre vite da oltre un decennio, lavora dietro le quinte monitorando le frodi tra milioni di transazioni bancarie, intervenendo per gestire le interazioni in prima linea con il customer service e prendendo decisioni velocissime per accelerare la logistica delle spedizioni più improvvise. Ora, con l'ultima generazione di LLM, le abilità sottili, potenti e sbalorditive dell'AI ottengono l'interfaccia utente che meritano: un parlato o uno scritto naturale.

Così, i LLM hanno catturato l'immaginazione popolare creando di immagini e testi scritti, traducento, e persino generando codice. Sebbene le sfide abbondino, ora è il momento per le startup AI di trovare investitori, servire nuovi clienti e ridimensionarsi come se fosse il 1999.

La creazione di un centro di eccellenza AI prima dell'inizio della formazione specifica dell'organizzazione aumenta le probabilità di successo. Il nostro ebook spiega perché e offre suggerimenti per costruire un efficace CoE.

Domande frequenti su AI e startup

Quali sono le sfide comuni per le startup AI?

Le startup AI devono affrontare sfide nello scegliere il LLM giusto da addestrare, nel trovare i dati di formazione giusti e nell'assemblare l'immensa potenza di calcolo necessaria per supportare le loro reti neurali. Ci sono anche problemi di privacy dei dati, sicurezza dei dati e normative in evoluzione da affrontare.

Quali tipi di servizi offrono le startup AI?

Le startup AI stanno spuntando in ogni settore aziendale, inclusi vari come l'assistenza sanitaria, il manufacturing e la difesa nazionale. Alcune startup stanno offrendo prodotti ai consumatori, mentre altre stanno costruendo strumenti utilizzati da altre aziende di intelligenza artificiale per costruire e addestrare i loro modelli.

In che modo le startup AI trovano finanziamenti?

Le startup che cercano investitori possono fare una ricerca rapida di angel investor, i quali sono alla ricerca di opportunità. Altre opzioni sono gli incubatori o acceleratori tecnologici, che possono fornire guida e assistenza tecnologica per i fondatori di startup.