Greg Pavlik | Senior Vice President, Oracle Cloud Infrastructure | 15 september 2023
Generativ artificiell intelligens är en relativt ny form av AI som, till skillnad från sina föregångare, som kan skapa nytt innehåll genom att extrapolera från sina träningsdata. Dess extraordinära förmåga att producera människoliknande text, bilder, ljud och video har fångat världens fantasi sedan den första generativa AI konsumentchattroboten släpptes till allmänheten hösten 2022. I en rapport från juni 2023 från McKinsey & Company uppskattades att generativ AI har potential att lägga till mellan 6,1–7,9 biljoner $ till den globala ekonomin årligen genom att öka medarbetarnas produktivitet. För att sätta detta i sammanhang visar samma undersökning att den årliga ekonomiska potentialen av ökad produktivitet från all AI-teknik ligger på mellan 17,1 till 25,6 biljoner $. Så även om generativ AI är som hetast här i mitten av 2023, är det fortfarande bara en del av allt AI har att erbjuda.”
Men varje åtgärd har en lika stor och motsatt reaktion. Utöver de anmärkningsvärda produktivitetsutsikter medför generativ AI nya potentiella affärsrisker – som felaktigheter, sekretessintrång och exponering för immateriella rättigheter – samt möjligheten till storskaliga ekonomiska och samhälleliga störningar. Det är t.ex. osannolikt att generativ AI:s produktivitetsfördelar förverkligas utan omfattande omskolningsinsatser för arbetstagarna. Och även om detta sker så kommer många utan tvekan att förlora sina nuvarande jobb. Följaktligen förespråkar statliga beslutsfattare runt om i världen – och även vissa chefer inom teknikbranschen – ett snabbt antagande av AI-föreskrifter.
Denna artikel är en djupgående undersökning av löftet och faran med generativ AI: Hur den fungerar, dess mest omedelbara tillämpningar, användningsfall och exempel. Dess begränsningar, dess potentiella affärsfördelar och risker. Bästa praxis för att använda den och en inblick i dess framtid.
Generativ AI (GAI) är namnet på en undergrupp av AI-maskininlärningstekniker som nyligen har utvecklat förmågan att snabbt skapa innehåll. Det kan t.ex handla om svar på textfrågor, vilket kan variera från korta och enkla till mycket långa och komplexa. Olika generativa AI-verktyg kan producera nytt ljud, bild och videoinnehåll, men det är textorienterad konversations-AI som har väckt fantasin. I själva verket kan människor samtala med och lära sig av texttränade generativa AI-modeller på ungefär samma sätt som de gör med människor.
Generativ AI tog världen med storm under månaderna efter att ChatGPT, en chattrobot baserad på OpenAI:s neurala nätverks modell GPT-3.5, släpptes den 30 november 2022. GPT står för generativ förtränad transformator, ord som huvudsakligen beskriver modellens underliggande neurala nätverksarkitektur.
Det finns många tidigare fall av konversationsbaserade chattrobotar, till exempel Massachusetts Institute of Technology ELIZA i mitten av 1960-talet. Men de flesta tidigare chattrobotarna, inklusive ELIZA, var helt eller till stor del regelbaserade, så de saknade kontextuell förståelse. Deras svar begränsades till en uppsättning fördefinierade regler och mallar. De generativa AI-modeller som växer fram har däremot inga sådana fördefinierade regler eller mallar. Metaforiskt sett är de primitiva, tomma hjärnor (neurala nätverk) som exponeras för världen genom utbildning på verkliga data. De utvecklar sedan oberoende intelligens – en representativ modell av hur världen fungerar – som de använder för att skapa nytt innehåll som svar på uppmaningar. Inte ens AI-experter vet inte exakt hur det går till eftersom algoritmerna självutvecklas och anpassas i takt med att systemet tränas.
Stora och små företag bör se fram emot generativ AI:s potential att föra över fördelarna med teknikautomatisering till kunskapsarbete, som hittills till stor del har motstått automatisering. Generativa AI-verktyg ändrar kalkylen för automatisering av kunskapsarbete. Deras förmåga att producera människoliknande skrift, bilder, ljud eller video som svar på vanliga engelska textfrågor innebär att de kan samarbeta med mänskliga partner för att generera innehåll som representerar praktiskt arbete.
”Under de närmaste åren lär många företag träna sina egna specialiserade stora språkmodeller”, säger Larry Ellison, ordförande och teknikchef på Oracle, under konferensen om resultatet i juni 2023.
Artificiell intelligens är ett stort område inom datavetenskap, där generativ AI utgör en liten del, åtminstone i dagsläget. Generativ AI har naturligtvis många gemensamma attribut med traditionell AI. Men det finns också några starka distinktioner.
En annan skillnad som är värd att notera är att utbildningen av grundläggande modeller för generativ AI är ”oerhört dyr”, för att citera en AI-forskare. Låt oss säga att det blir 100 miljoner $ bara för den maskinvara som krävs för att komma igång samt motsvarande molntjänstkostnader, eftersom det är där den största AI-utveckling sker. Sedan tillkommer kostnaden för de monumentalt stora datavolymerna som krävs.
Viktiga lärdomar
För stora och små företag är det till synes magiska löftet om generativ AI att det kan ge fördelarna med teknikautomatisering till kunskapsarbete. Eller som en McKinsey-rapport uttryckte det, ”aktiviteter som involverar beslutsfattande och samarbete, som tidigare hade den lägsta potentialen för automatisering.”
Historiskt sett har tekniken varit mest effektiv när det gäller att automatisera rutinmässiga eller repetitiva uppgifter där besluten redan var kända eller kunde fastställas med en hög grad av säkerhet baserat på specifika, välförstådda regler. Tänk tillverkning, med sin exakta repetition av monteringslinjer, eller redovisning, med sina reglerade principer som fastställts av branschorganisationer. Men generativ AI har potential att utföra mycket mer sofistikerat kognitivt arbete. För att ge ett visserligen extremt exempel kan generativ AI hjälpa en organisation att ta fram en strategi genom att svara på frågor som kräver alternativa idéer och scenarier från chefer för ett företag mitt i en branschomvälvning.
I sin rapport utvärderade McKinsey 63 användningsfall för 16 affärsfunktioner och drog slutsatsen att 75 % av de biljoner dollar i potentiellt värde som kunde uppnås från generativ AI skulle komma från en delmängd av användningsfallen inom endast fyra av dessa funktioner: kundverksamhet, marknadsföring och försäljning, programvaruteknik samt forskning och utveckling. Framtidsutsikterna för att öka intäkterna inom olika branscher var mer jämnt fördelade, även om det fanns de som utmärkte sig: Högteknologi toppade listan när det gäller eventuell ökning i procent av branschens intäkter, följt av bank, läkemedel och medicinska produkter, utbildning, telekommunikation och sjukvård.
En separat Gartner-analys korrelerade med McKinseys förutsägelser: Bland annat att mer än 30 % av nya läkemedel och material kommer att upptäckas med generativa AI-tekniker år 2025, jämfört med noll i dag. Dessutom kommer 30 % av utgående marknadsföringsmeddelanden från stora organisationer också att syntetiskt genereras år 2025, jämfört med 2 % år 2022. Och i en onlineundersökning fann Gartner att kundupplevelse och kundlojalitet var det främsta svaret (på 38 %) av 2 500 chefer som fick frågan om var deras organisationer investerar i generativ AI.
Det som gör det möjligt för allt detta att ske så snabbt är att, till skillnad från traditionell AI, som har automatiserat och tillfört värde till kommersiella processer i det tysta under årtionden, exploderade generativ AI in i världens medvetande tack vare ChatGPT:s människoliknande konversationsförmåga. Det har också lyft fram och lockat människor till generativ AI-teknik som fokuserar på andra metoder. Alla verkar experimentera med att skriva text eller skapa musik, bilder och videor med hjälp av en eller flera av de olika modeller som är specialiserade på varje område. Eftersom många organisationer redan experimenterar med generativ AI lär dess inverkan på företag och samhälle bli kolossal och dessutom ske oerhört snabbt.
Den uppenbara nackdelen är att kunskapsarbetet förändras. De enskilda rollerna ändras, ibland avsevärt, så medarbetare behöver lära sig nya färdigheter. Vissa jobb går förlorade. Historiskt sett har dock stora teknikförändringar, som generativ AI, alltid skapat fler (och mer värdefulla) jobb i ekonomin än de har eliminerat. Men det är knappast någon tröst för dem vars jobb försvinner.
Det finns två svar på frågan om hur generativa AI-modeller fungerar. Empiriskt vet vi hur de fungerar i detalj eftersom människor har utformat sina olika neurala nätverksimplementeringar för att göra exakt vad de gör. Dessa mönster har också itirerats under årtionden för att göra dem bättre och bättre. AI-utvecklare vet exakt hur neuronerna är anslutna och de har utformat varje modells träningsprocess. Men i praktiken är det ingen som vet exakt hur generativa AI-modeller gör vad de gör – det är den pinsamma sanningen.
”Vi vet inte hur de utför den kreativa uppgiften eftersom det som händer inuti de neurala nätverkslagren är alldeles för komplicerat för oss att tyda, åtminstone i dag”, säger Dean Thompson, en tidigare teknikchef av flera AI-startups som har förvärvats av företag under åren, inklusive LinkedIn och Yelp, där han fortfarande arbetar som en senior programvaruingenjör med stora språkmodeller (LLM). Generativ AI:s förmåga att producera nytt originalinnehåll verkar vara en framväxande egenskap hos det man känner till, dvs. deras struktur och träning. Så även om det finns mycket att förklara angående det vi vet, har vi ännu inte kommit fram till vad en modell som GPT-3.5 faktiskt gör internt eller hur den tänker. Vissa AI-forskare är övertygade om att detta kommer att bli känt under de närmaste 5 till 10 åren medan andra är osäkra på att det någonsin kommer att förstås fullt ut.
Här är en översikt över vad vi vet om hur generativ AI fungerar:
Börja med hjärnan. Ett bra ställe att börja förstå generativa AI-modeller är med den mänskliga hjärnan, säger Jeff Hawkins i sin bok från 2004, ”On Intelligence”. Hawkins, som är datavetare, hjärnforskare och entreprenör, presenterade sitt arbete i en session 2005 på PC Forum, som var en årlig konferens för ledande teknikchefer under ledning av teknikinvesteraren Esther Dyson. Enligt Hawkins hypotes fungerar hjärnan på neuronnivå genom att kontinuerligt förutsäga vad som kommer att hända härnäst och sedan lära sig av skillnaderna mellan förutsägelserna och den efterföljande verkligheten. För att förbättra sin prediktiva förmåga bygger hjärnan en intern representation av världen. Enligt hans teori uppstår mänsklig intelligens från den processen. Oavsett om den påverkas av Hawkins eller inte så fungerar generativ AI på exakt det här sättet. Och häpnadsväckande nog beter den sig som om den vore intelligent.
Bygg ett artificiellt neuralt nätverk. Alla generativa AI-modeller börjar med ett artificiellt neuralt nätverk kodat i programvara. Thompson säger att en bra visuell metafor för ett neuralt nätverk är att föreställa sig det välbekanta kalkylbladet, men i tre dimensioner eftersom de artificiella neuroner är staplade i lager, på samma sätt som verkliga neuroner staplas i hjärnan. AI-forskare kallar till och med varje neuron för en ”cell”, säger Thompson. Varje cell innehåller en formel som relaterar den till andra celler i nätverket, på samma sätt som kopplingarna mellan hjärnans neuroner har olika styrkor.
Varje lager kan ha tiotals, hundratals eller tusentals artificiella neuroner, men antalet neuroner är inte vad AI-forskare fokuserar på. I stället mäter de modeller genom antalet kopplingar mellan neuroner. Styrkorna hos dessa anslutningar varierar beroende på deras cellekvationers koefficienter, som mer allmänt kallas ”vikter” eller ”parametrar”. Det är dessa anslutningsdefinieringskoefficienter som avses när du till exempel läser att GPT-3-modellen har 175 miljarder parametrar. Den senaste versionen, GPT-4, ryktas ha biljontals parametrar, men det är obekräftat. Det finns en handfull neurala nätverksarkitekturer med olika egenskaper som lämpar sig för att producera innehåll i en viss modalitet. Transformatorarkitekturen verkar till exempel vara bäst för stora språkmodeller.
Lär ut den nyfödda neurala nätverksmodellen. Stora språkmodeller får enorma textvolymer att bearbeta och har till uppgift att göra enkla förutsägelser, som nästa ord i en sekvens eller rätt ordningsföljd för en uppsättning meningar. I praktiken fungerar dock neurala nätverksmodeller i enheter som kallas token, inte ord.
”Ett vanligt ord kan ha sitt eget token, ovanliga ord skulle säkert bestå av flera token och vissa token kan bara vara ett enda mellanslag följt av ”th” eftersom den sekvensen av tre tecken är så vanlig”, säger Thompson. För att göra varje förutsägelse matar modellen in ett token i det nedre lagret av en viss stack av artificiella neuroner. Det lagret bearbetar sen den och överför dess utdata till nästa lager som bearbetar och överför dess utdata och så fortsätter det tills den slutliga utdatan kommer från toppen av stacken. Stackstorlekar kan variera avsevärt, men de är i allmänhet i ordningen av tiotals lager, inte tusentals eller miljontals.
I de tidiga träningsfaserna är modellens förutsägelser inte särskilt bra. Men varje gång modellen förutser ett token, kontrollerar den om träningsdata är korrekta. Oavsett om det är rätt eller fel justerar en ”backpropagation”-algoritm parametrarna – det vill säga formlernas koefficienter – i varje cell i stacken som gjorde den förutsägelsen. Målet med justeringarna är att göra den korrekta förutsägelsen mer sannolik.
”Det gör det även för rätta svar, eftersom den rätta förutsägelsen kanske bara hade en 30 % säkerhet, men de 30 % var mest av alla andra möjliga svar”, säger Thompson. ”Så, backpropagation försöker omvandla dessa 30 % till 30,001 %, eller något liknande.”
Efter att modellen har upprepat denna process för biljontals texttoken, blir den mycket bra på att förutsäga nästa token, eller ord. Efter inledande träning kan generativa AI-modeller finjusteras via en handledd inlärningsteknik, som förstärkningsinlärning från mänsklig återkoppling (RLHF). I RLHF ges modellens utdata till mänskliga granskare som gör en binär positiv eller negativ bedömning – tummen upp eller ner – som matas tillbaka till modellen. RLHF användes för att finjustera OpenAI:s GPT 3.5-modell för att hjälpa till att skapa den ChatGPT-chattrobot som blev viral.
Men hur svarade modellen på min fråga? Det är ett mysterium. Så här förklarar Thompson den nuvarande förståelsen: "Det finns ett enormt "vi vet helt enkelt inte" mitt i min förklaring. Vad vi vet är att den tar hela din fråga som en sekvens av token och i det första lagret bearbetar den alla samtidigt. Vi vet också att den sedan bearbetar utdata från det första lagret i nästa lager och så vidare upp i stacken. Därefter vet vi att den använder det översta lagret för att förutsäga – det vill säga producera ett första token – och det första token representeras som garanterat i hela systemet för att producera nästa token och så fortsätter det.
”Den logiska efterföljande frågan är vad den tänkte på och hur, under all denna bearbetning? Vad gjorde alla dessa lager? Och det krassa svaret är, vi vet inte. Vi ... gör ... inte ... vet. Du kan studera det. Du kan observera det. Men det är en komplex fråga som vi inte har förmågan att analysera. Det är precis som F-MRI [funktionell magnetisk resonanstomografi] på människors hjärnor. Det är den grövsta skissen av vad modellen faktiskt gjorde. Vi vet inte.”
Även om det är kontroversiellt drog en grupp på mer än ett dussin forskare som hade tidig tillgång till GPT-4 under hösten 2022 slutsatsen att den intelligens med vilken modellen svarar på komplexa utmaningar som de ställde den inför och det breda spektrum av expertis som den visar, tyder på att GPT-4 har uppnått en form av allmän intelligens. Med andra ord har den byggt upp en intern modell av hur världen fungerar, precis som en mänsklig hjärna kan göra. Den använder också den modellen för att resonera genom de frågor som ställs till den. En av forskarna berättade för podcasten This American Life att han fick en snilleblixt när han frågade GPT-4 ”Ge mig ett recept på chocolate chip cookies, men skrivet i stil med en mycket deprimerad person,” och modellen svarade: ”Ingredienser: 1 kopp mjukt smör, om du ens kan hitta energin för att mjuka upp det. 1 tesked vaniljeextrakt, den falska konstgjorda smaken av lycka. 1 kopp halvsöta chokladbitar, pyttesmå glädjeämnen som så småningom bara smälter bort.”
Ett bra sätt att förstå vikten av generativ AI är att tänka på det som en kalkylator för öppet, kreativt innehåll. Precis som en miniräknare automatiserar rutinmässig och vardaglig matte, vilket gör att en person kan fokusera på uppgifter på högre nivå, har generativ AI potential att automatisera mer rutinmässiga och vardagliga deluppgifter som utgör mycket av kunskapsarbetet, vilket gör att människor kan fokusera på de mer avancerade delarna av jobbet.
Se vilka utmaningar marknadsförare står inför när de vill få åtgärdsinriktade insikter från ostrukturerade, inkonsekventa och isolerade data som de ofta ställs inför. Traditionellt skulle de behöva konsolidera dessa data som ett första steg, vilket kräver en hel del anpassad programvaruteknik för att ge gemensam struktur för olika datakällor, som sociala medier, nyheter och kundfeedback.
”Men med LLM:er kan du helt enkelt mata in information från olika källor direkt i prompten och sedan be om viktiga insikter, eller om vilken feedback som ska prioriteras, eller begära sentimentanalys – så fungerar det bara”, säger Basim Baig, en senior ingenjörschef som specialiserat sig på AI och säkerhet på Duolingo. ”Kraften hos LLM här är att du kan hoppa över det enorma och kostsamma tekniska steget.”
Thompson funderar vidare och föreslår att produktmarknadsförare kan använda LLM för att tagga friformstext för analys. Tänk dig att du t.ex. har en stor databas med omnämnanden om din produkt i sociala medier. Du kan skriva programvara som tillämpar en LLM och annan teknik för att:
Därefter kan du tillämpa resultaten på:
Generativ AI representerar en bred kategori applikationer baserat på en alltmer rik pool av neurala nätverksvariationer. Även om all generativ AI passar in på den övergripande beskrivningen i avsnittet Hur fungerar generativ AI?, varierar implementeringsteknikerna för att stödja olika medier, till exempel bilder kontra text och för att integrera forsknings- och branschframsteg när de uppstår.
Neurala nätmodeller använder repetitiva mönster av artificiella neuroner och deras sammankopplingar. En neural nätverksdesign för alla tillämpningar, inklusive generativ AI, upprepar ofta samma mönster av neuroner hundratals eller tusentals gånger och återanvänder vanligtvis samma parametrar. Detta är en viktig del av vad som kallas en ”neural nätverksarkitektur”. Upptäckten av nya arkitekturer har varit ett viktigt område för AI-innovation sedan 1980-talet, ofta drivet av målet att stödja ett nytt medium. Men när en ny arkitektur väl har uppfunnits görs ofta ytterligare framsteg genom att använda den på oväntade sätt. Ytterligare innovation kommer från att kombinera delar av olika arkitekturer.
Två av de tidigaste och fortfarande vanligaste arkitekturerna är:
Även om RNN fortfarande används ofta har successiva insatser för att förbättra RNN lett till ett genombrott:
Insatser inom forskning, privat bransch och öppen källkod har skapat effektiva modeller som är innovativa på högre nivåer av arkitektur och tillämpning av neurala nätverk. Det har till exempel skett avgörande innovationer i utbildningsprocessen, i hur feedback från utbildning införlivas för att förbättra modellen och i hur flera modeller kan kombineras i generativa AI-tillämpningar. Här är en genomgång av några av de viktigaste generativa AI-modellinnovationerna:
Även om världen bara har börjat skrapa ytan på potentiella användningsområden för generativ AI, är det lätt att se hur företag kan dra nytta av tekniken genom att tillämpa den på sin verksamhet. Tänk på hur generativ AI kan förändra de viktigaste områdena inom kundinteraktioner, försäljning och marknadsföring, programvaruteknik samt forskning och utveckling.
Tidigare automatiserade AI-teknik processer och introducerade självbetjäningsfunktioner för kunder inom kundservice, men det orsakade också ytterligare frustrationer hos kunderna. Generativ AI lovar att skapa fördelar för både kunder och kundtjänstmedarbetare, med chattrobotar som kan anpassas till olika språk och regioner och som skapar en mer personanpassad och tillgänglig kundupplevelse. Om det krävs mänsklig hjälp för att att lösa en kunds problem kan kundtjänstmedarbetarna samarbeta med generativa AI-verktyg i realtid för att hitta åtgärdsinriktade strategier, vilket förbättrar interaktionernas hastighet och precision. Tack vare att generativ AI snabbt kan utnyttja ett stor företags fullständiga kunskapsbas och ta fram lösningar på kundklagomål, får servicepersonalen bättre möjligheter att effektivt lösa specifika kundproblem, i stället för att förlita sig på föråldrade telefonkataloger och vidarekopplingar tills man hittar ett svar – eller tills tålamodet tar slut hos kunden.
Inom marknadsföring kan generativ AI automatisera integreringen och analysen av data från olika källor, vilket dramatiskt skulle påskynda insiktsprocessen och direkt leda till bättre, välgrundat beslutsfattande och snabbare utveckling av go-to-marknadsföringsstrategier. Marknadsförare kan använda den här informationen tillsammans med andra AI-genererade insikter för att skapa nya, mer riktade annonskampanjer. Det minskar den tid som personalen måste lägga på att samla in demografiska data och köpbeteendedata, vilket ger dem mer tid att analysera resultat och komma på nya idéer.
Tom Stein, ordförande och varumärkeschef på B2B-marknadsföringsbyrå Stein IAS, säger att varje marknadsföringsbyrå, inklusive hans, utforskar sådana möjligheter i hög hastighet. Men Stein påpekar att det också finns enklare, snabbare lösningar för en byrås backend-processer.
”Om vi får en RFI [informationsbegäran], kommer 70 % till 80 % av RFI:n att be om samma information som alla andra RFI:er, kanske med vissa kontextuella skillnader som är specifika för företagets situation”, säger Stein, som också var juryordförande för 2023 års Cannes Lions Creative B2B Awards. ”Det är inte så komplicerat att sätta oss i en position där AI-verktygen kan göra jobbet åt oss ... så om vi får tillbaka 80 % av vår tid och kan spendera den tiden på att tillföra värde till RFI:n och bara få den att fungera, är det en vinst på alla sätt och vis. Det finns ett antal sådana processer."
Programvaruutvecklare som samarbetar med generativ AI kan effektivisera och påskynda processer vid varje steg, från planering till underhåll. Under den första fasen av skapandet kan generativa AI-verktyg analysera och organisera stora mängder data och föreslå flera programkonfigurationer. När kodningen börjar kan AI testa och felsöka kod, identifiera fel, köra diagnostik och föreslå korrigeringar – både före och efter att den startar. Thompson konstaterar att eftersom så många programvaruprojekt för företag innehåller flera programmeringsspråk och discipliner, har han och andra programvaruingenjörer använt AI för att utbilda sig inom okända områden mycket snabbare än de tidigare kunde. Han har också använt generativa AI-verktyg för att förklara okänd kod och identifiera specifika problem.
Inom FoU kan generativ AI öka hastigheten och djupet av marknadsundersökningar under de inledande faserna av produktdesignen. Sedan kan AI-program, särskilt de med bildgenererande funktioner, skapa detaljerade utformningar av potentiella produkter innan de simuleras och testas, vilket ger medarbetarna de verktyg de behöver för att göra snabba och effektiva justeringar under FoU-cykeln.
Oracles grundare Ellison påpekade under konferensen om resultatet i juni att ”specialiserade LLM:er påskyndar upptäckten av nya livräddande läkemedel”. Läkemedelsforskning är en FoU-tillämpning som utnyttjar generativa modellers tendens att hallucinera felaktig eller icke verifierbar information – men på ett bra sätt: Identifiera nya molekyler och proteinsekvenser för att stödja sökandet efter nya sjukvårdsbehandlingar. Oracle-dotterbolaget Cerner Enviza har gått samman med den amerikanska livsmedels- och läkemedelsmyndigheten (FDA) och John Snow Labs för att tillämpa AI-verktyg på utmaningen att ”förstå effekterna av läkemedel på stora populationer”. Oracles AI-strategi är att stärka artificiell intelligens i alla dess molnapplikationer och molninfrastruktur.
Generativ AI har den långtgående potentialen att påskynda eller helt automatisera en rad olika uppgifter. Företagen bör planera avsiktliga och specifika sätt att maximera de fördelar de kan ge sin verksamhet. Här är några specifika användningsfall:
De fördelar som generativ AI kan ge till ett företag härrör främst från tre övergripande attribut: kunskapssyntes, samarbete mellan människor och AI samt hastighet. Även om många av fördelarna nedan liknar de som tidigare utlovats av tidigare AI-modeller och automatiseringsverktyg, kan närvaron av en eller flera av dessa tre attribut hjälpa företag att förverkliga fördelarna snabbare, enklare och mer effektivt.
Med generativ AI kan organisationer bygga anpassade modeller som tränas på egna institutionella kunskaper och immateriella rättigheter, varefter kunskapsarbetare kan be programvaran att samarbeta med en uppgift på samma språk som de skulle använda tillsammans med en kollega. En sådan specialiserad generativ AI-modell kan svara genom att syntetisera information från hela företagets kunskapsbas med häpnadsväckande hastighet. Detta tillvägagångssätt minskar eller eliminerar inte bara behovet av komplexa – och ofta mindre effektiva och dyrare – programvarutekniska kunskaper för att skapa specifika program för dessa uppgifter. Det är också sannolikt att idéer och kopplingar som tidigare strategier inte kunde göra kommer fram.
Ökad produktivitet: Kunskapsarbetare kan använda generativ AI för att minska den tid de lägger på dagliga rutinuppgifter, som att utbilda sig i en ny disciplin som plötsligt behövs för ett kommande projekt, organisera eller kategorisera data, söka på internet efter relevant forskning eller skriva e-post. Genom att utnyttja generativ AI kan färre anställda utföra uppgifter som tidigare krävde stora team eller många timmars arbete på en bråkdel av tiden. Ett team av programmerare kan till exempel spendera timmar på att gå igenom felaktig kod för att felsöka vad som gick fel, men ett generativt AI-verktyg kan hitta felen på ett ögonblick och rapportera dem tillsammans med föreslagna korrigeringar. Eftersom vissa generativa AI-modeller har färdigheter som är mer eller mindre genomsnittliga över ett brett spektrum av kompetenser för kunskapsarbete, kan ett samarbete med ett generativt AI-system öka den mänskliga partnerns produktivitet avsevärt. En junior produktchef kan till exempel också bli minst en vanlig projektledare med en AI-coach vid sin sida. Alla dessa funktioner skulle avsevärt påskynda kunskapsmedarbetarnas förmåga att slutföra ett projekt.
Minskade kostnader: Tack vare sin snabbhet sänker generativa AI-verktyg kostnaderna för att slutföra processer och om det tar hälften så lång tid att utföra en uppgift, kostar den hälften så mycket som den annars skulle. Generativ AI kan dessutom minimera fel, eliminera nedtid och identifiera överlappningar samt andra kostsamma ineffektiviteter. Det finns dock en motsättning: På grund av den generativa AI:s tendens att hallucinera är det fortfarande nödvändigt med mänsklig tillsyn och kvalitetskontroll. Men samarbetet mellan människor och AI förväntas utföra mycket mer arbete på kortare tid än människor på egen hand – bättre och mer exakt än enbart AI-verktyg – vilket minskar kostnaderna. Medan du t.ex. testar nya produkter kan generativ AI hjälpa till att skapa mer avancerade och detaljerade simuleringar än äldre verktyg. Detta minskar tidsåtgången och kostnaden för att testa nya produkter.
Förbättrad kundnöjdhet: Kunderna kan få en överlägsen och mer personanpassad upplevelse med hjälp av generativ AI-baserad självbetjäning och generativa AI-verktyg som ”viskar i örat” hos kundtjänstmedarbetaren och förser dem med kunskap i realtid. Även om de AI-drivna kundtjänstchattbotar som finns i dag ibland kan kännas frustrerande begränsade, är det lätt att föreställa sig en mycket mer högkvalitativ kundupplevelse som drivs av ett företags specialutbildade generativa AI-modell, baserat på nivån av dagens ChatGPT-konversationer.
Bättre välgrundat beslutsfattande: Specialutbildade, företagsspecifika generativa AI-modeller kan ge detaljerade insikter genom scenariomodellering, riskbedömning och andra avancerade metoder för prediktiva analyser. Beslutsfattare kan dra nytta av dessa verktyg för att få en djupare förståelse för sin bransch och företagets ställning i den genom personligt anpassade rekommendationer och åtgärdsinriktade strategier, baserade på mer omfattande data och snabbare analyser än vad mänskliga analytiker eller äldre teknik skulle kunna generera på egen hand.
Till exempel kan beslutsfattare bättre planera lagerallokering före en högsäsong med hjälp av mer exakta efterfrågeprognoser som möjliggörs genom en kombination av interna data som samlas in av ERP-systemet (Enterprise Resource Planning) och omfattande extern marknadsundersökning, som sedan analyseras av en specialiserad generativ AI-modell. I det här fallet minimerar bättre allokeringsbeslut överinköp och lagerbrist, samtidigt som du maximerar den potentiella försäljningen.
Snabbare produktlanseringar: Generativ AI kan snabbt producera produktprototyper och första utkast, hjälpa till att finjustera pågående arbeten och testa/felsöka befintliga projekt för att hitta förbättringar mycket snabbare än vad som tidigare var möjligt.
Kvalitetskontroll: En företagsspecifik, specialiserad generativ AI-modell visar sannolikt luckor och inkonsekvenser i användarhandböcker, videor och annat innehåll som ett företag presenterar för allmänheten.
Ett exempel på specifika generativa AI-fördelar | |||
---|---|---|---|
Kunskapssyntes | Samarbete mellan människa och AI | Snabbhet | |
Ökad produktivitet | Organisera data, påskynda forskning och producera första utkast. | Utbilda anställda om nya discipliner och föreslå nya sätt att lösa problem. | Påskynda medarbetarnas möjlighet att slutföra ett nytt projekt. |
Minskade kostnader | Identifiera överlappningar och ineffektivitet för att förbättra arbetsflöden. | Minimera antalet mänskliga fel och minska stilleståndstiden genom gemensam översyn. | Slutför uppgifter snabbare (om en uppgift tar halva tiden har den halva kostnaden). |
Förbättrad kundnöjdhet | Organisera och hämta snabbt kundkontoinformation för att påskynda problemlösningen. | Förbättrade chattrobotar för att automatisera enkla interaktioner och bättre information till säljare när mänsklig hjälp behövs. | Ge kontouppdateringar och information i realtid till både kunder och kundtjänstpersonal. |
Bättre, välgrundat beslutsfattande | Få snabba insikter genom att förmedla prediktiva analyser, t.ex. scenariomodellering och riskbedömning. | Ge beslutsfattarna personligt anpassade rekommendationer och genomförbara strategier. | Generera snabbare analyser från mer omfattande data än mänskliga analytiker eller äldre teknik. |
Snabbare produktlanseringar | Producera prototyper och "minimalt lönsamma produkter" (MVP). | Testa och felsöka befintliga projekt för att hitta förbättringar. | Öka hastigheten med vilken justeringar kan genomföras. |
Alla som har använt generativa AI-verktyg för utbildning och/eller forskning har sannolikt upplevt den mest kända begränsningen: De hittar på saker. Eftersom modellen bara förutsäger nästa ord kan den extrapolera från sina träningsdata till att påstå osanningar med lika stor auktoritet som de sanningar den rapporterar. Detta är vad AI-forskare menar med hallucination. Det är en viktig anledning till att dagens generativa AI-verktyg kräver mänskliga medarbetare. Företagen måste vara noga med att förbereda sig och hantera dessa och andra begränsningar när de implementerar generativ AI. Om ett företag ställer orealistiska förväntningar eller inte hanterar tekniken på ett effektivt sätt kan konsekvenserna skada företagets resultat och rykte.
Generativ AI har framkallat extrema reaktioner på båda sidor av riskspektrumet. Vissa grupper oroar sig för att det kan leda till mänsklig utrotning, medan andra insisterar på att det kan rädda världen. Dessa ytterligheter ligger utanför ramen för denna artikel. Här är dock några viktiga risker och farhågor som företagsledare som implementerar AI-teknik måste förstå så att de kan vidta åtgärder för att mildra eventuella negativa konsekvenser.
Förtroende och tillförlitlighet: Generativa AI-modeller gör felaktiga påståenden och ibland hallucinerar de fram fullständigt fabricerad information. På samma sätt är många modeller tränade med äldre data och tittar vanligtvis bara på information som publiceras fram till ett visst datum, så vad som passar förra årets marknad kanske inte längre är relevant eller användbar. Företag som till exempel vill förbättra sin försörjningskedja kan tycka att förslagen för deras modeller är föråldrade och inte relevanta i den ständigt föränderliga globala ekonomin. Användare måste verifiera alla påståenden innan de agerar på dem för att säkerställa noggrannhet och relevans.
Sekretess/immateriella rättigheter: Generativa AI-modeller fortsätter ofta att lära sig från informationsindata som tillhandahålls som en del av frågor. Företag, särskilt de som samlar in känsliga personuppgifter från sina kunder, som läkarmottagningar, måste se till att de inte exponerar skyddade IP-adresser eller konfidentiella uppgifter. Om modellen kommer åt denna information kan det öka sannolikheten för exponering.
Effektiviserad social teknik: Hotaktörer använder redan generativ AI för att hjälpa dem att personanpassa social teknik och andra cyberattacker genom att få dem att verka mer autentiska.
”Det är redan mycket svårt att skilja om du pratar med en bot eller en människa online”, säger Baig, Duolingo AI:n och säkerhetsingenjör. ”Det har blivit mycket lättare för brottslingar som vill tjäna en slant att generera en massa innehåll som kan lura människor.”
Minskad utdatakvalitet och originalitet: Generativ AI kan göra det enklare och snabbare att bygga produkter och innehåll, men garanterar inte ett resultat av högre kvalitet. Att förlita sig på AI-modeller utan betydande mänskligt samarbete kan resultera i produkter som blir standardiserade och saknar kreativitet.
Partiskhet: Om en generativ AI-modell tränas på partisk data, allt från luckor i perspektiv till skadligt och fördomsfullt innehåll, återspeglas dessa fel i resultatet. Om ett företag till exempel historiskt bara har anställt en viss typ av medarbetare kan modellen komma att jämföra nya sökande med den ”idealiska” anställningen och eliminera kvalificerade kandidater eftersom de inte passar in i mallen, även om organisationen har för avsikt att slopa mallen.
Skugg-AI: Anställdas användning av generativ AI utan organisationens officiella godkännande eller kunskap kan leda till att företaget oavsiktligt lämnar ut felaktig information eller bryter mot en annan organisations upphovsrätt.
Modellkollaps: AI-forskare har upptäckt ett fenomen som kallas modellkollaps som kan göra generativa AI-modeller mindre användbara med tiden. Allteftersom AI-genererat innehåll sprids innebär det att modeller som tränas på syntetiska data – som oundvikligen innehåller fel – så småningom kommer att ”glömma” egenskaperna hos de mänskliga genererade data som de ursprungligen tränades på. Denna oro kan nå en brytpunkt när internet befolkas med AI-innehåll i högre grad, vilket skapar en feedbacksloop som försämrar modellen.
AI-reglering: Eftersom generativ AI är så nytt finns det inte mycket tillämplig lagstiftning. Ändå undersöker regeringar över hela världen hur den ska regleras. Vissa länder, som Kina, har redan föreslagit lagstiftningsåtgärder för hur modeller kan utbildas och vad de får producera. I takt med att fler länder inför bestämmelser måste företag, särskilt internationella företag, hålla koll på nya och förändrade lagar för att säkerställa efterlevnad och undvika böter eller straffavgifter för missbruk av tekniken.
Utvecklingen av analys av stora datamängder för mer än ett decennium sedan väckte nya etiska frågor och debatter, eftersom nya verktyg gjorde det möjligt att dra slutsatser om privat eller känslig information om människor som de inte hade, och inte skulle vilja, avslöja. Hur ska företag hantera sin förmåga att inneha sådan information?
Med tanke på dess potential att effektivisera dataanalysen väcker generativ AI nya etiska frågor och återupplivar gamla igen.
Företag i alla storlekar och branscher, från USA:s militär till Coca-Cola, experimenterar flitigt med generativ AI. Här är en liten uppsättning exempel som visar teknikens breda potential och snabba spridning.
Snap Inc., företaget bakom Snapchat, lanserade en chattrobot med namnet "My AI" som bygger på en version av OpenAI:s GPT-teknik. My AI är anpassad för att passa Snapchats ton och stil och är programmerad för att vara vänlig och personlig. Användare kan ändra sitt utseende med avatarer, bakgrundsbilder och namn. De kan även använda den för att chatta en-mot-en eller bland flera användare, vilket simulerar det typiska sättet som Snapchat-användare kommunicerar med sina vänner. Användare kan begära personliga råd eller delta i vardagliga samtal om ämnen som mat, hobbyer eller musik – roboten kan till och med berätta skämt. Snapchat använder My AI för att hjälpa användare att utforska funktioner i appen som augmented reality-linser, men också för att hjälpa användare att få information de normalt inte skulle vända sig till Snapchat för, t.ex. att rekommendera platser att besöka på en lokal karta.
Bloomberg presenterade BloombergGPT, en chattrobot som till hälften har tränats på allmänna data om världen och till hälften på antigen Bloombergs egna data eller rensade ekonomiska data. Den kan utföra enkla uppgifter som att skriva utmärkta artikelrubriker. Den kan också utföra proprietära knep, som att förvandla vanliga engelska frågor till Bloomberg Query Language som krävs av företagets dataterminaler, vilket är ett måste för många företag i ekonomibranschen.
Oracle har ingått ett partnerskap med AI-utvecklaren Cohere som hjälper företag att skapa interna modeller som finjusteras med privata företagsdata, i försök att sprida användningen av specialiserade företagsspecifika generativa AI-verktyg.
”Cohere och Oracle samarbetar för att göra det mycket enkelt för företagskunder att träna sina egna specialiserade stora språkmodeller och samtidigt skydda sekretessen med sina utbildningsdata”, säger Ellison på Oracle till finansanalytiker under konferensen om resultatet i juni 2023. Oracle planerar att integrera generativa AI-tjänster i affärsplattformar för att öka produktiviteten och effektiviteten i företagets befintliga processer genom att kringgå behovet av att många företag bygger och utbildar sina egna modeller från grunden. Därför meddelade företaget nyligen att generativa AI-funktioner skulle införlivas i programvaran för personaladministration, Oracle Fusion Cloud Human Capital Management (HCM).
Dessutom gäller följande:
ChatGPT är verktyget som blev en viral sensation, men en mängd generativa AI-verktyg finns tillgängliga för varje modalitet. Bara för att skriva finns till exempel finns Jasper, Lex, AI-Writer, Writer och många fler. När det gäller bildgenerering verkar Midjourney, Stable Diffusion och Dall-E vara de mest populära i dag.
Bland de dussintals musikgeneratorer finns AIVA, Soundful, Boomy, Amper, Dadabots och MuseNet. Även om mjukvaruprogrammerare har varit kända för att samarbeta med ChatGPT, finns det också gott om specialiserade kodgenereringsverktyg, inklusive Codex, codeStarter, Tabnine, PolyCoder, Cogram och CodeT5.
Kanske är det överraskande att det första steget på vägen till de generativa AI-modeller som används i dag togs 1943, samma år som den första elektriska programmerbara datorn, Colossus, som sedan användes av Storbritannien för att avkoda krypterade meddelanden under andra världskriget – demonstrerades. AI-steget var en forskningsrapport, ”A Logical Calculus of Ideas Immanent in Nervous Activity”, av Warren McCulloch, en psykiater och professor vid University of Illinois College of Medicine, och Walter Pitts, en självlärd forskare inom beräkningsneurovetenskap.
Pitts, ett underbarn i matematik, sprang hemifrån vid 15 års ålder och var hemlös när han träffade McCulloch, som tog emot Pitts för att bo med sin familj. Pitts enda examen var en Associate of Arts som tilldelades av University of Chicago, efter att ha publicerat den banbrytande artikeln som etablerade den grundläggande matematiken för hur en artificiell neuron ”bestämmer” om den ska mata ut en etta eller en nolla.
Det andra steget förflyttar sig norrut och österut till Buffalo i NY och en forskningspsykolog på Cornell Aeronautical Laboratory vid namn Frank Rosenblatt. Rosenblatt arbetade under juli 1957 med ett anslag från Office of Navy Reserach inom USA:s marindepartement som en del av Cornells projekt PARA (Perceiving and Recognizing Automaton) och byggde vidare på McCullochs och Pitts matematik för att utveckla perceptronen, ett neuralt nätverk med ett enda ”dolt” lager mellan input- och output-lagren. Innan Mark I Perceptron byggdes, som i dag finns på Smithsonian Institution, simulerade Rosenblatt och flottan den på en IBM 704-stordator för en offentlig demonstration i juli 1958. Men perceptronen var ett så enkelt neuralt nätverk att det fick kritik från datavetaren Marvin Minsky vid Massachusetts Institute of Technology, som var med och grundade MIT:s AI-laboratorium. Enligt uppgifter diskuterade Minsky och Rosenblatt perceptronens långsiktiga framtidsutsikter i offentliga forum, vilket ledde till att AI-gemenskapen i stort sett övergav forskningen om neurala nätverk från 1960-talet fram till 1980-talet.
Denna period var känd som "AI-vintern".
Landskapet för forksning om neurala nätverk tog fart på 1980-talet tack vare bidragen från flera forskare, särskilt Paul Werbos, vars ursprungliga arbete återupptäckte perceptronen, Geoffrey Hinton, Yoshua Bengio och Yann LeCun. Deras sammanlagda arbete visade att stora neurala nätvärk med flera lager var genomförbara och hur sådana nätverk kunde lära sig av sina rätta och felaktiga svar genom kredittilldelning via en backpropagationsalgoritm. Detta är när RNN:er och CNN:er uppstod. Men begränsningarna hos dessa tidiga neurala nät, i kombination med överdrivna förväntningar som inte kunde uppfyllas på grund av dessa begränsningar och datorkraften vid den tidpunkten, ledde till en andra AI-vinter på 1990-talet och början av 2000-talet.
Den här gången var det dock många forskare inom neurala nät som höll kursen, inklusive Hinton, Bengio och LeCun. Trion, som ibland kallas ”AI:s gudfäder”, delade priset 2018 Turing Award för sitt arbete under 1980-talet, deras efterföljande uthållighet och deras pågående bidrag. I mitten av 2010-talet uppstod nya och olika neurala nät, vilket beskrivs i avsnittet Generativa AI-modeller.
Vilken effekt generativ AI har på företag och sättet människor arbetar på återstår att se. Men så mycket är klart: Enorma investeringar görs i generativ AI över flera områden av människans strävan. Riskkapitalister, etablerade företag, och i stort sett alla företag däremellan investerar i generativa AI-startups i en rasande fart. Den universella ”magin” hos LLM:er är en otrolig förmåga att medla mänsklig interaktion med stora datamängder, att hjälpa människor att förstå information genom att förklara den enkelt, tydligt och förvånansvärt snabbt. Detta tyder på att generativ AI kan integreras i en mängd befintliga applikationer och ge upphov till en andra våg av nya tillämpningar.
Gartner räknar till exempel med att 40 % av företagsapplikationerna kommer att ha inbäddad konversations-AI senast 2024, 30 % av företagen kommer att ha AI-styrda utvecklings- och teststrategier senast 2025 och fler än 100 miljoner medarbetare kommer att samarbeta med ”robocolleagues” senast 2026.
Naturligtvis är det möjligt att riskerna och begränsningarna för generativ AI kan få denna ångvält att spåra ur. Att finjustera generativa modeller för att lära sig nyanserna av vad som gör ett företag unikt kan visa sig för svårt, att köra sådana beräkningsintensiva modeller kan visa sig för kostsamma och en oavsiktlig exponering av affärshemligheter kan skrämma bort företag.
Eller så kan allt hända, men i en långsammare takt än vad många nu förväntar sig. Som en påminnelse uppfylldes löftet om internet så småningom. Men det tog ett decennium längre än förväntat jämfört med den första generationen av entusiaster, då nödvändig infrastruktur byggdes eller uppfanns och människor anpassade sitt beteende till det nya mediets möjligheter. På många sätt är generativ AI ett annat nytt medium.
Influencers funderar brett kring framtiden för generativ AI inom näringslivet.
”Det kan innebära att vi bygger företag annorlunda i framtiden”, säger Sean Ammirati, en riskkapitalist som också är den framstående tjänstprofessorn i entreprenörskap vid Carnegie Mellon University's Tepper School of Business och medgrundare av CMU:s Corporate Startup Lab. På samma sätt som ”digitala inhemska” företag hade en fördel efter uppkomsten av internet, ser Ammirati framför sig att framtida företag som från grunden bygger på generativ AI-driven automatisering kommer att kunna ta ledningen.
Han säger att: ”Dessa företag kommer att automatiseras först, så de behöver inte lära sig hur de ska sluta göra saker manuellt som de borde göra på ett automatiserat sätt”. ”Det kan leda till en helt annan typ av företag.”
Oracle har inte bara arbetat länge med funktioner för artificiell intelligens och integrerat dem i sina produkter, utan är också ledande inom generativ AI-utveckling och aktiviteter. Oracle Cloud Infrastructure används av ledande generativa AI-företag. Nästa generations moln kan erbjuda den perfekta plattformen för företag som vill bygga och distribuera specialiserade generativa AI-modeller som är specifika för deras organisationer och enskilda branscher. Ellison från Oracle förklarar: ”Alla Oracles molndatacenter har ett RDMA-nätverk [Remote Direct Memory Access] med hög bandbredd och låg latens som är perfekt optimerat för att bygga de storskaliga GPU-kluster som används för att träna generativa stora språkmodeller. Den extremt höga prestandan och de relaterade kostnadsbesparingarna för att köra generativa AI-arbetsbelastningar i vårt Gen 2-moln har gjort Oracle till det främsta AI-utvecklingsföretaget.”
Oracles partnerskap med Cohere har lett till en ny uppsättning generativa AI-molntjänster. ”Den här nya tjänsten skyddar integriteten för våra företagskunders träningsdata, så att dessa kunder säkert kan använda sina egna privata data för att träna sina egna privata specialiserade stora språkmodeller”, säger Ellison.
Historien om generativ AI började för 80 år sedan med matematiken hos en tonåring på rymmen och blev en viral sensation i slutet av förra året med lanseringen av ChatGPT. Innovationen inom generativ AI ökar snabbt i takt med att företag i alla storlekar och branscher experimenterar med och investerar i dess funktioner. Men samtidigt som generativ AI kan förbättra arbetet och livet medför den också stora risker. Det kan handla om allt från förlorade jobb till, om du tror domedagsprofeterna, utrotning av mänskligheten. Vad vi vet med säkerhet är att anden är ur flaskan och den tänker inte gå in igen.
Oracle erbjuder en modern dataplattform och en AI-infrastruktur med hög prestanda till låg kostnad. Ytterligare faktorer som kraftfulla högpresterande modeller, oöverträffad datasäkerhet och inbäddade AI-tjänster, visar varför Oracles AI-produkt verkligen är byggd för företag.
Vad är generativ AI-teknik?
Generativ AI-teknik bygger på neurala nätverksprogramvaruarkitekturer som efterliknar hur den mänskliga hjärnan tros fungera. Dessa neurala nät tränas genom att man matar in stora mängder data i relativt små prover och sedan ber AI:n att göra enkla förutsägelser, som nästa ord i en sekvens eller rätt ordning i en sekvens av meningar. Det neurala nätet får beröm eller klander för rätt och fel svar, så det lär sig från processen tills det kan göra bra förutsägelser. I slutändan använder sig tekniken av sina träningsdata och sitt lärande för att svara på frågor och andra prompter på ett människolikt sätt.
Vad är ett exempel på generativ AI?
Det mest välkända exemplet med generativ AI i dag är ChatGPT, som kan hantera människoliknande konversationer och skriva om ett stort antal ämnen. Andra exempel är Midjourney och Dall-E som skapar bilder och en mängd andra verktyg som kan generera text, bilder, video och ljud.
Vad är skillnaden mellan generativ AI och AI?
Det är viktigt att notera att generativ AI inte är en helt annan teknik än traditionell AI. De befinner sig på olika punkter på ett spektrum. Traditionella AI-system utför vanligtvis en specifik uppgift, som att upptäcka kreditkortsbedrägerier. Generativ AI är vanligtvis bredare och kan skapa nytt innehåll. Detta beror delvis på att generativa AI-verktyg tränas på större och mer mångsidiga datamängder än traditionell AI. Dessutom tränas traditionell AI vanligtvis med hjälp av övervakade inlärningsteknik, medan generativ AI tränas med hjälp av oövervakad inlärning.
Vad är risken för generativ AI?
En omfattande debatt pågår i samhället om de möjliga riskerna med generativ AI. Extremister på motsatta sidor av debatten har sagt att tekniken i slutändan kan leda till mänsklig utrotning, å ena sidan, eller rädda världen, å andra sidan. Det är mer sannolikt att AI-teknikens närvaro leder till att många befintliga jobb försvinner. Företagen bör ta hänsyn till hur generativ AI kan leda till förändringar i arbetsprocesser och arbetsroller, liksom risken för att den oavsiktligt avslöjar privat eller känslig information eller bryter mot upphovsrätten.
Vad är generativ AI bra för?
Generativ AI kan användas på ett utmärkt sätt i samarbete med mänskliga medarbetare för att t.ex. hjälpa till med att brainstorma nya idéer och utbilda medarbetare i angränsande discipliner. Det är också ett bra verktyg som hjälper människor att snabbare analysera ostrukturerade data. Mer allmänt kan den gynna företagen genom att förbättra produktiviteten, minska kostnaderna, förbättra kundnöjdheten, tillhandahålla bättre information för beslutsfattande och påskynda produktutvecklingen.
Vad kan generativ AI inte göra?
Generativ AI kan inte ha helt nya idéer som inte tidigare har uttryckts i träningsdata eller åtminstone extrapolerats från dessa data. Den ska inte heller lämnas åt sig själv. Generativ AI kräver mänsklig översyn och är endast som bäst i samarbete mellan människor och AI.
Vilka branscher använder generativ AI?
På grund av sin bredd är det sannolikt att generativ AI kommer vara användbart i nästan alla branscher.
Hur påverkar generativ AI arbetets framtid?
Generativ AI lär få stor inverkan på kunskapsarbetet, dvs. aktiviteter där människor samarbetar och/eller fattar affärsbeslut. Kunskapsarbetarnas roller måste åtminstone anpassas till att samarbeta med generativa AI-verktyg, vilket leder till att vissa jobb försvinner. Historien visar dock att den tekniska förändring som förväntas av generativ AI alltid leder till att fler jobb skapas än antalet som försvinner.