Greg Pavlik | Senior Vice President, Oracle Cloud Infrastructure | 15. September 2023
Generative künstliche Intelligenz ist eine relativ neue Form der KI, die im Gegensatz zu ihren Vorgängern durch Extrapolation aus ihren Trainingsdaten neue Inhalte erstellen kann. Seit der erste generative KI-Chatbot für den Verbrauchermarkt im Herbst 2022 der Öffentlichkeit vorgestellt wurde, hat seine außergewöhnliche Fähigkeit, menschenähnliche Schriften, Bilder, Audio- und Videoinhalte zu produzieren, die Fantasie der Welt angeregt. Ein Bericht von McKinsey & Company vom Juni 2023 schätzt, dass generative KI das Potenzial hat, durch die Steigerung der Arbeitsproduktivität jährlich zwischen 6,1 und 7,9 Billionen US-Dollar zur Weltwirtschaft beizutragen. Um dies in einen Zusammenhang zu bringen: Dieselbe Studie beziffert das jährliche wirtschaftliche Potenzial der Produktivitätssteigerung durch alle KI-Technologien auf 17,1 bis 25,6 Billionen US-Dollar. Auch wenn die generative KI sich hier Mitte 2023 zu Wort meldet, ist sie immer noch nur ein Teil des gesamten KI-Umfangs.
Aber jede Aktion hat eine entsprechende Gegenreaktion. Neben den bemerkenswerten Produktivitätsaussichten bringt generative KI also neue potenzielle Geschäftsrisiken mit sich – wie z. B. Ungenauigkeiten, Datenschutzverletzungen und die Offenlegung von geistigem Eigentum. Außerdem besteht die Möglichkeit, dass es zu groß angelegten wirtschaftlichen und gesellschaftlichen Störungen kommt. Beispielsweise werden die Produktivitätsvorteile der generativen KI wahrscheinlich nicht ohne erhebliche Umschulungsbemühungen für Arbeitskräfte realisiert werden können, und trotzdem werden sie zweifellos viele von ihren derzeitigen Arbeitsplätzen verdrängen. Daher plädieren Regierungspolitiker auf der ganzen Welt und sogar einige Führungskräfte der Technologiebranche für eine rasche Einführung von KI-Vorschriften.
Dieser Artikel ist eine ausführliche Untersuchung der Versprechen und Gefahren der generativen KI: Ihre Funktionsweise, unmittelbare Anwendung, Anwendungsfälle und Beispiele sowie ihre Grenzen, potenziellen geschäftlichen Vorteile und Risiken, Best Practices für die Verwendung sowie ein Blick in ihre Zukunft.
Generative KI (GKI) ist die Bezeichnung für eine Untergruppe von KI-Technologien für maschinelles Lernen, die in jüngster Zeit die Fähigkeit entwickelt haben, als Reaktion auf Textaufforderungen, die von kurz und einfach bis zu sehr lang und komplex reichen können, schnell Inhalte zu erstellen. Verschiedene generative KI-Tools können neue Audio-, Bild- und Videoinhalte erzeugen. Jedoch ist es die auf Text ausgerichtete dialogorientierte KI, die die Fantasie beflügelt hat. Tatsächlich können sich Menschen mit texttrainierten generativen KI-Modellen unterhalten und daraus lernen – ähnlich wie bei einer Unterhaltung mit Menschen.
Generative KI hat die Welt in den Monaten nach ChatGPT (ein Chatbot, der auf dem neuronalen OpenAI-Netzwerkmodell GPT-3.5 basiert und am 30. November 2022 veröffentlicht wurde) im Sturm erobert. GPT steht für „Generative Pretrained Transformer“, ein Wort, das hauptsächlich die zugrunde liegende neuronale Netzwerkarchitektur des Modells beschreibt.
Es gibt viele frühere Beispiele für dialogorientierte Chatbots, angefangen mit ELIZA vom Massachusetts Institute of Technology Mitte der 1960er Jahre. Doch die meisten früheren Chatbots, darunter auch ELIZA, basierten ganz oder größtenteils auf Regeln, sodass es ihnen an kontextbezogenen Verständnis mangelte. Ihre Antworten beschränkten sich auf eine Reihe vordefinierter Regeln und Vorlagen. Im Gegensatz dazu verfügen die jetzt entstehenden generativen KI-Modelle nicht über solche vordefinierten Regeln oder Vorlagen. Metaphorisch gesprochen handelt es sich um primitive, leere Gehirne (neuronale Netze), die durch Training anhand realer Daten der Welt ausgesetzt werden. Anschließend entwickeln sie selbstständig Intelligenz – ein repräsentatives Modell dafür, wie diese Welt funktioniert. Diese Intelligenz nutzen sie dann, um als Reaktion auf Aufforderungen neuartige Inhalte zu generieren. Selbst KI-Experten wissen nicht genau, wie sie das machen, da die Algorithmen selbst entwickelt und beim Training des Systems angepasst werden.
Große und kleine Unternehmen sollten vom Potenzial der generativen KI begeistert sein, die Vorteile der Technologieautomatisierung in die Wissensarbeit zu integrieren, die sich bisher weitgehend der Automatisierung widersetzte. Generative KI-Tools verändern die Berechnung der Automatisierung von Wissensarbeit. Ihre Fähigkeit, als Reaktion auf einfache englische Textaufforderungen menschenähnliche Schriften, Bilder, Audio- oder Videoinhalte zu produzieren, bedeutet, dass sie mit menschlichen Partnern zusammenarbeiten können, um Inhalte zu generieren, die praktische Arbeit darstellen.
„In den nächsten Jahren werden viele Unternehmen ihre eigenen spezialisierten großen Sprachmodelle trainieren“, sagte Larry Ellison, Chairman und Chief Technology Officer von Oracle, während des Earnings Calls des Unternehmens im Juni 2023.
Künstliche Intelligenz ist ein riesiger Bereich der Informatik, von dem die generative KI zumindest derzeit nur einen kleinen Teil ausmacht. Natürlich hat die generative KI viele Gemeinsamkeiten mit der traditionellen KI. Es gibt aber auch einige krasse Unterschiede.
Ein weiterer erwähnenswerter Unterschied besteht darin, dass das Training grundlegender Modelle für generative KI „unangemessen teuer“ ist, zitiert ein KI-Forscher. Nehmen wir an, 100 Millionen US-Dollar allein für die für den Einstieg benötigte Hardware sowie die entsprechenden Kosten für Cloud-Services, da dort der Großteil der KI-Entwicklung stattfindet. Hinzu kommen die Kosten für die enorm großen Datenmengen, die benötigt werden.
Wichtige Erkenntnisse
Für große und kleine Unternehmen besteht das scheinbar magische Versprechen der generativen KI darin, dass sie die Vorteile der Technologieautomatisierung in die Wissensarbeit integrieren kann. Oder, wie es in einem McKinsey-Bericht heißt: „Aktivitäten, bei denen es um Entscheidungsfindung und Zusammenarbeit ging, die bisher das geringste Automatisierungspotenzial hatten.“
In der Vergangenheit war die Technologie am effektivsten bei der Automatisierung routinemäßiger oder sich wiederholender Aufgaben, bei denen Entscheidungen bereits bekannt waren oder auf der Grundlage spezifischer, gut verstandener Regeln mit einem hohen Maß an Sicherheit getroffen werden konnten. Denken Sie an die Fertigung mit ihrer präzisen Wiederholung am Fließband oder an die Buchhaltung mit ihren von Branchenverbänden festgelegten, regulierten Grundsätzen. Generative KI hat jedoch das Potenzial, weitaus anspruchsvollere kognitive Arbeiten zu leisten. Um ein zugegebenermaßen extremes Beispiel vorzuschlagen, könnte generative KI die Strategiebildung eines Unternehmens unterstützen, indem sie auf Aufforderungen reagiert, alternative Ideen und Szenarien von den Managern eines Unternehmens inmitten einer Branchenstörung anzufordern.
In seinem Bericht bewertete McKinsey 63 Anwendungsfälle in 16 Geschäftsfunktionen und kam zu dem Schluss, dass 75 % des potenziellen Werts in Höhe von Billionen Dollar, der durch generative KI realisiert werden könnte, aus einer Teilmenge von Anwendungsfällen in nur vier dieser Funktionen stammen werden. Hierzu gehören Kundenbetrieb , Marketing und Vertrieb, Softwareentwicklung sowie Forschung und Entwicklung. Die Perspektiven bezüglich der Umsatzsteigerung verteilten sich gleichermaßen über die Branchen hinweg, es gab jedoch auch Besonderheiten. Der High-Tech-Bereich führte die Liste hinsichtlich der möglichen Steigerung als Prozentsatz des Branchenumsatzes an, gefolgt von Banken, Pharmazeutika und medizinischen Produkten, Bildung, Telekommunikation und dem Gesundheitswesen.
Unabhängig davon korrelierte eine Gartner-Analyse mit den Prognosen von McKinsey: Beispielsweise werden bis 2025 mehr als 30 % der neuen Medikamente und Materialien mithilfe generativer KI-Techniken entdeckt, gegenüber Null heute. Außerdem werden 30 % der ausgehenden Marketingbotschaften großer Unternehmen im Jahr 2025 auch synthetisch generiert werden, gegenüber 2 % im Jahr 2022. Des Weiteren stellte Gartner in einer Online-Umfrage fest, dass Customer Experience und Kundenbindung die Top-Antwort (mit 38 %) von 2.500 Führungskräften waren, als sie gefragt wurden, in welche Bereiche ihre Unternehmen in generative KI investieren.
All das kann so schnell vonstattengehen, weil generative KI im Gegensatz zur traditionellen KI, die seit Jahrzehnten stillschweigend kommerzielle Prozesse automatisiert und ihnen einen Mehrwert verleiht, dank des menschenähnlichen Gesprächstalents von ChatGPT explosionsartig ins Bewusstsein der Welt gelangt ist. Darüber hinaus hat dies auch die generative KI-Technologie, die sich auf andere Modalitäten konzentriert, in das Rampenlicht gerückt. Es scheint so, als würde jeder mit dem Schreiben von Texten oder dem Erstellen von Musik, Bildern und Videos experimentieren und dabei eines oder mehrere der verschiedenen Modelle verwenden, die auf den jeweiligen Bereich spezialisiert sind. Da viele Unternehmen bereits mit generativer KI experimentieren, dürften ihre Auswirkungen auf Wirtschaft und Gesellschaft enorm sein – und werden exterm schnell zu spüren sein.
Der offensichtliche Nachteil ist, dass sich die Wissensarbeit verändern wird. Einzelne Rollen ändern sich manchmal erheblich, sodass Mitarbeiter neue Fähigkeiten erlernen müssen. Und einige Jobs gehen sogar ganz verloren. Historisch gesehen haben große technologische Veränderungen wie die generative KI jedoch immer mehr (und höherwertige) Arbeitsplätze für die Wirtschaft geschaffen, als sie beseitigt haben. Für diejenigen, deren Arbeitsplätze wegfallen, ist das jedoch kein Trost.
Auf die Frage, wie generative KI-Modelle funktionieren, gibt es zwei Antworten. Aus empirischer Sicht wissen wir, wie sie im Detail funktionieren, weil Menschen ihre verschiedenen neuronalen Netzwerkimplementierungen so entworfen haben, dass sie genau das tun, was sie tun. Außerdem wurden diese Designs über Jahrzehnte hinweg iteriert, um sie immer besser zu machen. KI-Entwickler wissen genau, wie die Neuronen miteinander verbunden sind, da sie den Trainingsprozess jedes Modells entwickelt haben. Doch in der Praxis weiß niemand genau, wie generative KI-Modelle das tun, was sie tun – das ist die peinliche Wahrheit.
„Wir wissen nicht, wie sie die eigentliche kreative Aufgabe erledigen. Denn was in den Schichten des neuronalen Netzwerks vor sich geht, ist für uns viel zu komplex, um es aktuell zu entschlüsseln“, sagte Dean Thompson, ehemaliger Chief Technology Officer mehrerer KI-Startups, die im Laufe der Jahre von Unternehmen wie LinkedIn und Yelp übernommen wurden, wo er weiterhin als Senior Software Engineer an großen Sprachmodellen (LLMs) arbeitet. Die Fähigkeit generativer KI, neue originelle Inhalte zu produzieren, scheint eine aufstrebende Eigenschaft dessen zu sein, was bekannt ist, d. h. ihre Struktur und ihr Training. Obwohl es also im Vergleich zu dem, was wir wissen, viel zu erklären gibt, muss noch herausgefunden werden, was ein Modell wie GPT-3.5 intern tatsächlich tut – was es quasi denkt. Einige KI-Forscher sind zuversichtlich, dass dies in den nächsten 5 bis 10 Jahren bekannt werden wird und andere sind sich wiederum nicht sicher, ob es jemals vollständig verstanden wird.
Hier ist ein Überblick darüber, was wir über die Funktionsweise generativer KI wissen:
Beginnen wir mit dem Gehirn. Ein guter Ausgangspunkt für das Verständnis generativer KI-Modelle ist das menschliche Gehirn, sagt Jeff Hawkins in seinem 2004 erschienenen Buch „On Intelligence“. Hawkins, ein Informatiker, Gehirnforscher und Unternehmer, stellte seine Arbeit 2005 in einer Session beim PC Forum vor, einer jährlichen Konferenz führender Technologiemanager unter der Leitung der Technologieinvestorin Esther Dyson. Hawkins stellte die Hypothese auf, dass das Gehirn auf Neuronenebene kontinuierlich vorhersagt, was als Nächstes passieren wird, und dann aus den Unterschieden zwischen seinen Vorhersagen und der späteren Realität lernt. Um seine Vorhersagefähigkeit zu verbessern, baut das Gehirn eine innere Repräsentation der Welt auf. In seiner Theorie entsteht aus diesem Prozess die menschliche Intelligenz. Ob von Hawkins beeinflusst oder nicht, generative KI funktioniert genau auf diese Weise. Und verblüffenderweise verhält sich die Technologie, als wäre sie intelligent.
Erstellen Sie ein künstliches neuronales Netzwerk. Alle generativen KI-Modelle beginnen mit einem künstlichen neuronalen Netzwerk, das in Software codiert ist. Laut Thompson besteht eine gute visuelle Metapher für ein neuronales Netzwerk darin, sich die bekannte Tabellenkalkulation vorzustellen, allerdings in drei Dimensionen, weil die künstlichen Neuronen, ähnlich wie echte Neuronen im Gehirn, in Schichten gestapelt sind. „KI-Forscher nennen jedes Neuron sogar eine Zelle‘“, bemerkt Thompson, und jede Zelle enthält eine Formel, die sie mit anderen Zellen im Netzwerk in Beziehung setzt – was die Art und Weise nachahmt, wie die Verbindungen zwischen Gehirnneuronen unterschiedliche Stärken haben.
Jede Schicht kann Dutzende, Hunderte oder Tausende künstlicher Neuronen enthalten. Jedoch konzentrieren sich KI-Forscher nicht auf die Anzahl der Neuronen. Stattdessen messen sie Modelle anhand der Anzahl der Verbindungen zwischen Neuronen. Die Stärke dieser Verbindungen variiert je nach den Koeffizienten ihrer Zellgleichungen, die allgemein als „Gewichte“ oder „Parameter“ bezeichnet werden. Auf diese verbindungsbestimmten Koeffizienten bezieht man sich, wenn man beispielsweise liest, dass das GPT-3-Modell 175 Milliarden Parameter hat. Gerüchten zufolge verfügt die neueste Version, GPT-4, über Billionen von Parametern. Allerdings wurde das noch nicht bestätigt. Es gibt eine Handvoll neuronaler Netzwerkarchitekturen mit unterschiedlichen Eigenschaften, die sich für die Produktion von Inhalten in einer bestimmten Modalität eignen. Die Transformer-Architektur scheint beispielsweise für große Sprachmodelle am besten geeignet zu sein.
Lehren Sie das neugeborene neuronale Netzwerkmodell. Große Sprachmodelle müssen enorme Textmengen verarbeiten und einfache Vorhersagen treffen, etwa das nächste Wort in einer Sequenz oder die richtige Reihenfolge einer Satzgruppe. In der Praxis arbeiten neuronale Netzwerkmodelle jedoch in Einheiten, die Token genannt werden – und nicht in Wörtern.
„Ein gebräuchliches Wort kann sein eigenes Zeichen haben, ungewöhnliche Wörter würden sicherlich aus mehreren Zeichen bestehen, und einige Zeichen könnten nur ein einzelnes Leerzeichen gefolgt von ‚th‘ sein, weil diese Folge von drei Zeichen so häufig vorkommt“, sagte Thompson. Um jede Vorhersage zu treffen, gibt das Modell einen Token in die unterste Schicht eines bestimmten Stapels künstlicher Neuronen ein. Diese Schicht verarbeitet es und gibt seine Ausgabe an die nächste Schicht weiter, die ihre Ausgabe verarbeitet und weitergibt usw. Dies wird fortgeführt, bis die endgültige Ausgabe oben im Stapel erscheint. Die Stapelgrößen können erheblich variieren, liegen jedoch im Allgemeinen in der Größenordnung von mehreren zehn Schichten und nicht in der Größenordnung von Tausenden oder Millionen.
In den frühen Trainingsphasen sind die Vorhersagen des Modells nicht besonders gut. Jedoch prüft das Modell jedes Mal, wenn es einen Token vorhersagt, die Richtigkeit anhand der Trainingsdaten. Ob richtig oder falsch, ein „Backpropagation“-Algorithmus passt die Parameter – also die Koeffizienten der Formeln – in jeder Zelle des Stapels an, die diese Vorhersage getroffen hat. Ziel der Anpassungen ist es, die Wahrscheinlichkeit der richtigen Vorhersage zu erhöhen.
„Das gilt auch für richtige Antworten, weil diese richtige Vorhersage vielleicht nur eine 30-prozentige Sicherheit hatte, aber dass 30 % die meisten aller anderen möglichen Antworten waren“, sagte Thompson. „Backpropagation versucht also, aus diesen 30 % in etwa 30,001 % zu machen.“
Nachdem das Modell diesen Prozess für Billionen von Text-Token wiederholt hat, wird es sehr gut darin, das nächste Token oder Wort vorherzusagen. Nach dem anfänglichen Training können generative KI-Modelle mithilfe einer überwachten Lerntechnik, wie beispielsweise Reinforcement Learning from Human Feedback (RLHF), verfeinert werden. Bei RLHF wird die Ausgabe des Modells an menschliche Prüfer weitergegeben, die eine binäre positive oder negative Bewertung vornehmen (Daumen hoch oder runter), die an das Modell zurückgemeldet wird. RLHF wurde zur Feinabstimmung des GPT 3.5-Modells von OpenAI verwendet, um bei der Erstellung des ChatGPT-Chatbots zu helfen, der viral ging.
Aber wie hat das Modell meine Frage beantwortet? Das ist ein Rätsel. So erklärt Thompson den aktuellen Stand des Verständnisses: „Mitten in meiner Erklärung steht ein großes ‚Wir wissen es einfach nicht‘. Was wir wissen ist, dass es Ihre gesamte Frage als eine Folge von Tokens aufnimmt und auf der ersten Ebene alle diese gleichzeitig verarbeitet. Und wir wissen, dass es anschließend die Ausgaben dieser ersten Schicht in der nächsten Schicht weiter nach oben im Stapel verarbeitet. Außerdem wissen wir, dass es diese oberste Schicht verwendet, um vorherzusagen, das heißt, ein erstes Token zu erzeugen. Dieses erste Token wird dann im gesamten System als ‚gegeben‘ dargestellt, um das nächste Token zu erzeugen, und so weiter.“
„Die logische nächste Frage ist: Worüber hat es bei all dieser Verarbeitung nachgedacht und wie? Was haben all diese Schichten gemacht? Und die klare Antwort lautet: Wir wissen es nicht. Wir … wissen … es … einfach ... nicht. Sie können das Ganze untersuchen. Sie können es beobachten. Jedoch ist es äußerst komplex und übersteigt unsere Fähigkeit, es zu analysieren. Es ist genau wie die F-MRT [funktionelle Magnetresonanztomografie] im menschlichen Gehirn. Es ist die gröbste Skizze dessen, was das Modell tatsächlich getan hat. Wir wissen es einfach nicht.“
Obwohl dies umstritten ist, kam eine Gruppe von mehr als einem Dutzend Forschern, die im Herbst 2022 frühzeitig Zugang zu GPT-4 hatten, zu dem Schluss, dass die Intelligenz, mit der das Modell auf die komplexen Herausforderungen reagiert, die es stellt, und das breite Spektrum an Fachwissen, das es aufweist, darauf hindeuten, dass GPT-4 eine Form allgemeiner Intelligenz erreicht hat. Mit anderen Worten: Es hat ein internes Modell dafür aufgebaut, wie die Welt funktioniert, so wie es ein menschliches Gehirn tun könnte, und nutzt dieses Modell, um die ihm gestellten Fragen zu begründen. Einer der Forscher erzählte dem Podcast „This American Life“, dass er einen Überraschungseffekt hatte, als er GPT-4 Folgendes bat: „Gib mir ein Rezept für Schokoladenkekse und schreibe es im Stil einer sehr depressiven Person.“ und das Model antwortete: „Zutaten: 1 Tasse weiche Butter, wenn Sie überhaupt die Energie aufbringen können, sie weich zu machen. 1 Teelöffel Vanilleextrakt, der gefälschte künstliche Geschmack des Glücks. 1 Tasse halbsüße Schokoladenstückchen, winzige kleine Freuden, die irgendwann einfach dahinschmelzen.“
Eine nützliche Möglichkeit, die Bedeutung generativer KI zu verstehen, besteht darin, sie als Taschenrechner für offene, kreative Inhalte zu betrachten. So wie ein Taschenrechner routinemäßige und alltägliche Mathematikaufgaben automatisiert und es einem Menschen ermöglicht, sich auf übergeordnete Aufgaben zu konzentrieren, hat die generative KI das Potenzial, routinemäßigere und alltäglichere Teilaufgaben zu automatisieren, die einen Großteil der Wissensarbeit ausmachen. So können sich Menschen auf die übergeordneten Teile des Jobs konzentrieren.
Bedenken Sie die Herausforderungen, vor denen Vermarkter stehen, wenn sie aus den unstrukturierten, inkonsistenten und unzusammenhängenden Daten, mit denen sie häufig konfrontiert sind, verwertbare Erkenntnisse gewinnen. Traditionell müssten sie diese Daten als ersten Schritt konsolidieren, was ein erhebliches Maß an kundenspezifischer Softwareentwicklung erfordert, um unterschiedlichen Datenquellen wie Social Media, Nachrichten und Kundenfeedback eine gemeinsame Struktur zu geben.
„Aber mit LLMs können Sie einfach Informationen aus verschiedenen Quellen direkt in die Eingabeaufforderung einspeisen und dann nach wichtigen Erkenntnissen, nach dem zu priorisierenden Feedback oder nach einer Stimmungsanalyse fragen – und das wird einfach funktionieren“, sagte Basim Baig, ein Senior Engineering Manager, der bei Duolingo auf KI und Sicherheit spezialisiert ist. „Die Stärke des LLM liegt hier darin, dass Sie diesen massiven und kostspieligen Entwicklungsschritt überspringen können.“
Darüber hinaus schlägt Thompson vor, dass Produktvermarkter LLMs verwenden könnten, um Freiformtexte für die Analyse zu taggen. Stellen Sie sich zum Beispiel vor, Sie verfügen über eine riesige Datenbank mit Social-Media-Erwähnungen Ihres Produkts. Sie könnten Software schreiben, die ein LLM und andere Technologien anwendet, um:
Anschließend könnten Sie die Ergebnisse anwenden, um:
Generative KI stellt eine breite Kategorie von Anwendungen dar, die auf einem immer umfangreicheren Pool an Variationen neuronaler Netzwerke basieren. Obwohl jede generative KI der allgemeinen Beschreibung im Abschnitt „Funktionsweise der generativen KI?“ entspricht, variieren die Implementierungstechniken, um unterschiedliche Medien wie Bilder oder Text zu unterstützen und Fortschritte aus Forschung und Industrie zu berücksichtigen, sobald diese erfolgen.
Modelle neuronaler Netzwerke nutzen sich wiederholende Muster künstlicher Neuronen und deren Verbindungen. Ein neuronales Netzwerkdesign – für jede Anwendung, einschließlich generativer KI – wiederholt oft dasselbe Muster von Neuronen hunderte oder tausende Male und verwendet dabei in der Regel dieselben Parameter. Dies ist ein wesentlicher Bestandteil dessen, was als „neuronale Netzwerkarchitektur“ bezeichnet wird. Die Entdeckung neuer Architekturen ist seit den 1980er-Jahren ein wichtiger Bereich der KI-Innovation, oft angetrieben durch das Ziel, ein neues Medium zu unterstützen. Aber sobald eine neue Architektur erfunden wurde, werden oft weitere Fortschritte erzielt, indem sie auf unerwartete Weise eingesetzt wird. Zusätzliche Innovationen entstehen durch die Kombination von Elementen verschiedener Architekturen.
Zwei der frühesten und immer noch am weitesten verbreiteten Architekturen sind:
Obwohl RNNs immer noch häufig verwendet werden, führten jegliche Bemühungen zur Verbesserung der RNNs zu einem Durchbruch:
Forschung, Privatwirtschaft und Open-Source-Bemühungen haben wirkungsvolle Modelle geschaffen, die auf höheren Ebenen der neuronalen Netzwerkarchitektur und -anwendung innovativ sind. Beispielsweise gab es entscheidende Neuerungen im Trainingsprozess, in der Art und Weise, wie Feedback aus dem Training zur Verbesserung des Modells einbezogen wird, und in der Art und Weise, wie mehrere Modelle zu generativen KI-Anwendungen kombiniert werden können. Hier ist ein Überblick über einige der wichtigsten Innovationen bei generativen KI-Modellen:
Während die Welt gerade erst damit begonnen hat, an der Oberfläche potenzieller Einsatzmöglichkeiten generativer KI zu kratzen, ist es leicht zu erkennen, wie Unternehmen davon profitieren können, wenn sie diese in ihren Abläufen anwenden. Überlegen Sie, wie generative KI wichtige Bereiche wie Kundeninteraktionen, Vertrieb und Marketing, Softwareentwicklung sowie Forschung und Entwicklung verändern könnte.
Im Kundenservice automatisierten frühere KI-Technologien Prozesse und führten den Kunden-Selfservice ein, verursachten aber auch eine neue Frustration bei den Kunden. Generative KI verspricht Vorteile sowohl für Kunden als auch für Servicemitarbeiter, da Chatbots an verschiedene Sprachen und Regionen angepasst werden können und so eine personalisiertere und zugänglichere Customer Experience schaffen. Wenn menschliches Eingreifen erforderlich ist, um ein Kundenproblem zu lösen, können Kundenservicemitarbeiter mit generativen KI-Tools in Echtzeit zusammenarbeiten, um umsetzbare Strategien zu finden und so die Geschwindigkeit und Genauigkeit der Interaktionen zu verbessern. Durch die Geschwindigkeit, mit der generative KI die Wissensdatenbank eines gesamten Großunternehmens nutzen und neue Lösungen für Kundenbeschwerden synthetisieren kann, sind Servicemitarbeiter in der Lage, bestimmte Kundenprobleme effektiv zu lösen, anstatt sich auf veraltete Telefonbäume und Anrufweiterleitungen zu verlassen, bis eine Antwort gefunden ist – oder der Kunde keine Geduld mehr hat.
Im Marketingbereich kann generative KI die Integration und Analyse von Daten aus unterschiedlichen Quellen automatisieren. Dies verkürzt die Zeit für das Erlangen von Erkenntnissen erheblich und führt direkt zu fundierteren Entscheidungen und einer schnelleren Entwicklung von Markteinführungsstrategien. Marketingspezialisten können diese Informationen zusammen mit anderen KI-generierten Erkenntnissen verwenden, um neue, gezieltere Werbekampagnen zu erstellen. Dadurch wird der Zeitaufwand reduziert, den die Mitarbeiter mit der Erfassung demografischer Daten und Daten zum Kaufverhalten verbringen müssen. So haben sie mehr Zeit, Ergebnisse zu analysieren und neue Ideen zu entwickeln.
Tom Stein, Vorstandsvorsitzender und Chief Brand Officer der B2B-Marketingagentur Stein IAS, sagt, dass jede Marketingagentur, auch seine, solche Möglichkeiten mit hoher Geschwindigkeit erforscht. Stein weist jedoch darauf hin, dass es auch einfachere und schnellere Erfolge für die Backend-Prozesse einer Agentur gibt.
„Wenn wir eine RFI [Informationsanfrage] erhalten, werden in der Regel 70 % bis 80 % der RFI nach den gleichen Informationen fragen wie jede andere RFI – eventuell mit einigen kontextuellen Unterschieden, die für die Situation des jeweiligen Unternehmens spezifisch sind“, sagt Stein, der außerdem Jurypräsident der Cannes Lions Creative B2B Awards 2023 war. „Es ist nicht so kompliziert, uns in die Lage zu versetzen, dass beliebige KI-Tools diese Arbeit für uns erledigen … Wenn wir also 80 % unserer Zeit zurückgewinnen und diese Zeit damit verbringen können, der Informationsanfrage einen Mehrwert zu verleihen, und sie einfach arbeiten lassen, ist das auf jeden Fall ein Gewinn. Und es gibt eine Reihe solcher Prozesse.“
Softwareentwickler, die mit generativer KI arbeiten, können Prozesse in jedem Schritt optimieren und beschleunigen – von der Planung bis zur Wartung. Während der anfänglichen Erstellungsphase können generative KI-Tools große Datenmengen analysieren und organisieren und mehrere Programmkonfigurationen vorschlagen. Sobald mit der Codierung begonnen wird, kann die KI den Code testen und Fehler beheben, Fehler identifizieren, Diagnosen durchführen und Korrekturen vorschlagen – sowohl vor als auch nach dem Start. Thompson weist darauf hin, dass er und andere Softwareentwickler KI genutzt haben, um sich in unbekannten Bereichen viel schneller weiterzubilden, als dies zuvor möglich war, da viele Unternehmenssoftwareprojekte mehrere Programmiersprachen und -disziplinen umfassen. Darüber hinaus hat er generative KI-Tools verwendet, um unbekannten Code zu erklären und spezifische Probleme zu identifizieren.
In Forschung und Entwicklung kann generative KI die Geschwindigkeit und Tiefe der Marktforschung in den Anfangsphasen des Produktdesigns erhöhen. Anschließend können KI-Programme, insbesondere solche mit Bilderzeugungsfunktionen, detaillierte Entwürfe potenzieller Produkte erstellen, bevor sie diese simulieren und testen. So verfügen Mitarbeiter über Tools, die sie benötigen, um während des gesamten Forschungs- und Entwicklungszyklus schnelle und effektive Anpassungen vorzunehmen.
Oracle Gründer Ellison wies beim Earnings Call im Juni darauf hin, dass „spezialisierte LLMs die Entdeckung neuer lebensrettender Medikamente beschleunigen werden“. Die Arzneimittelforschung ist eine Forschungs- und Entwicklungsanwendung, die die Tendenz generativer Modelle ausnutzt, falsche oder nicht überprüfbare Informationen zu halluzinieren – aber auf eine gute Art und Weise: die Identifizierung neuer Moleküle und Proteinsequenzen zur Unterstützung der Suche nach neuartigen Gesundheitsbehandlungen. Unabhängig davon hat sich die Oracle Tochtergesellschaft Cerner Enviza mit der U.S. Food and Drug Administration (FDA) und John Snow Labs zusammengetan, um KI-Tools auf die Herausforderung anzuwenden, „die Auswirkungen von Medikamenten auf große Bevölkerungsgruppen zu verstehen“. Die KI-Strategie von Oracle besteht darin, künstliche Intelligenz in allen Cloud-Anwendungen und der Cloud-Infrastruktur allgegenwärtig zu machen.
Generative KI hat das weitreichende Potenzial, vielfältige Aufgaben zu beschleunigen bzw. vollständig zu automatisieren. Unternehmen sollten bewusste und spezifische Wege planen, um die für ihren Betrieb möglichen Vorteile zu maximieren. Hier sind einige spezifische Anwendungsfälle:
Die Vorteile, die generative KI einem Unternehmen bringen kann, ergeben sich hauptsächlich aus drei übergreifenden Attributen: Wissenssynthese, Zusammenarbeit zwischen Mensch und KI sowie Geschwindigkeit. Während viele der unten genannten Vorteile, denen ähneln, die in der Vergangenheit von früheren KI-Modellen und Automatisierungstools versprochen wurden, kann das Vorhandensein eines oder mehrerer dieser drei Attribute Unternehmen dabei helfen, die Vorteile schneller, einfacher und effektiver zu realisieren.
Mit generativer KI können Unternehmen benutzerdefinierte Modelle erstellen, die auf ihrem eigenen institutionellen Wissen und geistigen Eigentum (IP) basieren. Anschließend können Wissensarbeiter die Software bitten, an einer Aufgabe in derselben Sprache zusammenzuarbeiten, die sie möglicherweise mit einem Kollegen teilen. Ein solch spezialisiertes generatives KI-Modell kann reagieren, indem es Informationen aus der gesamten Wissensdatenbank des Unternehmens mit erstaunlicher Geschwindigkeit synthetisiert. Dieser Ansatz reduziert oder eliminiert nicht nur den Bedarf an komplexem – und oft weniger effektivem und teurerem – Software-Engineering-Know-how zur Erstellung spezifischer Programme für diese Aufgaben, sondern bringt wahrscheinlich auch Ideen und Verbindungen zum Vorschein, die frühere Ansätze nicht bieten konnten.
Gesteigerte Produktivität: Wissensarbeiter können generative KI nutzen, um ihren Zeitaufwand für alltägliche Routineaufgaben zu reduzieren, z. B. sich in einer neuen Disziplin weiterzubilden, die plötzlich für ein bevorstehendes Projekt benötigt wird, Daten zu organisieren oder zu kategorisieren, das Internet nach anwendbaren Recherchen zu durchsuchen oder E-Mails zu verfassen. Durch den Einsatz generativer KI können weniger Mitarbeiter Aufgaben in einem Bruchteil der Zeit erledigen, für die früher große Teams bzw. Stunden von Arbeit erforderlich waren. Ein Team von Programmierern könnte beispielsweise Stunden damit verbringen, fehlerhaften Code zu durchforsten, um zu beheben, was schief gelaufen ist, wobei ein generatives KI-Tool die Fehler möglicherweise in wenigen Augenblicken finden und zusammen mit Korrekturvorschlägen melden kann. Da einige generative KI-Modelle über Fähigkeiten verfügen, die in einem breiten Spektrum von Wissensarbeitskompetenzen ungefähr durchschnittlich oder besser sind, kann die Zusammenarbeit mit einem generativen KI-System die Produktivität seines menschlichen Partners erheblich steigern. Beispielsweise könnte ein Junior-Produktmanager auch ein mindestens durchschnittlicher Projektmanager mit einem KI-Coach an seiner Seite sein. All diese Funktionen würden die Möglichkeit für Wissensarbeiter, ein Projekt abzuschließen, erheblich beschleunigen.
Geringere Kosten: Aufgrund ihrer Geschwindigkeit reduzieren generative KI-Tools die Kosten für die Durchführung von Prozessen. Und wenn die Erledigung einer Aufgabe nur halb so viel Zeit in Anspruch nimmt, dann kostet sie auch nur halb so viel wie sonst. Darüber hinaus kann generative KI Fehler minimieren, Ausfallzeiten vermeiden sowie Redundanzen und andere kostspielige Ineffizienzen erkennen. Es gibt jedoch einen Unterschied: Da die generative KI zu „Halluzinationen“ neigt, sind menschliche Aufsicht und Qualitätskontrolle weiterhin erforderlich. Von der Zusammenarbeit zwischen Mensch und KI wird jedoch erwartet, dass sie weitaus mehr Arbeit in kürzerer Zeit erledigt als Menschen allein (und besser bzw. genauer als KI-Tools allein) und dadurch die Kosten senkt. Beim Testen neuer Produkte kann beispielsweise generative KI dazu beitragen, fortschrittlichere und detailliertere Simulationen zu erstellen als ältere Tools. Dies reduziert letztendlich den Zeit- und Kostenaufwand für das Testen neuer Produkte.
Höhere Kundenzufriedenheit: Kunden haben durch generativen KI-basierten Selfservice und generative KI-Tools, die den Kundenservicemitarbeitern „ins Ohr flüstern“ und sie in Echtzeit mit Wissen versorgen, ein besseres und personalisierteres Erlebnis. Auch wenn die KI-gestützten Kundenservice-Chatbots, die man heutzutage findet, manchmal frustrierend eingeschränkt erscheinen, kann man sich leicht eine viel hochwertigere Customer Experience vorstellen, die auf dem speziell geschulten generativen KI-Modell eines Unternehmens und auf dem Kaliber der heutigen ChatGPT-Gespräche basiert.
Besser fundierte Entscheidungsfindung: Speziell geschulte, unternehmensspezifische generative KI-Modelle können durch Szenariomodellierung, Risikobewertung und andere ausgefeilte Ansätze für prädiktive Analysen detaillierte Erkenntnisse liefern. Entscheidungsträger können diese Tools nutzen, um durch personalisierte Empfehlungen und umsetzbare Strategien ein tieferes Verständnis ihrer Branche und der Position des Unternehmens zu erlangen. Und das Ganze basiert auf weiterreichenden Daten und schnelleren Analysen, als menschliche Analysten oder ältere Technologien allein generieren könnten.
Beispielsweise können Entscheidungsträger die Bestandszuteilung vor einer ausgelasteten Saison besser planen, indem sie genauere Nachfrageprognosen erstellen. Diese werden durch eine Kombination aus internen Daten, die von ihrem Enterprise Resource Planning-(ERP-)System erfasst werden, und umfassender externer Marktforschung ermöglicht, und werden anschließend durch ein spezialisiertes generatives KI-Modell analysiert. In diesem Fall minimieren bessere Allokationsentscheidungen die übermäßige Einkäufe und Fehlbestände und maximieren gleichzeitig den potenziellen Umsatz.
Schnellere Produkteinführungen: Generative KI kann schnell Produktprototypen und erste Entwürfe erstellen, bei der Feinabstimmung laufender Arbeiten helfen und bestehende Projekte testen bzw. Fehler beheben, um Verbesserungen viel schneller als bisher zu finden.
Qualitätskontrolle: Ein unternehmensspezifisches, spezialisiertes generatives KI-Modell wird wahrscheinlich Lücken und Inkonsistenzen in den Benutzerhandbüchern, Videos und anderen Inhalten aufdecken, die ein Unternehmen der Öffentlichkeit präsentiert.
Beispiel für spezifische Vorteile der generativen KI | |||
---|---|---|---|
Wissenssynthese | Zusammenarbeit zwischen Mensch und KI | Geschwindigkeit | |
Bessere Produktivität | Organisieren von Daten, schnellere Recherche und Erstellen erster Produktentwürfe. | Schulen von Mitarbeitern in neuen Disziplinen und Vorschlag neuer Wege zur Problemlösung. | Schnellere Möglichkeit für Wissensarbeiter, ein neues Projekt abzuschließen. |
Geringere Kosten | Identifizieren von Redundanzen und Ineffizienzen, um Workflows zu verbessern. | Minimieren von menschlichen Fehlern und reduzieren von Ausfallzeiten durch gemeinschaftliche Überwachung. | Schnelleres Erledigen von Aufgaben (wenn eine Aufgabe die Hälfte der Zeit in Anspruch nimmt, sind die Kosten auch nur halb so hoch). |
Höhere Kundenzufriedenheit | Schnelle Organisation von Kundenkontoinformationen und deren Abruf, um die Problemlösung zu beschleunigen. | Bessere Chatbots zur Automatisierung einfacher Interaktionen und besserer Information der Mitarbeiter, wenn menschliche Hilfe benötigt wird. | Accountaktualisierungen und Informationen in Echtzeit für Kunden und Servicemitarbeiter. |
Bessere fundierte Entscheidungsfindung | Schnellere Erkenntnisse durch die Vermittlung prädiktiver Analysen wie Szenariomodellierung und Risikobewertung. | Personalisierte Empfehlungen und umsetzbare Strategien für Entscheidungsträger. | Schnellere Generierung von Analysen aus weiterreichenden Daten als menschliche Analysten oder ältere Technologien. |
Schnellere Produkteinführungen | Erstellen von Prototypen und „Minimal Viable Products“ (MVPs). | Test und Fehlerbehebung von bestehenden Projekten, um Verbesserungen zu finden. | Erhöhen der Geschwindigkeit, mit der Anpassungen umgesetzt werden können. |
Jeder, der generative KI-Tools für Bildung und/oder Forschung verwendet hat, hat wahrscheinlich seine bekannteste Einschränkung erlebt: Sie erfinden Dinge. Da das Modell nur das nächste Wort vorhersagt, kann es aus seinen Trainingsdaten extrapolieren, um Unwahrheiten mit ebenso großer Aussagekraft wie die Wahrheiten zu erklären, die es berichtet. Auf genau das beziehen sich KI-Forscher, wenn sie von Halluzination sprechen, und es ist einer der Hauptgründe, warum die aktuelle Generation generativer KI-Tools menschliche Mitarbeiter erfordert. Unternehmen müssen bei der Implementierung generativer KI darauf achten, sich auf diese und andere Einschränkungen vorzubereiten und diese zu meistern. Wenn ein Unternehmen unrealistische Erwartungen stellt oder die Technologie nicht effektiv verwaltet, können die Folgen die Performance und den Ruf des Unternehmens schädigen.
Generative KI hat auf beiden Seiten des Risikospektrums extreme Reaktionen hervorgerufen. Einige Gruppen befürchten, dass es zum Aussterben der Menschheit führen wird, während andere darauf bestehen, dass es die Welt retten wird. Diese Extreme liegen außerhalb des Rahmens dieses Artikels. Allerdings gibt es hier einige wichtige Risiken und Bedenken, die Unternehmensleiter, die KI-Technologie implementieren, verstehen müssen, damit sie Maßnahmen ergreifen können, um mögliche negative Folgen zu mindern.
Vertrauen und Zuverlässigkeit: Generative KI-Modelle machen ungenaue Behauptungen und halluzinieren manchmal völlig erfundene Informationen. In ähnlicher Weise werden viele Modelle mit älteren Daten trainiert und berücksichtigen in der Regel nur Informationen, die bis zu einem bestimmten Datum veröffentlicht wurden, sodass die Anpassung an den Markt mit Informationen des letzten Jahres möglicherweise nicht mehr relevant oder nützlich ist. Beispielsweise stellen Unternehmen, die ihre Lieferkettenabläufe verbessern möchten, möglicherweise fest, dass die Vorschläge ihrer Modelle veraltet und in der dynamischen Weltwirtschaft nicht relevant sind. Nutzer müssen alle Ansprüche überprüfen, bevor sie auf sie reagieren, um Richtigkeit und Relevanz sicherzustellen.
Datenschutz/geistiges Eigentum: Generative KI-Modelle lernen häufig weiterhin aus Informationseingaben, die im Rahmen von Eingabeaufforderungen bereitgestellt werden. Unternehmen, insbesondere solche, die sensible personenbezogene Daten ihrer Kunden erfassen, wie etwa Arztpraxen, müssen darauf achten, geschütztes geistiges Eigentum oder vertrauliche Daten nicht preiszugeben. Wenn das Modell auf diese Informationen zugreift, kann es eventuell sein, dass die Expositionswahrscheinlichkeit steigt.
Aufgeladenes Social Engineering: Bedrohungsakteure nutzen bereits generative KI, um Social Engineering und andere Cyberangriffe besser zu personalisieren, indem sie diese authentischer erscheinen lassen.
„Schon jetzt ist es sehr schwer, zu unterscheiden, ob man online mit einem Bot oder einem Menschen spricht“, sagte Baig, KI- und Sicherheitsingenieur von Duolingo. „Es ist für Kriminelle, die Geld verdienen wollen, viel einfacher geworden, eine Menge Inhalte zu generieren, die Menschen täuschen können.“
Abnahme der Ausgabequalität und Originalität: Generative KI macht die Erstellung von Produkten und Inhalten möglicherweise einfacher und schneller, garantiert jedoch kein qualitativ hochwertigeres Ergebnis. Sich auf KI-Modelle ohne nennenswerte menschliche Zusammenarbeit zu verlassen, kann dazu führen, dass Produkte standardisiert werden und es ihnen an Kreativität mangelt.
Voreingenommenheit: Wenn ein generatives KI-Modell auf voreingenommenen Daten trainiert wird, die von Perspektivenlücken bis hin zu schädlichen und voreingenommenen Inhalten reichen, werden sich diese Voreingenommenheiten in der Ausgabe widerspiegeln. Wenn ein Unternehmen beispielsweise in der Vergangenheit nur einen Mitarbeitertyp eingestellt hat, kann das Modell neue Bewerber mit dem „idealen“ Einstellungstyp verknüpfen und qualifizierte Kandidaten ausschließen, weil sie nicht in das Muster passen, selbst wenn das Unternehmen beabsichtigte, dieses Muster zu verwerfen.
Schatten-KI: Der Einsatz generativer KI durch Mitarbeiter ohne offizielle Genehmigung oder Wissen der Organisation kann dazu führen, dass ein Unternehmen versehentlich falsche Informationen veröffentlicht oder das Urheberrecht einer anderen Organisation verletzt.
Modellkollaps: KI-Forscher haben ein Phänomen namens Modellkollaps identifiziert, das generative KI-Modelle mit der Zeit weniger nützlich machen könnte. Mit zunehmender Verbreitung von KI-generierten Inhalten „vergessen“ Modelle, die auf diesen synthetischen Daten trainiert werden – die unweigerlich Fehler enthalten – irgendwann die Eigenschaften der von Menschen generierten Daten, auf denen sie ursprünglich trainiert wurden. Dieses Problem könnte einen Bruchpunkt erreichen, wenn das Internet immer mehr mit KI-Inhalten gefüllt wird und ein Feedbackloop entsteht, der das Modell beeinträchtigt.
KI-Regulierung: Da generative KI so neu ist, gibt es nicht viele anwendbare Vorschriften. Dennoch untersuchen Regierungen auf der ganzen Welt, wie sie dies regulieren können. Einige Länder, wie beispielsweise China, haben bereits Regulierungsmaßnahmen vorgeschlagen, wie Modelle trainiert werden können und was sie produzieren dürfen. Da immer mehr Länder Vorschriften erlassen, müssen Unternehmen, insbesondere internationale Unternehmen, neue und sich ändernde Gesetze überwachen. Nur so können sie die Einhaltung sicherstellen und Bußgelder bzw. strafrechtliche Anklagen wegen Missbrauch der Technologie vermeiden.
Der Aufstieg der Big-Data-Analyse vor mehr als einem Jahrzehnt warf neuartige ethische Fragen und Debatten auf, da neue Tools ermöglichten, auf private oder sensible Informationen über Personen zu schließen, die diese nicht preisgegeben hatten und auch nicht preisgeben wollten. Wie sollten Unternehmen mit der Fähigkeit umgehen, über solche Informationen zu verfügen?
Angesichts ihres Potenzials, die Datenanalyse zu beschleunigen, wirft generative KI neue ethische Fragen auf und lässt ältere Fragen wieder auftauchen.
Unternehmen aller Größen und Branchen, vom US-Militär bis hin zu Coca-Cola, experimentieren ausgiebig mit generativer KI. Hier finden Sie eine kleine Auswahl an Beispielen, die das umfassende Potenzial und die schnelle Akzeptanz der Technologie veranschaulichen.
Snap Inc., das Unternehmen hinter Snapchat, hat einen Chatbot namens „My AI“ auf den Markt gebracht, der auf einer Version der GPT-Technologie von OpenAI basiert. „My AI“ ist an den Ton und Stil von Snapchat angepasst und so programmiert, dass es freundlich und sympathisch ist. Außerdem können Nutzer das Erscheinungsbild mit Avataren, Hintergrundbildern und Namen anpassen und damit einzeln oder mit mehreren Nutzern chatten und so die typische Art und Weise simulieren, wie Snapchat-Nutzer mit ihren Freunden kommunizieren. Nutzer können persönliche Beratung anfordern oder lockere Gespräche über Themen wie Essen, Hobbys oder Musik führen – der Bot kann sogar Witze erzählen. Snapchat richtet „My AI“ so aus, dass Nutzer Funktionen der App erkunden können, beispielsweise Augmented-Reality-Objektive, und Informationen erhalten, für die sie sich normalerweise nicht an Snapchat wenden würden, beispielsweise empfohlene Orte auf einer lokalen Karte.
Bloomberg kündigte BloombergGPT an, einen Chatbot, der etwa zur Hälfte auf allgemeine Daten über die Welt und zur Hälfte auf proprietäre Bloomberg-Daten oder bereinigte Finanzdaten trainiert wird. Er kann einfache Aufgaben ausführen, wie z. B. das Schreiben guter Artikelüberschriften und Angemessenheitstricks, wie das Umwandeln von einfachen englischen Prompts in Bloomberg Query Language, die von den Datenterminals des Unternehmens benötigt werden und in vielen Finanzunternehmen unverzichtbar sind.
Oracle hat sich mit dem KI-Entwickler Cohere zusammengetan, um Unternehmen beim Aufbau interner Modelle zu unterstützen, die auf private Unternehmensdaten abgestimmt sind. Ziel ist es, den Einsatz spezialisierter unternehmensspezifischer generativer KI-Tools zu verbreiten.
„Cohere und Oracle arbeiten zusammen, um es Unternehmenskunden sehr, sehr einfach zu machen, ihre eigenen spezialisierten großen Sprachmodelle zu trainieren und gleichzeitig die Privatsphäre ihrer Trainingsdaten zu schützen“, sagte Ellison von Oracle gegenüber Finanzanalysten während des Earnings Calls im Juni 2023. Oracle plant, generative KI-Services in Geschäftsplattformen einzubetten, um die Produktivität und Effizienz in den bestehenden Prozessen eines Unternehmens zu steigern. So können viele Unternehmen darauf verzichten, ihre eigenen Modelle von Grund auf zu entwickeln und zu trainieren. Zu diesem Zweck kündigte das Unternehmen kürzlich auch die Integration generativer KI-Funktionen in seine Personalmanagementsoftware, Oracle Fusion Cloud Human Capital Management (HCM), an.
Weitere Beispiele:
ChatGPT ist das Tool, das zu einer viralen Sensation wurde, jedoch gibt es für jede Modalität viele generative KI-Tools. Nur zum Schreiben gibt es beispielsweise Jasper, Lex, AI-Writer, Writer und viele andere. Bei der Bilderzeugung scheinen Midjourney, Stable Diffusion und Dall-E heute am beliebtesten zu sein.
Und zu den Dutzenden Musikgeneratoren gehören AIVA, Soundful, Boomy, Amper, Dadabots und MuseNet. Obwohl bekannt ist, dass Softwareprogrammierer mit ChatGPT zusammenarbeiten, gibt es auch zahlreiche spezialisierte Tools zur Codegenerierung, darunter Codex, codeStarter, Tabnine, PolyCoder, Cogram und CodeT5.
Es überrascht vielleicht, dass der erste Schritt auf dem Weg zu den heute verwendeten generativen KI-Modellen im Jahr 1943 erfolgte, im selben Jahr, in dem der erste elektrisch programmierbare Computer vorgestellt wurde – der Colossus, der damals von Großbritannien zur Entschlüsselung von Nachrichten im Zweiten Weltkrieg eingesetzt wurde. Der KI-Schritt war eine Forschungsarbeit mit dem Titel „A Logical Calculus of Ideas Immanent in Nervous Activity“ von Warren McCulloch, einem Psychiater und Professor am University of Illinois College of Medicine, und Walter Pitts, ein autodidaktischer Computer-Neurowissenschaftler.
Pitts, ein offensichtliches Wunderkind der Mathematik, lief im Alter von 15 Jahren von zu Hause weg und war obdachlos, als er McCulloch traf. Dieser nahm Pitts auf, um mit seiner Familie zu leben. Der einzige Abschluss von Pitts war ein Associate of Arts, der von der University of Chicago verliehen wurde, nachdem er die bahnbrechende Arbeit veröffentlicht hatte, die die grundlegende Mathematik festlegte, nach der ein künstliches Neuron „entscheidet“, ob es eine Eins oder eine Null ausgibt.
Der zweite Schritt verlagert sich nach Nordosten nach Buffalo, NY, und zu einem Forschungspsychologen des Cornell Aeronautical Laboratory namens Frank Rosenblatt. Unter einem Zuschuss des Office of Naval Research innerhalb des United States Department of the Navy im Juli 1957 im Rahmen von Cornells Projekt PARA (Perceiving and Recognizing Automaton) baute Rosenblatt auf McCulloch und Pitts Mathematik auf, um das Perzeptron, ein neuronales Netzwerk, mit einer einzigen „versteckten“ Ebene zwischen der Eingabe- und der Ausgabeebene zu entwickeln. Vor dem Bau des Mark I Perceptron, das heute in der Smithsonian Institution steht, simulierten es Rosenblatt und die Marine im Juli 1958 für eine öffentliche Demonstration auf einem IBM 704-Großrechner. Jedoch war das Perzeptron ein so einfaches neuronales Netzwerk, dass es Kritik vom Informatiker Marvin Minsky vom Massachusetts Institute of Technology, Mitbegründer des KI-Labors des MIT, auf sich zog. Berichten zufolge diskutierten Minsky und Rosenblatt in öffentlichen Foren über die langfristigen Aussichten des Perzeptrons, was dazu führte, dass die KI-Gemeinschaft von den 1960er bis 1980er-Jahren die Forschung zu neuronalen Netzen weitgehend aufgab.
Diese Zeit wurde als der „KI-Winter“ bezeichnet.
Die Landschaft für die neuronale Netzforschung entstand in den 1980er-Jahren dank der Beiträge mehrerer Forscher, darunter Geoffrey Hinton, Yoshua Bengio, Yann LeCun und insbesondere Paul Werbos, dessen erste Arbeit das Perzeptron wiederentdeckte. Ihre gemeinsame Arbeit demonstrierte die Machbarkeit großer, mehrschichtiger neuronaler Netze und zeigte, wie solche Netze durch Kreditzuweisung über einen Backpropagation-Algorithmus aus ihren richtigen und falschen Antworten lernen können. Genau zu diesem Zeitpunkt entstanden RNNs und CNNs. Aber die Einschränkungen dieser frühen neuronalen Netze führten in Verbindung mit überzogenen frühen Erwartungen, die aufgrund dieser Einschränkungen und des damaligen Zustands der Rechenleistung nicht erfüllt werden konnten, in den 1990er und frühen 2000er-Jahren zu einem zweiten „KI-Winter“.
Dieses Mal blieben jedoch viele Neuronale-Netz-Forscher auf Kurs, darunter Hinton, Bengio und LeCun. Das Trio, manchmal auch „die Paten der KI“ genannt, teilte sich für ihre Arbeit in den 1980er-Jahren, ihre spätere Beharrlichkeit und ihre fortlaufenden Beiträge den Turing Award 2018. Mitte 2010 entstanden rasch neue und vielfältige neuronale Netzvarianten, wie im Abschnitt „Generative KI-Modelle“ beschrieben.
Welche Auswirkungen generative KI auf Unternehmen und die Arbeitsweise der Menschen hat, bleibt abzuwarten. Aber so viel ist klar: Es fließen enorme Investitionen in generative KI – in verschiedenen Dimensionen menschlicher Bemühungen. Risikokapitalgeber, etablierte Konzerne und praktisch alle Unternehmen dazwischen investieren mit rasender Geschwindigkeit in generative KI-Startups. Die universelle „Magie“ von LLMs ist die unheimliche Fähigkeit, die menschliche Interaktion mit Big Data zu vermitteln und Menschen dabei zu helfen, Informationen zu verstehen, indem sie sie einfach, klar und erstaunlich schnell erklären. Dies deutet darauf hin, dass generative KI in eine Vielzahl bestehender Anwendungen eingebettet wird und die Erfindung einer zweiten Welle neuer Anwendungen zur Folge hat.
Gartner prognostiziert beispielsweise, dass bis 2024 40 % der Unternehmensanwendungen über integrierte dialogorientierte KI verfügen, 30 % der Unternehmen bis 2025 KI-gestützte Entwicklungs- und Teststrategien einsetzen und bis 2026 mehr als 100 Millionen Mitarbeiter mit „Roboterkollegen“ zusammenarbeiten werden.
Natürlich kann es sein, dass die Risiken und Grenzen der generativen KI diese Dampfwalze zum Entgleisen bringen. Die Feinabstimmung generativer Modelle, um die Nuancen dessen zu erfahren, was ein Unternehmen einzigartig macht, könnte sich als zu schwierig erweisen. Darüber hinaus könnte die Ausführung solcher rechenintensiver Modelle auch zu kostspielig sein und eine versehentliche Preisgabe von Geschäftsgeheimnissen könnte Unternehmen abschrecken.
Oder es trifft alles ein, aber in einem langsameren Tempo, als viele jetzt erwarten. Zur Erinnerung: Das Versprechen des Internets wurde schließlich wahr. Jedoch dauerte es ein Jahrzehnt länger, als die erste Generation von Enthusiasten erwartet hatte. In dieser Zeit wurde die notwendige Infrastruktur aufgebaut bzw. erfunden und die Menschen passten ihr Verhalten an die Möglichkeiten des neuen Mediums an. Generative KI ist in vielerlei Hinsicht ein weiteres neues Medium.
Influencer denken ausgiebig über die Zukunft der generativen KI in der Wirtschaft nach.
„Es könnte bedeuten, dass wir Unternehmen in Zukunft anders aufbauen“, sagt Sean Ammirati, ein Risikokapitalgeber, der außerdem angesehener Professor für Unternehmertum an der Tepper School of Business der Carnegie Mellon University und Mitbegründer des Corporate Startup Lab der CMU ist. So wie „Digital Native“-Unternehmen nach dem Aufkommen des Internets einen Vorteil hatten, geht Ammirati davon aus, dass zukünftige Unternehmen, die von Grund auf auf generativer KI-gestützter Automatisierung basieren, in der Lage sein werden, die Führung zu übernehmen.
„Bei diesen Unternehmen wird die Automatisierung an erster Stelle stehen, sodass sie nicht neu lernen müssen, wie sie aufhören können, Dinge manuell zu erledigen, die sie lieber automatisieren sollten“, fügte er hinzu. „Sie könnten eine ganz andere Art von Unternehmen haben.“
Oracle arbeitet nicht nur seit Langem mit Funktionen der künstlichen Intelligenz und integriert diese in seine Produkte, sondern steht auch an der Spitze der Entwicklung und Aktivitäten generativer KI. Oracle Cloud Infrastructure wird von führenden generativen KI-Unternehmen genutzt. Diese Cloud der nächsten Generation kann Unternehmen die perfekte Plattform bieten, um spezielle generative KI-Modelle speziell für ihre Organisationen und einzelne Geschäftsbereiche zu erstellen und bereitzustellen. Ellison von Oracle erklärt: „Alle Cloud-Data-Center von Oracle verfügen über ein RDMA-Netzwerk (Remote Direct Memory Access) mit hoher Bandbreite und geringer Latenz, das perfekt für den Aufbau der großen GPU-Cluster optimiert ist, die zum Trainieren von generativen großen Sprachmodellen verwendet werden.“ Die extrem hohe Leistung und die damit verbundenen Kosteneinsparungen beim Ausführen generativer KI-Workloads in unserer Gen-2-Cloud haben Oracle zur ersten Wahl unter den führenden KI-Entwicklungsunternehmen gemacht.“
Die Partnerschaft von Oracle mit Cohere hat zu einer Reihe neuer generativer KI-Cloud-Serviceangebote geführt. „Dieser neue Service schützt die Privatsphäre der Trainingsdaten unserer Unternehmenskunden und ermöglicht diesen Kunden, ihre eigenen privaten Daten sicher zu verwenden, sodass sie ihre eigenen privaten, spezialisierten großen Sprachmodelle trainieren können“, fügte Ellison hinzu.
Die Geschichte der generativen KI begann vor 80 Jahren mit der Mathematik eines jugendlichen Ausreißers und wurde Ende letzten Jahres mit der Veröffentlichung von ChatGPT zu einer viralen Sensation. Die Innovation in der generativen KI beschleunigt sich rasant, da Unternehmen aller Größen und Branchen mit ihren Fähigkeiten experimentieren und in diese investieren. Jedoch birgt die generative KI neben ihrer Fähigkeit, die Arbeit und das Leben erheblich zu verbessern, auch große Risiken. Glaubt man den Schwarzmalern, dann reichen diese vom Verlust des Arbeitsplatzes bis hin zum potenziellen Aussterben der Menschheit. Was wir sicher wissen, ist, dass der Geist aus der Flasche ist – und er nicht wieder in diese zurückgeht.
Oracle bietet eine moderne Datenplattform und eine kostengünstige, leistungsstarke KI-Infrastruktur. Weitere Faktoren wie leistungsstarke Modelle, unübertroffene Datensicherheit und eingebettete KI-Services zeigen, warum das KI-Angebot von Oracle wirklich für Unternehmen konzipiert ist.
Was versteht man unter generativer KI-Technologie?
Die generative KI-Technologie basiert auf Softwarearchitekturen neuronaler Netzwerke, die die Funktionsweise des menschlichen Gehirns nachahmen. Diese neuronalen Netze werden trainiert, indem riesige Datenmengen in relativ kleinen Stichproben eingegeben werden und die KI dann aufgefordert wird, einfache Vorhersagen zu treffen, wie beispielsweise das nächste Wort in einer Sequenz oder die richtige Reihenfolge einer Satzsequenz. Das neuronale Netz erhält Anerkennung oder Schuld für richtige und falsche Antworten und lernt daher aus dem Prozess, bis es in der Lage ist, gute Vorhersagen zu treffen. Letztlich greift die Technologie auf ihre Trainingsdaten und ihr Lernen zurück, um auf Fragen und andere Aufforderungen menschenähnlich zu reagieren.
Was ist ein Beispiel für generative KI?
Das bekannteste Beispiel für generative KI ist heute ChatGPT, das in der Lage ist, menschenähnliche Gespräche zu führen und zu einer Vielzahl von Themen zu schreiben. Weitere Beispiele sind Midjourney und Dall-E, die Bilder erstellen, sowie eine Vielzahl anderer Tools, die Text, Bilder, Videos und Ton erzeugen können.
Was ist der Unterschied zwischen „generativer KI“ und „herkömmlicher KI“?
Es ist wichtig zu beachten, dass generative KI keine grundlegend andere Technologie als die herkömmliche KI ist – sie existieren an verschiedenen Punkten eines Spektrums. Herkömmliche KI-Systeme übernehmen in der Regel eine bestimmte Aufgabe, beispielsweise die Erkennung von Kreditkartenbetrug. Generative KI ist in der Regel umfassender und kann neue Inhalte erstellen. Dies liegt zum Teil daran, dass generative KI-Tools auf größeren und vielfältigeren Datensätzen trainiert werden als die herkömmliche KI. Darüber hinaus wird herkömmliche KI in der Regel mithilfe überwachter Lerntechniken trainiert, während generative KI mithilfe unüberwachten Lernens trainiert wird.
Welche Gefahren birgt die generative KI?
In der Gesellschaft wird derzeit intensiv über die möglichen Risiken generativer KI debattiert. Extremisten auf den entgegengesetzten Seiten der Debatte sagten, dass die Technologie auf der einen Seite letztendlich zum Aussterben der Menschheit führen oder auf der anderen Seite die Welt retten könnte. Wahrscheinlicher ist jedoch, dass KI zum Abbau vieler bestehender Arbeitsplätze führen wird. Unternehmen sollten sich Gedanken darüber machen, wie generative KI Veränderungen in Arbeitsabläufen und Jobrollen vorantreiben wird, sowie über die Möglichkeit, dass sie unbeabsichtigt private oder sensible Informationen preisgibt bzw. Urheberrechte verletzt.
Wofür ist generative KI gut?
Generative KI kann hervorragend in Zusammenarbeit mit menschlichen Mitarbeitern eingesetzt werden, um beispielsweise beim Brainstorming neuer Ideen und der Schulung von Mitarbeitern in angrenzenden Disziplinen zu helfen. Außerdem ist die Technologie ein großartiges Tool, um Menschen dabei zu helfen, unstrukturierte Daten schneller zu analysieren. Im Allgemeinen kann sie Unternehmen zugutekommen, indem sie die Produktivität steigert, die Kosten senkt, die Kundenzufriedenheit erhöht, bessere Informationen für die Entscheidungsfindung bereitstellt und das Tempo der Produktentwicklung beschleunigt.
Was kann generative KI nicht?
Generative KI kann keine wirklich neuen Ideen haben, die nicht zuvor in ihren Trainingsdaten zum Ausdruck gebracht oder zumindest aus diesen Daten extrapoliert wurden. Außerdem sollte sie nicht alleinstehend eingesetzt werden. Generative KI erfordert menschliche Aufsicht und entfaltet ihre beste Wirkung nur in der Zusammenarbeit zwischen Mensch und KI.
Welche Branchen nutzen generative KI?
Aufgrund ihrer Breite dürfte generative KI in nahezu jeder Branche von Nutzen sein.
Wie wird sich generative KI auf die Zukunft der Arbeit auswirken?
Generative KI dürfte einen großen Einfluss auf die Wissensarbeit haben, also auf Aktivitäten, bei denen Menschen zusammenarbeiten und/oder Geschäftsentscheidungen treffen. Zumindest müssen sich die Rollen der Wissensarbeiter an die Zusammenarbeit mit generativen KI-Tools anpassen, wobei einige Arbeitsplätze wegfallen werden. Die Geschichte zeigt jedoch, dass ein technologischer Wandel, wie er von der generativen KI erwartet wird, immer mehr Arbeitsplätze schafft als zerstört.