Czym jest generatywna sztuczna inteligencja? Jak działa?

Greg Pavlik, starszy wiceprezes, Oracle Cloud Infrastructure | 11 lutego 2025 r.

Generatywna sztuczna inteligencja, w przeciwieństwie do swoich poprzedników, może tworzyć nowe treści poprzez ekstrapolację danych, na podstawie których została wytrenowana. Jej niezwykła zdolność do tworzenia pisma, obrazów, dźwięku i filmów podobnych do tych tworzonych przez człowieka zawładnęła wyobraźnią świata od momentu, gdy jesienią 2022 r. udostępniono publicznie pierwszą generatywną sztuczną inteligencję w postaci czatbota dla konsumentów. Generatywna sztuczna inteligencja obsługuje obecnie szereg konsumenckich i profesjonalnych aplikacji i usług, które pomagają zaoszczędzić czas, pieniądze i nakłady pracy.

Każda akcja wywołuje jednak równą i przeciwną reakcję. Wraz z niezwykłymi perspektywami dla produktywności generatywna sztuczna inteligencja wiąże się również z nowymi potencjalnymi zagrożeniami dla przedsiębiorstw, takimi jak brak dokładności, naruszenia prywatności i własności intelektualnej oraz zakłócenia gospodarcze i społeczne na dużą skalę. Na przykład płynące z zastosowania generatywnej sztucznej inteligencji korzyści w zakresie produktywności najprawdopodobniej nie zostaną zrealizowane bez znacznych nakładów na przekwalifikowanie pracowników, co nawet jeśli dojdzie do skutku, bez wątpienia doprowadzi do licznych zwolnień. Z tego względu organy administracji rządowej na całym świecie, a nawet niektórzy przedstawiciele branży technologicznej, opowiadają się za szybkim przyjęciem przepisów regulujących kwestie dotyczące sztucznej inteligencji.

W tym artykule przedstawiono szczegółowe informacje na temat korzyści i zagrożeń związanych z generatywną sztuczną inteligencją. Opisano, jak sztuczna inteligencja działa, jakie są jej obecne i najbliższe zastosowania, ograniczenia, potencjalne korzyści i zagrożenia dla przedsiębiorstw, najlepsze praktyki użycia oraz perspektywy na przyszłość.

Webinarium: Najważniejsze trendy w dziedzinie sztucznej inteligencji definiujące rok 2025

Poznaj najważniejsze trendy w dziedzinie sztucznej inteligencji, które należy obserwować od 2025 r.: generatywna sztuczna inteligencja, agenci AI itp.

Czym jest generatywna sztuczna inteligencja?

Generatywna sztuczna inteligencja (Generative AI, GAI) to nazwa nadana podzbiorowi opartej na mechanizmach sztucznej inteligencji technologii samouczenia się maszyn, w ramach których ostatnio rozwinięto zdolność do szybkiego tworzenia treści w odpowiedzi na prompty, czyli polecenia tekstowe, które mogą być zarówno krótkie i proste, jak i bardzo długie i złożone. Różne narzędzia generatywnej sztucznej inteligencji mogą tworzyć nowe treści dźwiękowe, graficzne i filmowe, ale to właśnie zorientowana na tekst konwersacyjna sztuczna inteligencja rozpala ludzką wyobraźnię. W rezultacie ludzie mogą komunikować się z modelami generatywnej sztucznej inteligencji oraz przy ich pomocy się uczyć w podobny sposób, jak robiliby to z innymi ludźmi.

Generatywna sztuczna inteligencja szturmem podbiła świat w kilka miesięcy po tym, jak 30 listopada 2022 r. na rynku pojawił się ChatGPT — czatbot oparty na modelu sieci neuronowej OpenAI GPT-3.5. GPT to skrót od słów „generative pretrained transformer” (generatywny, wstępnie wytrenowany transformer), które opisują przede wszystkim podstawową architekturę sieci neuronowej tego modelu.

Historia czatbotów konwersacyjnych jest bardzo długa i zaczyna się od zbudowanego w połowie lat 60. przez Massachusetts Institute of Technology czatbota ELIZA. Większość wcześniejszych czatbotów, w tym ELIZA, była jednak w całości lub w dużej części oparta na regułach, przez co brakowało im kontekstowego zrozumienia. Ich odpowiedzi były ograniczone do zestawu wcześniej zdefiniowanych reguł i szablonów. Powstające obecnie modele generatywnej sztucznej inteligencji nie mają natomiast takich wcześniej zdefiniowanych reguł lub szablonów. Używając przenośni, są to prymitywne, puste mózgi (sieci neuronowe), które są wystawione na oddziaływanie świata poprzez trening na rzeczywistych danych. Następnie samodzielnie rozwijają inteligencję, czyli model działania owego świata, którą następnie wykorzystują do generowania nowych treści w odpowiedzi na prompty. Nawet najlepsi specjaliści ds. sztucznej inteligencji nie wiedzą dokładnie, w jaki sposób ten proces się odbywa, ponieważ algorytmy są samodzielnie opracowywane i dostosowywane w miarę treningu całego systemu.

Małe i duże przedsiębiorstwa powinny być zachwycone potencjałem generatywnej sztucznej inteligencji, która może przynieść rozmaite korzyści wynikające z automatyzacji procesów technicznych, a także automatyzacji wykorzystania wiedzy i wysiłku intelektualnego, które to elementy do tej pory w dużej mierze automatyzacji się opierały. Narzędzia generatywnej sztucznej inteligencji zmieniają sposób oceny automatyzacji pracy opartej na wiedzy. Zdolność tych narzędzi do tworzenia (w odpowiedzi na prompty w języku angielskim) tekstów, obrazów oraz treści dźwiękowych i filmowych przypominających stworzone przez człowieka oznacza, że narzędzia te mogą być używane przez ludzi do generowania treści, które reprezentują praktyczną pracę.

„Oracle Cloud trenuje dziesiątki modeli sztucznej inteligencji i osadza setki agentów AI w aplikacjach chmurowych” — powiedział Larry Ellison, prezes i dyrektor ds. technologii w Oracle, podczas spotkania na temat wyników finansowych Oracle w grudniu 2024 r.

„Agenty sztucznej inteligencji Oracle automatyzują procesy tworzenia leków, analizy obrazów i genomu na potrzeby diagnostyki nowotworów, aktualizacji audio elektronicznej dokumentacji medycznej na potrzeby opieki nad pacjentem, analizy obrazów satelitarnych w celu przewidywania i zwiększania produkcji rolnej, wykrywania przypadków oszustw i prania pieniędzy, wykorzystywania dwuskładnikowych biometrycznych metod logowania oraz wykrywania broni w szkołach w czasie rzeczywistym za pomocą technik wideo”.

Film: Czym jest generatywna sztuczna inteligencja?


Generatywna sztuczna inteligencja a sztuczna inteligencja

Sztuczna inteligencja to rozległa dziedzina informatyki, której generatywna sztuczna inteligencja jest jedynie niewielką częścią, przynajmniej w chwili obecnej. Rzecz jasna, generatywna sztuczna inteligencja ma wiele cech wspólnych z tradycyjną sztuczną inteligencją. Istnieją jednak także pewne wyraźne różnice.

  • Cechy wspólne. Oba modele zależą od dużej ilości danych niezbędnych do treningu i podejmowania decyzji (choć ilości danych treningowych dla generatywnej sztucznej inteligencji mogą być o rzędy wielkości większe). Oba modele uczą się wzorców na podstawie danych i wykorzystują tę „wiedzę” do dokonywania przewidywań i dostosowywania własnego zachowania. Opcjonalnie, oba mogą być z czasem ulepszane poprzez dostosowanie ich parametrów na podstawie informacji zwrotnych lub nowych informacji.
  • Różnice. Tradycyjne systemy sztucznej inteligencji są zazwyczaj zaprojektowane do wykonywania określonych zadań lepiej lub taniej niż człowiek, na przykład do wykrywania oszustw na kartach kredytowych, określania kierunków jazdy lub (prawdopodobnie wkrótce) kierowania samochodem. Generatywna sztuczna inteligencja ma natomiast zastosowanie szersze, ponieważ tworzy nowe i oryginalne treści, które przypominają dane treningowe, ale nie można ich wśród nich znaleźć. Ponadto tradycyjne systemy sztucznej inteligencji, takie jak systemy samouczenia się maszyn, są trenowane głównie na danych właściwych dla ich docelowej funkcji, podczas gdy modele generatywnej sztucznej inteligencji są trenowane na dużych, zróżnicowanych zestawach danych (a następnie, czasami, dostrajane za pomocą znacznie mniejszych ilości danych powiązanych z określoną funkcją). Tradycyjne systemy sztucznej inteligencji są wreszcie prawie zawsze trenowane na oznaczonych/skategoryzowanych danych przy użyciu nadzorowanych technik uczenia się. Tymczasem systemy generatywnej sztucznej inteligencji muszą być zawsze trenowane, przynajmniej początkowo, przy użyciu nienadzorowanych technik uczenia się (gdzie dane są nieoznaczone, a oprogramowanie sztucznej inteligencji nie otrzymuje żadnych wyraźnych wskazówek).

Kolejną wartą odnotowania różnicą jest to, że trening podstawowych modeli generatywnej sztucznej inteligencji jest „nieprzyzwoicie drogi”, żeby zacytować jednego z badaczy sztucznej inteligencji. Tylko na sprzęt potrzebny do rozpoczęcia działalności i na odpowiednie usługi chmurowe potrzeba na dobry początek 100 mln USD, ponieważ to właśnie w chmurze działa większość mechanizmów sztucznej inteligencji. Do tego dochodzą koszty związane ze zdobyciem ogromnych ilości danych na potrzeby przetwarzania.

Kluczowe wnioski

  • Generatywna sztuczna inteligencja stała się wiralową sensacją w listopadzie 2022 r. i oczekuje się, że wskutek jej oddziaływania wartość światowej gospodarki będzie rocznie rosła o dodatkowe biliony dolarów amerykańskich.
  • Sztuczna inteligencja jest formą opartego na sieciach neuronowych samouczenia się maszyn wytrenowanego na ogromnych zbiorach danych. W rezultacie może ona tworzyć nowe treści tekstowe, graficzne, filmowe lub dźwiękowe w odpowiedzi na wprowadzane przez użytkowników prompty napisane w języku naturalnym.
  • Badacze rynku przewidują, że technologia ta zapewni impuls gospodarczy wynikający z gwałtownego wzrostu produktywności pracowników merytorycznych, których zadania do tej pory nie poddawały się automatyzacji.
  • Generatywna sztuczna inteligencja wiąże się z ryzykiem i ograniczeniami, z którymi przedsiębiorstwa muszą sobie radzić, takimi jak generowanie błędnych lub fałszywych informacji oraz nieumyślne naruszanie prawa autorskiego.
  • Oczekuje się również, że spowoduje również poważne zmiany w charakterze pracy, w tym możliwą utratę miejsc pracy i restrukturyzację poszczególnych ról.

Charakterystyka generatywnej sztucznej inteligencji

Dla małych i dużych przedsiębiorstw na pozór magiczną obietnicą związaną z generatywną sztuczną inteligencją jest to, że może przynieść korzyści wynikające z automatyzacji procesów technicznych, a także automatyzacji wykorzystania wiedzy i wysiłku intelektualnego. W raporcie firmy McKinsey określono to mianem „automatyzacji działań obejmujących podejmowanie decyzji i współpracę, które wcześniej miały najniższy potencjał takiej automatyzacji”.

Jak do tej pory najefektywniej automatyzowano rutynowe lub powtarzalne zadania, w przypadku których decyzje były już znane lub można je było określić z wysokim prawdopodobieństwem na podstawie określonych, dobrze rozumianych zasad. Miało to miejsce na przykład w branży produkcji przemysłowej w odniesieniu do precyzyjnie powtarzających się czynności na liniach montażowych lub w księgowości w odniesieniu do ustalonych zasad przyjętych przez stowarzyszenia branżowe. Generatywna sztuczna inteligencja ma jednak potencjał do wykonywania znacznie bardziej skomplikowanej pracy poznawczej. W skrajnym przykładzie może pomagać w formułowaniu strategii organizacji, odpowiadając na zapytania menedżerów dotyczące alternatywnych pomysłów i scenariuszy działania w dynamicznie zmieniającym się otoczeniu biznesowym.

W swoim raporcie firma McKinsey oceniła 63 zastosowania w ramach 16 funkcji biznesowych i doszła do wniosku, że 75% z bilionów dolarów potencjalnej wartości, która może zostać uzyskana dzięki generatywnej sztucznej inteligencji, będzie pochodzić z podzbioru zastosowań obejmujących zaledwie cztery z tych funkcji: obsługę klienta, marketing i sprzedaż, inżynierię oprogramowania oraz badania i rozwój. Perspektywy wzrostu przychodów w poszczególnych branżach rozkładały się bardziej równomiernie, choć nie zabrakło wyjątków. Na szczycie listy pod względem procentowego wzrostu przychodów znalazła się branża zaawansowanych technologii, która wyprzedziła bankowość, branże farmaceutyczną i produktów medycznych, edukację, telekomunikację i opiekę zdrowotną.

Przeprowadzona niezależnie analiza firmy Gartner koreluje z przewidywaniami analityków McKinsey. Zdaniem Gartnera do 2025 r. ponad 30% nowych leków i materiałów zostanie odkrytych przy użyciu generatywnej sztucznej inteligencji (w porównaniu z zerem obecnie), a 30% przekazów marketingowych wychodzących od dużych organizacji będzie w 2025 r. generowanych automatycznie (w porównaniu z 2% w 2022 r.). Z przeprowadzonej przez Gartnera ankiety online wynika, że obszarami głównych inwestycji w generatywną sztuczną inteligencję w organizacjach reprezentowanych przez uczestniczących w badaniu 2500 menedżerów były doświadczenia i utrzymanie klienta (obszary te wskazało 38% respondentów).

Tempo zachodzących zmian wynika z faktu, że w przeciwieństwie do tradycyjnej sztucznej inteligencji, która od dziesięcioleci po cichu automatyzuje i usprawnia procesy komercyjne, generatywna sztuczna inteligencja nagle eksplodowała w światowej świadomości dzięki przypominającym ludzkie zdolnościom konwersacyjnym rozwiązania ChatGPT. Rozwiązanie to zwróciło również uwagę i zainteresowanie ludzi na generatywną sztuczną inteligencję w innych rodzajach treści, ponieważ wszyscy użytkownicy wydają się eksperymentować z pisaniem tekstu lub tworzeniem muzyki, obrazów i filmów przy użyciu różnych modeli właściwych dla tych obszarów. Z uwagi na tak liczną grupę organizacji eksperymentujących już z generatywną sztuczną inteligencją, jej wpływ na biznes i społeczeństwo okaże się prawdopodobnie olbrzymi i będzie postępować niezwykle szybko.

Oczywistą wadą jest to, że praca oparta na wiedzy ulegnie zmianie. Charakter poszczególnych ról ulegnie zmianie, czasem znacznej, pracownicy będą zatem musieli zdobywać nowe umiejętności. Część miejsc pracy zostanie zlikwidowana. Z historycznego punktu widzenia duże zmiany technologiczne, takie jak generatywna sztuczna inteligencja, zawsze jednak dodawały w gospodarce więcej miejsc pracy (o wyższej wartości) niż eliminowały. Nie jest to jednak zbyt pocieszające dla osób, których miejsca pracy zostaną zlikwidowane.

Jak działa generatywna sztuczna inteligencja?

Istnieją dwie odpowiedzi na pytanie, jak działają modele generatywnej sztucznej inteligencji. Z empirycznego punktu widzenia szczegółowo wiemy, jak działają, ponieważ to ludzie zaprojektowali różne implementacje sieci neuronowych do robienia dokładnie tego, co robią, iterując te projekty przez dziesięciolecia, aby były coraz lepsze. Deweloperzy sztucznej inteligencji dokładnie wiedzą, w jaki sposób połączone są ze sobą neurony, ponieważ to oni opracowali proces treningu poszczególnych modeli. W praktyce jednak nikt nie wie dokładnie, w jaki sposób działają modele generatywnej sztucznej inteligencji — ot, żenująca prawda.

„Nie wiemy, w jaki sposób sieci neuronowe wykonują swoje zadania twórcze, ponieważ to, co się w nich dzieje, jest zbyt skomplikowane, abyśmy mogli to zrozumieć, przynajmniej na chwilę obecną” — oznajmił Dean Thompson, były dyrektor ds. technologii w różnych startupach zajmujących się sztuczną inteligencją, które na przestrzeni lat zostały przejęte przez takie firmy, jak LinkedIn i Yelp, w których nadal pełni funkcję starszego inżyniera ds. oprogramowania i zajmuje się dużymi modelami językowymi (LLM). Zdolność generatywnej sztucznej inteligencji do tworzenia nowych oryginalnych treści wydaje się wynikać z układu prostszych elementów w ramach tego, co jest znane, czyli jej struktury i treningu. Innymi słowy, nie do końca wiemy, co modele takie jak GPT-3.5 robią wewnętrznie (lub o czym myślą, jeśli ktoś woli stosować taką terminologię). Niektórzy badacze sztucznej inteligencji są przekonani, że wspomniane działanie wewnętrzne poznamy w ciągu najbliższych 5-10 lat; inni z kolei uważają, że być może nigdy nie zostanie ono w pełni zrozumiane.

Poniżej przedstawiono to, co wiemy o działaniu generatywnej sztucznej inteligencji:

  • Zacznij od mózgu. Dobrym punktem wyjścia do zrozumienia modeli generatywnej sztucznej inteligencji jest ludzki mózg, twierdzi Jeff Hawkins w swojej książce „On Intelligence” z 2004 r. Hawkins, specjalista w dziedzinie nauk komputerowych, badacz mózgu i przedsiębiorca, zaprezentował swoją książkę w 2005 r. podczas PC Forum — corocznej konferencji z udziałem czołowych przedstawicieli branży technologicznej, prowadzonej przez inwestorkę technologiczną Esther Dyson. Hawkins postawił hipotezę, że na poziomie neuronów mózg ciągle przewiduje kolejne wydarzenia, a następnie uczy się na podstawie różnic między tymi przewidywaniami a występującą rzeczywistością. Aby poprawić swoją zdolność przewidywania, mózg buduje sobie wewnętrzną reprezentację świata. W jego teorii proces ten jest źródłem ludzkiej inteligencji. Niezależnie od tego, czy wynika to z hipotezy Hawkinsa, czy nie, generatywna sztuczna inteligencja działa dokładnie w ten sposób. Co zaskakujące, zachowuje się tak, jakby była inteligentna.

  • Zbuduj sztuczną sieć neuronową. Wszystkie modele generatywnej sztucznej inteligencji zaczynają się od zbudowania sztucznej sieci neuronowej zakodowanej w oprogramowaniu. Zdaniem Thompsona dobrą wizualną metaforą sieci neuronowej jest wyobrażenie sobie arkusza kalkulacyjnego, ale w trzech wymiarach, ponieważ sztuczne neurony są ułożone warstwami, podobnie jak prawdziwe neurony w mózgu. Badacze sztucznej inteligencji nazywają nawet każdy neuron „komórką”, zauważa Thompson, a każda taka komórka zawiera formułę wiążącą ją z innymi komórkami w sieci. W ten sposób niejako naśladują siłę połączeń między neuronami w prawdziwym mózgu.

    Każda warstwa może mieć dziesiątki, setki lub tysiące sztucznych neuronów, ale sama ich liczba nie jest tym, na czym skupiają się badacze sztucznej inteligencji. Zamiast tego oceniają modele na podstawie liczby połączeń między neuronami. Siła tych połączeń różni się w zależności od współczynników poszczególnych równań komórkowych, które są bardziej ogólnie nazywane „wagami” lub „parametrami”. Gdy na przykład mówi się, że model GPT-3 ma 175 mld parametrów, oznacza to, że chodzi o liczbę wspomnianych wyżej współczynników definiujących połączenie. Najnowsza wersja, GPT-4, ma podobno biliony takich parametrów, choć nie są to jeszcze informacje potwierdzone. Wyróżnić można szereg architektur sieci neuronowych o różnych cechach, które służą do tworzenia określonych rodzajów treści. Na przykład architektura transformerowa wydaje się być najlepsza w przypadku dużych modeli językowych.

  • Wyucz nowy model sieci neuronowej.. Duże modele językowe mają do przetworzenia ogromne ilości tekstu, aby dokonać prostych przewidywań, takich jak następne słowo w sekwencji lub poprawna kolejność zestawu zdań. W praktyce jednak modele sieci neuronowych działają w jednostkach zwanych tokenami, nie: słowami.

    „Typowe słowo może mieć swój własny token, nietypowe słowa z pewnością składałyby się z wielu tokenów, a niektóre tokeny mogą być po prostu pojedynczą spacją, po której następuje „th”, ponieważ ta sekwencja trzech znaków jest tak typowa” — powiedział Thompson. Aby sporządzić każdą prognozę, model wprowadza token do dolnej warstwy określonego stosu sztucznych neuronów. Warstwa ta przetwarza go i przekazuje swoje dane wyjściowe do następnej warstwy, która go przetwarza i przekazuje dalej, i dalej, aż końcowe dane wyjściowe pojawią się na szczycie stosu. Rozmiary stosów mogą się znacznie różnić, ale zazwyczaj chodzi o dziesiątki warstw, a nie tysiące lub miliony.

    Na wczesnych etapach treningu prognozy modelu nie są zbyt dobre. Za każdym razem, gdy model przewiduje token, sprawdza jego poprawność względem danych treningowych. Niezależnie od poprawności wyniku, algorytm „wstecznej propagacji” dostosowuje parametry (czyli współczynniki formuł) w każdej komórce stosu, w której dokonano prognozy. Celem takich dostosowań jest zwiększenie prawdopodobieństwa uzyskania poprawnej prognozy.

    „Dostosowanie następuje również w przypadku poprawnych prognoz, ponieważ taka poprawna prognoza może mieć, powiedzmy, tylko 30% pewności, ale te 30% to najwięcej ze wszystkich innych możliwych prognoz” — wyjaśnił Thompson. „Celem propagacji wstecznej jest zatem zmiana tych 30% w 30,001% lub coś podobnego”.

    Wskutek powtórzenia tego procesu dla bilionów tokenów tekstowych model staje się bardzo dobry w prognozowaniu następnego tokena lub słowa. Po wstępnym treningu modele generatywnej sztucznej inteligencji można dostroić za pomocą nadzorowanej techniki uczenia się, takiej jak uczenie ze wzmocnieniem pochodzącym z informacji zwrotnych od człowieka (RLHF). W metodzie RLHF dane wyjściowe modelu są przekazywane ludzkim recenzentom, którzy dokonują pozytywnej albo negatywnej ich oceny (kciuk w górę albo kciuk w dół) przekazywanej potem z powrotem do modelu. Metoda RLHF została użyta do dostrojenia modelu GPT 3.5 firmy OpenAI, aby pomóc w stworzeniu czatbota ChatGPT, który potem stał się wiralem.

  • Jak jednak model odpowiada na moje pytanie?. To zagadka. Thompson wyjaśnia obecny stan wiedzy na ten temat w następujący sposób: „Po prostu „nie wiemy”. Wiemy tylko, że generatywna sztuczna inteligencja uznaje całe pytanie za ciąg tokenów i w pierwszej warstwie przetwarza je wszystkie jednocześnie. Wiemy również, że następnie przetwarza dane wyjściowe z tej pierwszej warstwy w następnej warstwie i tak dalej w górę stosu. Ponadto wiemy, że używa tej górnej warstwy do prognozowania, czyli tworzenia pierwszego tokena, a ten pierwszy token jest reprezentowany jako dany w całym systemie, aby wygenerować następny token itd.”.

    „Kolejnym logicznym pytaniem jest to, o czym i jak generatywna sztuczna inteligencja „myśli” podczas całego tego procesu? Jakie działania wykonywały te wszystkie warstwy? Szczera odpowiedź na to pytanie brzmi: nie wiemy. Po … prostu … nie … wiemy. Możemy to badać. Możemy to obserwować. Złożoność tego procesu pozostaje jednak poza naszymi możliwościami analizy. To tak jak w przypadku funkcjonalnego rezonansu magnetycznego (F-MRI) mózgu człowieka. Badamy to, obserwujemy, ale jak działa, nie wiemy.

    Jakkolwiek jest to stwierdzenie kontrowersyjne, grupa kilkunastu badaczy, którzy mieli wczesny dostęp do modelu GPT-4 jesienią 2022 r., doszła do wniosku, że sposób, w jaki model ten reaguje na stawiane przed nim złożone wyzwania, a także szeroki zakres wykazywanej przez niego wiedzy specjalistycznej, wskazuje na to, że osiągnął formę inteligencji ogólnej. Innymi słowy, zbudował sobie wewnętrzny model tego, jak działa świat (podobnie jak czyni to ludzki mózg), i używa tego modelu do rozumowania poprzez zadawane mu pytania. W wywiadzie dla podcastu „This American Life” jeden z badaczy powiedział, że był oszołomiony, gdy polecił modelowi GPT-4 podanie przepisu na czekoladowe ciasteczka, ale napisanego w stylu osoby cierpiącej na depresję. Odpowiedź modelu była wówczas następująca: „Składniki: jedna szklanka zmiękczonego masła, jeśli w ogóle znajdziesz energię, aby je zmiękczyć; jedna łyżeczka ekstraktu waniliowego, imitacji aromatu szczęścia. 1 filiżanka półsłodkich wiórków czekoladowych, malutkich radości, które w końcu po prostu się roztopią”.

Jakie znaczenie ma generatywna sztuczna inteligencja?

Aby zrozumieć znaczenie generatywnej sztucznej inteligencji, warto myśleć o niej jak o kalkulatorze otwartej, kreatywnej treści. Podobnie jak kalkulator automatyzuje rutynowe i prozaiczne działania matematyczne, pozwalając człowiekowi skupić się na zadaniach bardziej wymagających, generatywna sztuczna inteligencja może zautomatyzować bardziej rutynowe i prozaiczne zadania podrzędne, które składają się na znaczną część pracy merytorycznej, pozwalając człowiekowi skupić się na zadaniach bardziej wymagających.

Rozważmy wyzwania, przed którymi stoją marketerzy, aby uzyskać przydatne informacje z nieuporządkowanych, niespójnych i niepowiązanych ze sobą danych, z którymi tak często mają do czynienia. Tradycyjnie, musieliby najpierw te dane skonsolidować, co wymagałoby sporo niestandardowej pracy inżynierów oprogramowania, aby nadać wspólną strukturę danym pochodzącym z różnych źródeł, takich jak media społecznościowe, wiadomości i informacje zwrotne od klientów.

„Dzięki modelowi LLM można natomiast podać informacje z tych różnych źródeł bezpośrednio w prompcie, a następnie polecić modelowi wyświetlenie najważniejszych wniosków, informacji o priorytetach lub wyników analizy nastrojów. I takie wyniki się otrzyma” — powiedział Basim Baig, starszy menedżer ds. inżynierii specjalizujący się w sztucznej inteligencji i zabezpieczeniach w firmie Duolingo. „Siła modelu LLM polega na tym, że pozwala on pominąć ten pracochłonny i kosztowny etap inżynieryjny”.

W dalszej części Thompson sugeruje, że marketerzy mogą wykorzystywać model LLM do oznaczania dowolnego tekstu w celu jego analizy. Na przykład mamy ogromną bazę wzmianek o naszym produkcie w mediach społecznościowych. Można teraz napisać oprogramowanie, które pozwoliłoby wykorzystać model LLM i inne technologie na potrzeby:

  • wyodrębnienia głównych motywów z każdego wpisu zamieszczonego w mediach społecznościowych;
  • zebrania poszczególnych motywów pojawiających się w poszczególnych wpisach w grupy powtarzających się motywów;
  • określenia, które wpisy odpowiadają powtarzającym się motywom.

Na bazie uzyskanych wyników można potem:

  • przeanalizować najczęściej powtarzające się motywy, klikając odpowiednie przykłady;
  • prześledzić wzrost i regres powtarzających się motywów;
  • polecić modelowi LLM bardziej szczegółowe zbadanie powtarzającego się tematu pod kątem powtarzających się wzmianek o cechach produktu.

Modele generatywnej sztucznej inteligencji

Generatywna sztuczna inteligencja reprezentuje szeroką kategorię aplikacji opartych na rosnącej liczbie odmian sieci neuronowych. O ile cała generatywna sztuczna inteligencja pasuje do ogólnego opisu podanego w sekcji „Jak działa generatywna sztuczna inteligencja?”, to techniki implementacji różnią się w zależności od rodzaju obsługiwanych treści (obrazy, tekst) oraz w zależności od sposobu adaptacji nowych rozwiązań o charakterze badawczym i przemysłowym.

Modele sieci neuronowych korzystają z powtarzalnych wzorców sztucznych neuronów i ich wzajemnych połączeń. Projekt sieci neuronowej dla dowolnej aplikacji, w tym generatywnej sztucznej inteligencji, często powtarza ten sam wzór neuronów setki lub tysiące razy przy zastosowaniu zazwyczaj tych samych parametrów. Jest to zasadnicza część tzw. „architektury sieci neuronowej”. Tworzenie nowych architektur to ważny obszar innowacji w dziedzinie sztucznej inteligencji od lat 80. ubiegłego wieku, często stymulowanym chęcią wspierania nowego rodzaju treści. Po utworzeniu nowej architektury dalszy postęp jest jednak często możliwy dzięki wykorzystaniu jej w nieoczekiwany sposób. Dodatkowe innowacje wynikają z łączenia elementów różnych architektur.

Dwie z najwcześniejszych i nadal najpopularniejszych architektur to:

  • Architektura rekurencyjnej sieci neuronowej (Recurrent Neural Network, RNN) powstała w połowie lat 80. i nadal jest używana. Sieci RNN pokazały, w jaki sposób sztuczna inteligencja może się uczyć i być używana do automatyzacji zadań zależnych od danych sekwencyjnych, czyli danych, których sekwencja zawiera znaczenie, takich jak język, zachowanie na giełdzie lub strumienie kliknięć w sieci WWW. Sieci RNN są centralnym elementem wielu modeli sztucznej inteligencji ukierunkowanych na dźwięk, takich jak aplikacje generujące muzykę; ze względu na sekwencyjny charakter muzyki i występujące w niej zależności czasowe. Sieci te dobrze sprawdzają się także w przetwarzaniu języka naturalnego (NLP). Sieci RNN są również stosowane w tradycyjnych funkcjach sztucznej inteligencji, takich jak rozpoznawanie mowy, analiza pisma ręcznego, prognozowanie finansowe i meteorologiczne oraz przewidywanie zmian zapotrzebowania na energię itd.
  • Konwolucyjna sieć neuronowa (Convoluted Neural Network, CNN) pojawiła się mniej więcej 10 lat później. Skupia się ona na danych w postaci siatki, dzięki czemu świetnie radzi sobie z reprezentacją danych przestrzennych i może generować obrazy. Popularne aplikacje generatywnej sztucznej inteligencji typu tekst-obraz, takie jak Midjourney i DALL-E, do generowania obrazów używają właśnie sieci CNN.

Sieci RNN są co prawda nadal często stosowane, ale kolejne próby ich doskonalenia doprowadziły do przełomu i pojawienia się nowego rozwiązania:

  • Modele transformerowe ewoluowały w znacznie bardziej elastyczny i wydajny sposób, aby reprezentować sekwencje, niż sieci RNN. Mają one kilka cech, które umożliwiają im przetwarzanie danych sekwencyjnych, takich jak tekst, w sposób masowo równoległy bez utraty zrozumienia sekwencji. Takie równoległe przetwarzanie danych sekwencyjnych jest jedną z najważniejszych cech, które sprawiają, że ChatGPT może tak szybko i dobrze reagować na proste prompty w języku naturalnym.

Firmy badawcze, sektor prywatny i organizacje open-source również opracowały ważne modele, które wprowadzają innowacje na wyższych poziomach architektury i zastosowań sieci neuronowych. Wprowadzono na przykład istotne innowacje w procesie trenowania, w sposobie wykorzystywania informacji zwrotnych z treningu do udoskonalania modelu, a także w sposobie łączenia wielu modeli w aplikacje generatywnej sztucznej inteligencji. Poniżej przedstawiono przegląd niektórych z najważniejszych innowacji w zakresie generatywnej sztucznej inteligencji:

  • Autoenkodery wariacyjne (VAE) korzystają z innowacji w architekturze sieci neuronowych i procesach treningowych i są często włączane do aplikacji generujących obrazy. Składają się one z sieci kodujących i dekodujących, z których każda może używać innej architektury bazowej (RNN, CNN lub transformer). Enkoder uczy się ważnych cech i właściwości obrazu, kompresuje te informacje, a następnie zapisuje w pamięci jako reprezentację. Na podstawie tych skompresowanych informacji dekoder próbuje odtworzyć oryginalny obraz. W ostatecznym rozrachunku autoenkoder wariacyjny uczy się generować nowe obrazy, które są podobne do danych treningowych.
  • Generatywne sieci współzawodniczące (GAN) są stosowane w odniesieniu do różnego rodzaju treści, przy czym bardzo dobrze sprawdzają się w zastosowaniach związanych z obrazem i filmem. Cechą odróżniającą sieci GAN od innych sieci jest to, że składają się z dwóch sieci neuronowych, które ze sobą konkurują (współzawodniczą) podczas treningu. Na przykład w przypadku obrazów pierwsza sieć, tzw. generator, tworzy obraz, a druga sieć, zwana dyskryminatorem, decyduje, czy dany obraz jest prawdziwy, czy tylko wygenerowany (dający się odróżnić od prawdziwego). Generator nieustannie próbuje „oszukać” dyskryminatora, który z kolei nieustannie próbuje złapać generator na „oszustwie”. W większości przypadków obie te współzawodniczące sieci neuronowe są oparte na architekturze CNN, ale mogą być również wariantami sieci RNN lub transformerami.
  • Modele dyfuzyjne obejmują wiele sieci neuronowych w ramach ogólnej struktury, czasami integrując w tych ramach różne architektury, takie jak sieci CNN, transformery i autoenkodery wariacyjne (VAE). Modele dyfuzyjne uczą się w drodze kompresji danych, dodawania do nich szumu, usuwania z nich szumu i podejmowania prób odtworzenia oryginału. Popularne narzędzie Stable Diffusion stosuje enkodery i dekodery VAE odpowiednio na pierwszym i ostatnim etapie oraz dwie odmiany sieci CNN na etapach dodawania i usuwania szumu.

Jakie są zastosowania generatywnej sztucznej inteligencji?

Świat dopiero zaczyna odkrywać potencjalne zastosowania generatywnej sztucznej inteligencji, ale łatwo jest dostrzec korzyści, jakie z jej zastosowania mogą odnieść przedsiębiorstwa. Generatywna sztuczna inteligencja może na przykład zmienić kluczowe obszary interakcji z klientami, sprzedaży i marketingu, inżynierii oprogramowania oraz badań i rozwoju.

W przypadku obsługi klienta dotychczasowe mechanizmy sztucznej inteligencji nie tylko automatyzowały procesy i wprowadzały samoobsługę, ale powodowały też nową frustrację u klientów. Generatywna sztuczna inteligencja ma przynieść korzyści zarówno klientom, jak i pracownikom działów obsługi dzięki czatbotom, które można dostosować do różnych języków i regionów w celu zapewnienia bardziej spersonalizowanej i przystępnej obsługi klienta. Gdy w celu rozwiązania problemu klienta konieczna jest interwencja człowieka, pracownicy działu obsługi klienta mogą w czasie rzeczywistym korzystać z narzędzi generatywnej sztucznej inteligencji w celu znalezienia użytecznych strategii przy znacznym zwiększeniu szybkości i dokładności interakcji. Szybkość, z jaką generatywna sztuczna inteligencja może korzystać z bazy wiedzy dużego przedsiębiorstwa i przedstawiać nowe rozwiązania w odpowiedzi na skargi klientów, pozwala pracownikom działu obsługi na efektywniejsze rozwiązywanie konkretnych problemów klientów. Pracownicy tacy nie muszą już bowiem polegać na przestarzałych drzewach i przekierowaniach połączeń telefonicznych wykonywanych do momentu znalezienia odpowiedzi lub do momentu, gdy klientowi skończy się cierpliwość.

W branży marketingowej generatywna sztuczna inteligencja może zautomatyzować integrację i analizę danych pochodzących z różnych źródeł, co powinno radykalnie przyspieszyć proces pozyskiwania informacji i bezpośrednio prowadzić do podejmowania bardziej świadomych decyzji oraz szybszego przygotowywania strategii wejścia na rynek. Marketerzy mogą wykorzystać te informacje wraz z innymi wygenerowanymi przez sztuczną inteligencję informacjami do tworzenia nowych, lepiej ukierunkowanych kampanii reklamowych. Pozwoli to skrócić czas potrzebny pracownikom na zbieranie danych demograficznych i danych dotyczących zachowań zakupowych oraz da im więcej czasu na analizę wyników i burze mózgów w celu wytworzenia nowych pomysłów.

Tom Stein, prezes i dyrektor ds. marki w agencji marketingowej B2B Stein IAS, powiedział, że każda agencja marketingowa, w tym jego, intensywnie bada takie możliwości. Zauważa jednak, że istnieją również prostsze i szybsze rozwiązania usprawniające procesy zaplecza w każdej agencji.

„Gdy otrzymujemy zapytania o informacje (RFI), wtedy zazwyczaj 70% – 80% takich zapytań dotyczy tych samych informacji, pomijając drobne różnice kontekstowe związane z sytuacją danego przedsiębiorstwa” — ocenił Stein, który był również przewodniczącym jury konkursu Cannes Lions Creative B2B Awards 2023. „Użycie narzędzi sztucznej inteligencji udzielenia tych odpowiedzi nie jest znowu takie skomplikowane. Jeśli zatem odzyskamy 80% naszego czasu i będziemy mogli go przeznaczyć na wzbogacenie odpowiedzi na takie RFI, będzie to wygrana dla wszystkich zaangażowanych stron. Istnieje wiele takich procesów".

Korzystając z generatywnej sztucznej inteligencji, twórcy oprogramowania mogą usprawniać i przyspieszać procesy na każdym etapie od planowania po konserwację. W początkowej fazie tworzenia narzędzia generatywnej sztucznej inteligencji mogą analizować i porządkować duże ilości danych oraz sugerować różne konfiguracje programu. Po rozpoczęciu kodowania sztuczna inteligencja może testować kod i rozwiązywać pojawiające się z nim problemy, identyfikować błędy, przeprowadzać diagnostykę i sugerować poprawki zarówno przed, jak i po uruchomieniu. Thompson zauważa, że ponieważ tak wiele projektów oprogramowania dla przedsiębiorstw obejmuje różne języki programowania i dyscypliny, zarówno on, jak i inni inżynierowie oprogramowania używają sztucznej inteligencji, aby zdobywać wiedzę z nieznanych im do tej pory dziedzin znacznie szybciej, niż było to wcześniej możliwe. Ponadto używa narzędzi generatywnej sztucznej inteligencji do wyjaśniania nieznanego kodu i identyfikowania konkretnych problemów.

W dziedzinie badań i rozwoju generatywna sztuczna inteligencja może zwiększyć szybkość i szczegółowość badań rynku w początkowych fazach projektowania produktu. Następnie oparte na sztucznej inteligencji programy, zwłaszcza te z funkcjami generowania obrazów, mogą tworzyć szczegółowe projekty potencjalnych produktów, a następnie dokonywać odpowiednich symulacji i testów, dając pracownikom narzędzia niezbędne do wprowadzania szybkich i skutecznych poprawek w ramach całego cyklu badawczo-rozwojowego.

Podczas czerwcowego podsumowania wyników finansowych założyciel Oracle, Larry Ellison, podkreślił, że „wyspecjalizowane modele LLM przyspieszą tworzenie nowych leków ratujących życie”. Tworzenie leków to zastosowanie badawczo-rozwojowe, które wykorzystuje tendencję modeli generatywnych do zwracania błędnych lub nieweryfikowalnych informacji, ale w dobry sposób: identyfikując nowe cząsteczki i sekwencje białek w celu poszukiwania nowych metod leczniczych. Niezależnie od tego, filia Oracle Cerner Enviza nawiązała współpracę z Amerykańską Agencją ds. Żywności i Leków (FDA) i John Snow Labs, aby zastosować narzędzia sztucznej inteligencji w celu „zrozumienia wpływu leków na duże populacje”. Strategia Oracle w zakresie sztucznej inteligencji ma na celu upowszechnienie sztucznej inteligencji w aplikacjach chmurowych i infrastrukturze chmurowej Oracle.

Zastosowania generatywnej sztucznej inteligencji

Generatywna sztuczna inteligencja ma ogromny potencjał w zakresie przyspieszania lub pełnej automatyzacji różnorodnych zadań. Przedsiębiorstwa powinny zatem planować przemyślane i konkretne sposoby maksymalizacji korzyści, jakie może ona im przynieść w ramach prowadzonej działalności. Poniżej przedstawiono kilka szczególnych zastosowań tej technologii:

  • Wypełnianie luk w wiedzy. Dzięki prostym, opartym na czacie interfejsom użytkownika narzędzia generatywnej sztucznej inteligencji mogą odpowiadać na ogólne lub szczegółowe pytania pracowników, aby wskazać im właściwy kierunek działania. Sprzedawcy mogą na przykład poprosić o informacje na temat swoich klientów, a programiści mogą uczyć się nowych języków programowania.
  • Wykrywanie błędów. Narzędzia generatywnej sztucznej inteligencji mogą pod kątem błędów przeszukiwać dowolny tekst, od nieformalnych wiadomości e-mail po profesjonalne pisma. Ponadto mogą nie tylko błędy usunąć, ale również wyjaśnić, dlaczego są to błędy, aby pomóc użytkownikom w nauce i doskonaleniu zawodowym.
  • Poprawa komunikacji. Narzędzia generatywnej sztucznej inteligencji mogą tłumaczyć tekst na różne języki, dostosowywać ich ton, tworzyć unikatowe wiadomości na podstawie różnych zestawów danych itp. Ponadto mogą pomagać zespołom marketingowym w tworzeniu lepiej dopasowanych kampanii reklamowych, a pracownikom wewnętrznym — w szybkim znajdowaniu w dotychczasowej korespondencji istotnych informacji i odpowiedzi na pytania, bez przeszkadzania innym pracownikom. Thompson wierzy, że ta zdolność do syntezy wiedzy instytucjonalnej w celu udzielenia odpowiedzi na dowolne pytanie lub pomysł pracownika zasadniczo zmieni sposób, w jaki ludzie komunikują się w dużych organizacjach, radykalnie przyspieszając proces uzyskiwania odpowiedniej wiedzy.
  • Zmniejszenie obciążenia administracyjnego. Firmy o dużym obciążeniu administracyjnym, obejmującym m.in. dokumentowanie i rozliczanie usług medycznych, mogą wykorzystywać generatywną sztuczną inteligencję do automatyzacji złożonych zadań, w tym do odpowiedniego wypełniania dokumentów i analizowania zapisków lekarzy. Dzięki temu pracownicy mogą skupić się na bardziej praktycznych zadaniach, takich jak opieka nad pacjentem lub obsługa klienta.
  • Skanowanie obrazów medycznych pod kątem nieprawidłowości. Dostawcy usług medycznych mogą używać generatywnej sztucznej inteligencji do skanowania dokumentów i obrazów medycznych w celu oznaczania wartych uwagi problemów i przedstawiania lekarzom zaleceń dotyczących leków, w tym ich potencjalnych skutków ubocznych w kontekście historii pacjenta.
  • Rozwiązywanie problemów z kodem źródłowym. Inżynierowie oprogramowania mogą używać modeli generatywnej sztucznej inteligencji do rozwiązywania problemów z kodem i dostrajania go szybciej i dokładniej niż w przypadku analizowania go linijka po linijce. Następnie mogą uzyskać z tego narzędzia bardziej szczegółowe wyjaśnienia, które pomogą w przyszłym kodowaniu i usprawnieniu procesów.

Korzyści z generatywnej sztucznej inteligencji

Korzyści płynące z zastosowania generatywnej sztucznej inteligencji w przedsiębiorstwie wynikają głównie z trzech zasadniczych atrybutów: syntezy wiedzy, współpracy człowieka ze sztuczną inteligencją oraz szybkości. Wiele z poniższych korzyści jest podobnych do tych deklarowanych w kontekście wcześniejszych modeli sztucznej inteligencji i narzędzi do automatyzacji, obecność co najmniej jednego z tych trzech atrybutów może jednak pomóc przedsiębiorstwom w szybszym, łatwiejszym i skuteczniejszym osiąganiu tych korzyści.

Za pomocą generatywnej sztucznej inteligencji przedsiębiorstwa mogą tworzyć niestandardowe modele trenowane na bazie własnej wiedzy instytucjonalnej i własności intelektualnej. Następnie pracownicy merytoryczni mogą podczas wykonywania zadań korzystać z oprogramowania przy użyciu tego samego języka, którego używają w rozmowach ze współpracownikami. Taki specjalistyczny model generatywnej sztucznej inteligencji może reagować na zapytania, błyskawicznie zestawiając informacje z całej korporacyjnej bazy wiedzy. Takie podejście nie tylko zmniejsza lub eliminuje potrzebę posiadania specjalistycznej (choć często mniej skutecznej i droższej w pozyskaniu) wiedzy inżynierskiej umożliwiającej tworzenie konkretnych programów do obsługi tych zadań, ale także może ujawnić pomysły i powiązania, które nie były możliwe w przypadku wcześniejszych rozwiązań.

  • Poprawa produktywności. Dzięki generatywnej sztucznej inteligencji pracownicy merytoryczni mogą szybciej wykonywać rutynowe, codzienne zadania, takie jak zdobywanie wiedzy z nowej dziedziny potrzebnej w nadchodzącym projekcie, porządkowanie lub kategoryzowanie danych, przeszukiwanie Internetu w celu znalezienia odpowiednich wyników badań lub redagowanie wiadomości e-mail. Ponadto zadania, które kiedyś wymagały dużych zespołów lub wielu godzin pracy, mogą być teraz wykonywane przez mniejszą liczbę pracowników w ułamku czasu potrzebnego wcześniej na ich realizację. Na przykład zespół programistów może spędzić godziny na przeglądaniu wadliwego kodu, aby rozwiązać dany problem, podczas gdy narzędzie generatywnej sztucznej inteligencji może znaleźć takie błędy w ciągu kilku chwil i zgłosić je wraz z sugerowanymi poprawkami. Niektóre modele generatywnej sztucznej inteligencji mają umiejętności, które są mniej więcej na średnim lub wyższym poziomie w szerokim spektrum kompetencji związanych z pracą merytoryczną, dlatego używanie takiego modelu może znacznie zwiększyć produktywność użytkownika. Na przykład dzięki korzystaniu ze sztucznej inteligencji młodszy menedżer produktu może być co najmniej średnim menedżerem projektu. Wszystkie te możliwości znacznie przyspieszyłyby realizację projektów przez pracowników merytorycznych.

  • Obniżenie kosztów. Ze względu na swoją szybkość narzędzia generatywnej sztucznej inteligencji obniżają koszty realizacji procesów, a jeśli zadanie wykonywane jest o połowę krócej, jego koszt jest o połowę niższy. Ponadto generatywna sztuczna inteligencja może zminimalizować liczbę błędów, wyeliminować przestoje oraz zidentyfikować nadmiarowość i inne kosztowne nieefektywności. Należy jednak pamiętać, że ze względu na tendencję generatywnej sztucznej inteligencji do generowania niepoprawnych odpowiedzi konieczna jest kontrola jakości i nadzór sprawowany przez człowieka. Oczekuje się jednak, że współpraca człowieka ze sztuczną inteligencją pozwoli w krótszym czasie wykonać znacznie więcej pracy niż wykonałby jej sam człowiek, a także zrobić to lepiej i dokładniej niż zrobiłyby to same narzędzia sztucznej inteligencji, obniżając tym samym koszty. Na przykład podczas testowania nowych produktów generatywna sztuczna inteligencja może pomóc w tworzeniu bardziej zaawansowanych i szczegółowych symulacji niż starsze narzędzia. Ostatecznie skraca to czas i koszty testowania nowych produktów.

  • Poprawa zadowolenia klientów. Klienci mogą uzyskać lepsze i bardziej spersonalizowane środowisko pracy dzięki opartej na generatywnej sztucznej inteligencji samoobsłudze i narzędziom generatywnej sztucznej inteligencji, które podpowiadają właściwe działania pracownikom działu obsługi klienta w czasie rzeczywistym. O ile dzisiejsze oparte na sztucznej inteligencji czatboty obsługi klienta mogą czasami wydawać się frustrująco ograniczone, łatwo jest wyobrazić sobie znacznie wyższą jakość obsługi klienta dzięki informacjom dostarczanym przez model generatywnej sztucznej inteligencji wytrenowany na bazie jakości rozmów przeprowadzanych w ramach modelu ChatGPT.

  • Bardziej świadome decyzje. Specjalnie wytrenowane, właściwe dla przedsiębiorstwa modele generatywnej sztucznej inteligencji mogą zapewnić dostęp do szczegółowych informacji w ramach modelowania scenariuszy, oceny ryzyka i innych zaawansowanych podejść do analityki predykcyjnej. Decydenci mogą wykorzystać te narzędzia, aby lepiej zrozumieć zarówno swoją branżę, jak i pozycję firmy w tej branży. Mogą do tego posłużyć spersonalizowane rekomendacje i strategie działania oparte na bardziej szczegółowych danych i szybszych analizach niż te, które mogliby zaoferować analitycy lub starsze technologie.

    Na przykład decydenci mogą lepiej planować alokację zapasów przed intensywnym sezonem dzięki dokładniejszym prognozom popytu, na które pozwala połączenie wewnętrznych danych zebranych przez system planowania zasobów przedsiębiorstwa (ERP) z kompleksowymi zewnętrznymi badaniami rynku, które są następnie analizowane przez specjalny model generatywnej sztucznej inteligencji. W tym przypadku lepsze decyzje dotyczące alokacji prowadzą do minimalizacji nadmiernych zakupów i braków magazynowych przy jednoczesnej maksymalizacji potencjalnej sprzedaży.

  • Szybsze wprowadzanie produktów na rynek. Generatywna sztuczna inteligencja może szybko przygotować prototypy produktów i pierwsze wersje robocze, pomóc w dostrojeniu prac w toku oraz przetestować istniejące projekty i usunąć w nich błędy, aby znaleźć ulepszenia znacznie szybciej niż było to możliwe wcześniej.

  • Kontrola jakości. Właściwy dla przedsiębiorstwa, wyspecjalizowany model generatywnej sztucznej inteligencji prawdopodobnie ujawni luki i niespójności w instrukcjach obsługi, filmach i innych treściach prezentowanych publicznie przez przedsiębiorstwo.

Przykłady konkretnych korzyści z generatywnej sztucznej inteligencji
  Synteza wiedzy Współpraca na linii człowiek-SI Szybkość
Zwiększona produktywność Uporządkowanie danych, przyspieszenie badań, pierwsze wersje robocze produktów. Edukacja pracowników w nowych dziedzinach, sugerowanie nowych sposobów rozwiązywania problemów. Poprawa zdolności pracowników merytorycznych do ukończenia nowego projektu.
Niższe koszty Identyfikacja nadmiarowości i nieefektywności w celu usprawnienia przepływów pracy. Minimalizacja liczby błędów ludzkich i skrócenie przestojów dzięki nadzorowi opartemu na współpracy. Szybsze wykonywanie zadań (jeśli zadanie zajmuje o połowę mniej czasu, jego koszt spada o połowę).
Większe zadowolenie klienta Szybsze porządkowanie i odzyskiwanie informacji o koncie klienta w celu szybszego rozwiązywania problemów. Ulepszone czatboty automatyzujące proste interakcje i lepsze informacje dla przedstawicieli, gdy pomoc człowieka jest niezbędna. Przesyłanie najnowszych informacji dotyczących klientów w czasie rzeczywistym zarówno klientom, jak i przedstawicielom handlowym.
Bardziej świadome decyzje Szybsze uzyskiwanie informacji dzięki wykorzystaniu analityki predykcyjnej, w tym modelowania scenariuszy i oceny ryzyka. Przedstawianie decydentom spersonalizowanych rekomendacji i konkretnych strategii działania. Szybsze generowanie analiz na podstawie szerzej zakrojonych danych niż w przypadku analityków lub starszych technologii.
Szybsze wprowadzanie produktów na rynek Tworzenie prototypów i wersji produktów o minimalnej funkcjonalności (MVP). Testy i rozwiązywanie problemów dotyczących istniejących projektów w celu znalezienia ulepszeń. Przyspieszenie tempa wprowadzania zmian.

Ograniczenia generatywnej sztucznej inteligencji

Każdy użytkownik narzędzi generatywnej sztucznej inteligencji do celów edukacyjnych lub badawczych prawdopodobnie zetknął się z ich najbardziej znanym ograniczeniem: zmyślaniem. Model przewiduje tylko następne słowo, ekstrapolacja na podstawie danych treningowych sprawia zatem, że mogą się w nim pojawiać nieprawdziwe informacje podawane z taką samą pewnością, jak dane prawdziwe. Takie nieprawdziwe informacje badacze sztucznej inteligencji określają mianem „halucynacji” i jest to główny powód, dla którego obecne narzędzia generatywnej sztucznej inteligencji wymagają ingerencji człowieka. Przedsiębiorstwa muszą zatem odpowiednio przygotować się na te i inne ograniczenia oraz zarządzać nimi podczas wdrażania generatywnej sztucznej inteligencji. Jeśli przedsiębiorstwo wyznacza nierealistyczne oczekiwania lub nieskutecznie zarządza tą technologią, skutki mogą narazić na szwank jego wyniki i reputację.

  • Wymaga nadzoru. Modele generatywnej sztucznej inteligencji mogą generować fałszywe lub wprowadzające w błąd informacje, często tak szczegółowe i w tak autorytatywnym tonie, że nawet specjaliści mogą dać się zwieść. Ponadto dane wyjściowe mogą zawierać tendencyjny lub obraźliwy język wyuczony na podstawie zestawu danych, na którym model został wytrenowany. Krytycznym elementem przepływu pracy, który zapobiega sytuacjom, w których te fałszywe informacje docierają do klientów lub wpływają na politykę przedsiębiorstwa, pozostaje człowiek.
  • Moc obliczeniowa i początkowe inwestycje. Modele generatywnej sztucznej inteligencji wymagają ogromnej mocy obliczeniowej zarówno do treningu, jak i do działania. Wielu przedsiębiorstwom brakuje niezbędnych zasobów i wiedzy specjalistycznej, aby samodzielnie zbudować i utrzymywać takie systemy. Jest to jedna z przyczyn, dla których rozwój generatywnej sztucznej inteligencji odbywa się w dużej mierze przy użyciu infrastruktury chmury.
  • Potencjał do konwergencji, a nie dywergencji. Przedsiębiorstwa, które nie budują własnych specjalistycznych modeli i zamiast tego polegają na publicznych narzędziach generatywnej sztucznej inteligencji, mogą być skazane na przeciętność. Często okazuje się bowiem, że wygenerowane przez wspomniane narzędzia wnioski są identyczne z wnioskami generowanymi przez inne przedsiębiorstwa, ponieważ opierają się one na tych samych danych treningowych. O ile zatem przedsiębiorstwa te nie wzbogacą swojej pracy o innowacje ludzkie, może się okazać, że chociaż efektywnie dostosowują się do bieżących najlepszych praktyk, to mają trudności ze znalezieniem konkurencyjnego wyróżnika.
  • Opór ze strony pracowników i klientów. Pracownicy, zwłaszcza długoletni z utrwalonymi protokołami i metodami, mogą mieć trudności z przystosowaniem się do obecności generatywnej sztucznej inteligencji, co prowadzi do spadku ich produktywności podczas adaptacji. Pracownicy mogą również opierać się wdrożeniu tej technologii z obawy przed utratą pracy. Menedżerowie i liderzy biznesowi muszą zatem rozwiewać te obawy oraz otwarcie i przejrzyście informować o tym, w jaki sposób technologia zmieni strukturę lub nie zmieni struktury przedsiębiorstwa.

Zagrożenia i obawy związane z generatywną sztuczną inteligencją

Generatywna sztuczna inteligencja wywołuje skrajne reakcje po obu stronach spektrum ryzyka. Niektóre grupy obawiają się, że technologia ta doprowadzi to do wyginięcia ludzkości, podczas gdy inne twierdzą, że uratuje świat. Te skrajne poglądy nie są objęte zakresem tego artykułu. Istnieje jednak kilka istotnych zagrożeń i wątpliwości, które liderzy biznesowi wdrażający sztuczną inteligencję muszą zrozumieć, aby podjąć odpowiednie działania w celu złagodzenia ich potencjalnych negatywnych skutków.

  • Zaufanie i wiarygodność. Modele generatywnej sztucznej inteligencji czasami generują niedokładne lub całkowicie nieprawdziwe informacje. Wiele modeli jest również trenowanych na bazie starszych danych i zazwyczaj analizuje tylko informacje opublikowane do określonej daty. W rezultacie to, co sprawdzało się w kontekście zeszłorocznego rynku, obecnie może być już nieaktualne lub nieprzydatne. Na przykład przedsiębiorstwa, które chcą usprawnić swoje operacje w łańcuchu dostaw, mogą stwierdzić, że generowane przez wspomniane modele sugestie są nieaktualne i nie mają już zastosowania w stale zmieniającej się globalnej gospodarce. Użytkownicy muszą zatem weryfikować wszystkie uzyskane informacje pod kątem ich dokładności i adekwatności przed podjęciem na ich podstawie jakichkolwiek działań.

  • Prywatność/własność intelektualna. Modele generatywnej sztucznej inteligencji często nadal uczą się na podstawie danych wejściowych dostarczanych w ramach promptów. Przedsiębiorstwa, zwłaszcza te, które zbierają od swoich klientów wrażliwe dane osobowe (na przykład gabinety lekarskie), muszą uważać, aby nie narazić na szwank chronionej własności intelektualnej lub danych poufnych. Jeśli model uzyska dostęp do tych informacji, może to zwiększyć prawdopodobieństwo narażenia się na różnego rodzaju odpowiedzialność.

  • Inżynieria społeczna „na sterydach”. Cyberprzestępcy już teraz wykorzystują generatywną sztuczną inteligencję, aby lepiej spersonalizować i uskutecznić swoje cyberataki i działania z zakresu inżynierii społecznej.

    „Już teraz bardzo trudno jest odróżnić, czy w trybie online rozmawia się z botem, czy z człowiekiem” — ocenił Baig, inżynier ds. sztucznej inteligencji i zabezpieczeń w firmie Duolingo. „Przestępcom znacznie łatwiej jest teraz wygenerować treści, które oszukają odbiorców i dadzą nieuczciwie zarobić”.

  • Spadek jakości i oryginalności wyników. Generatywna sztuczna inteligencja może ułatwić i przyspieszyć tworzenie produktów i treści, ale nie zagwarantuje ich wyższej jakości. Poleganie na modelach sztucznej inteligencji bez znaczącego wkładu ludzi może skutkować produktami standardowymi, pozbawionymi kreatywności.

  • Tendencyjność. Jeśli model generatywnej sztucznej inteligencji jest trenowany na bazie tendencyjnych danych zawierających luki w rozumowaniu lub szkodliwe lub krzywdzące treści, tendencyjność pojawi się również w uzyskiwanych wynikach. Jeśli na przykład przedsiębiorstwo historycznie zatrudniało tylko jeden typ pracowników, model może porównywać nowych kandydatów z „idealnym” pracownikiem i eliminować kandydatów, którzy, choć są wykwalifikowani, nie pasują do wspomnianego wzorca, nawet jeśli przedsiębiorstwo zamierza taki wzorzec odrzucić.

  • Sztuczna inteligencja poza kontrolą. Korzystanie przez pracowników z generatywnej sztucznej inteligencji bez oficjalnego upoważnienia lub bez wiedzy pracodawcy może doprowadzić do tego, że przedsiębiorstwo nieumyślnie opublikuje nieprawidłowe informacje lub naruszy prawo autorskie innych osób.

  • Utrata różnorodności. Badacze sztucznej inteligencji zidentyfikowali zjawisko zwane „utratą różnorodności modelu”, które z czasem może sprawić, że generatywne modele sztucznej inteligencji stają się mniej użyteczne. Innymi słowy, w miarę rozprzestrzeniania się treści generowanych przez sztuczną inteligencję, modele trenowane na takich syntetycznych danych (nieuchronnie zawierających błędy) ostatecznie „zapominają” charakterystykę danych generowanych przez człowieka, na których zostały pierwotnie wytrenowane. Problem ten może osiągnąć punkt krytyczny, gdy Internet stanie się bardziej wypełniony treściami sztucznej inteligencji, tworząc pętlę sprzężenia zwrotnego, która degraduje cały model.

  • Przepisy prawa w zakresie sztucznej inteligencji.Generatywna sztuczna inteligencja jest tak nowym rozwiązaniem, że nie nie ma jeszcze w jej sprawie zbyt rozbudowanych przepisów prawa. Mimo to, legislatorzy na całym świecie zastanawiają się, jak cały ten obszar uregulować. Niektóre kraje, takie jak Chiny, zaproponowały już przepisy regulujące sposób trenowania i dane wyjściowe modeli. W miarę coraz szerszego wprowadzania odpowiednich przepisów w poszczególnych krajach przedsiębiorstwa, zwłaszcza międzynarodowe, muszą monitorować takie nowe i zmieniające się przepisy, aby ich przestrzegać i unikać grzywien lub zarzutów karnych z tytułu niewłaściwego korzystania ze sztucznej inteligencji.

Etyka i generatywna sztuczna inteligencja

Obserwowany ponad dekadę temu rozwój narzędzi zdolnych do analizy dużych zbiorów danych wywołał nowe pytania i debaty etyczne, ponieważ narzędzia te umożliwiały wywodzenie prywatnych lub wrażliwych informacji o osobach, które takich informacji nie ujawniały i nie chciały ujawniać. Jak firmy powinny radzić sobie z posiadaną zdolnością do pozyskiwania takich informacji?

Biorąc pod uwagę potencjał generatywnej sztucznej inteligencji do przyspieszenia analizy danych, rodzą się coraz to nowe i powracają starsze pytania o kwestie etyczne.

  • Jaki wpływ na pracowników będzie mieć generatywna sztuczna inteligencja? Generatywna sztuczna inteligencja już teraz sprawia, że wielu pracowników słusznie niepokoi się o swoje długoterminowe perspektywy zatrudnienia. O ile historia pokazuje, że postęp technologiczny zawsze prowadził do powstawania większej liczby miejsc pracy o wyższej wartości niż ich utraty, o tyle stanowiska pracy, które sztuczna inteligencja może odesłać do lamusa, pozwalają zajmującym je osobom zarabiać na chleb.
  • Jak można wyeliminować potencjalną tendencyjność? . Wszystkie modele sztucznej inteligencji mogą generować tendencyjne wyniki. Przedsiębiorstwa muszą zatem proaktywnie wybierać sposoby radzenia sobie z tą tendencyjnością zarówno z punktu widzenia ryzyka korporacyjnego, jak i etyki.
  • W jaki sposób przestępcy mogą wykorzystywać modele generatywnej sztucznej inteligencji do wyrządzania szkód i siania zamętu w społeczeństwie? Niezliczone potencjalne zastosowania generatywnej sztucznej inteligencji obejmują niestety także działania przestępcze i szkodliwe, zwłaszcza że technologia ta staje się coraz bardziej dostępna dla ogółu społeczeństwa. Filmy wykorzystujące głos i wizerunek danej osoby (deepfake), narzędzia hakerskie usprawniające cyberataki, powszechna dezinformacja i kampanie socjotechniczne to tylko kilka z potencjalnych sposobów, w jakie przestępcy mogą wykorzystywać generatywną sztuczną inteligencję. Obecnie wiele modeli ma odpowiednie, choć nie idealne zabezpieczenia. Przedsiębiorstwa wdrażające własne modele muszą znać i rozumieć możliwości tych modeli i podejmować działania mające na celu zapewnienie ich odpowiedzialnego używania.
  • Kto jest właścicielem wytworów generowanych przez sztuczną inteligencję? . Nawet jeśli przedsiębiorstwo dostraja model na bazie własnych danych, modele generatywnej sztucznej inteligencji są trenowane na ogromnych ilościach danych zewnętrznych. Dane wyjściowe modelu mogą zatem zawierać elementy dorobku innych organizacji, co prowadzi do powstania potencjalnych wątpliwości etycznych i prawnych (plagiat, naruszenie prawa autorskiego itp.). Jest to szczególnie widoczne w przypadku modeli sztucznej inteligencji generujących obrazy i artyści ze wszystkich dziedzin kreatywnych szukają sposobów, aby ich prace nie były wprowadzane do tych modeli. Organy regulacyjne mogą z czasem wprowadzać nowe przepisy, każda osoba korzystająca z generatywnej sztucznej inteligencji powinna zatem rozważyć źródła i sposoby wykorzystania treści przed opublikowaniem ich jako własnych.

Przykłady generatywnej sztucznej inteligencji

Przedsiębiorstwa różnej wielkości i z różnych branż, od armii Stanów Zjednoczonych po Coca-Colę, intensywnie eksperymentują z generatywną sztuczną inteligencją. Oto garść przykładów świadczących o szerokim potencjale i szybkiej adopcji tej technologii.

Snap Inc. (właściciel Snapchata) oferuje usługę czatbota o nazwie „My AI” opartą na wersji technologii GPT firmy OpenAI. Dostosowany do tonu i stylu Snapchata czatbot My AI jest zaprogramowany tak, aby był przyjazny i spersonalizowany. Użytkownicy mogą dostosować jego wygląd za pomocą awatarów, tapet i nazw, a także mogą z niego korzystać do rozmów jeden na jeden lub między wieloma użytkownikami, symulując typowy sposób, w jaki użytkownicy Snapchata komunikują się ze swoimi znajomymi. Użytkownicy mogą poprosić o osobistą poradę lub swobodnie porozmawiać na tematy takie jak jedzenie, hobby lub muzyka. Czatbot może nawet opowiadać dowcipy. Snapchat tak ukierunkowuje czatbota My AI, aby jego użytkownicy mogli łatwiej odkrywać funkcje tej aplikacji, takie jak soczewki rzeczywistości rozszerzonej, a także łatwiej uzyskiwali informacje, po które zazwyczaj nie zwróciliby się do Snapchata, takie jak rekomendacje miejsc do odwiedzenia w okolicy.

Bloomberg oferuje czatbota BloombergGPT, który został wytrenowany mniej więcej w połowie na podstawie ogólnych danych o świecie, a w drugiej połowie na podstawie zastrzeżonych danych Bloomberg lub oczyszczonych danych finansowych. Czatbot ten wykonuje proste zadania, takie jak pisanie nagłówków artykułów, a także wykonuje autorskie sztuczki, takie jak przekształcanie promptów napisanych w zwykłym języku angielskim w język zapytań Bloomberg Query Language wymagany przez terminale danych Bloomberga, które są niezbędne w wielu firmach z branży finansowej.

Oracle, we współpracy z deweloperem sztucznej inteligencji Cohere pomaga przedsiębiorstwom w budowaniu wewnętrznych modeli dostrojonych przy pomocy wewnętrznych danych korporacyjnych, aby upowszechniać stosowanie wyspecjalizowanych narzędzi generatywnej sztucznej inteligencji.

Oracle planuje osadzić usługi generatywnej sztucznej inteligencji na platformach biznesowych, aby zwiększyć produktywność i wydajność w ramach istniejących procesów biznesowych i uwolnić przedsiębiorstwa od konieczności budowania i trenowania własnych modeli od podstaw. W tym kontekście firma Oracle zapowiedziała niedawno integrację funkcji generatywnej sztucznej inteligencji ze swoim oprogramowaniem do zarządzania zasobami ludzkimi Oracle Fusion Cloud Human Capital Management (HCM).

Dodatkowe przykłady

  • Coca-Cola używa generatorów tekstu i obrazu do personalizowania przekazu reklamowego i budowania wysoce dostosowanych doświadczeń klientów.
  • American Express, od dawna przodując w zastosowaniu sztucznej inteligencji do wykrywania oszustw związanych z kartami kredytowymi, rozwija jej funkcje konsumenckie i B2B w swojej jednostce zależnej Amex Digital Labs.
  • Pentagon, w ramach swojej jednostki ds. technologii cyfrowych i sztucznej inteligencji, eksperymentuje z pięcioma modelami generatywnej sztucznej inteligencji, udostępniając im swoje tajne dane i testując je w celu zbadania, w jaki sposób mogą posłużyć do sugerowania kreatywnych opcji, których dowódcy wojskowi nigdy nie brali pod uwagę.
  • Duolingo używa opartego na technologii ChatGPT bota, aby pomagać swoim uczniom w nauce języków obcych. Czatbot ten oferuje szczegółowe wyjaśnienia, dlaczego odpowiedzi udzielone w testach praktycznych są poprawne lub niepoprawne, naśladując sposób, w jaki użytkownicy mogą wchodzić w interakcje z nauczycielem-człowiekiem.
  • Slack udostępnia czatbota, który ma pomagać pracownikom klientów uzyskiwać przydatne informacje i porady z korpusu wiedzy instytucjonalnej zawartej w kanałach Slack poszczególnych klientów.

Narzędzia generatywnej sztucznej inteligencji

Wprawdzie ChatGPT przyczynił się do popularyzacji generatywnej sztucznej inteligencji, ale istnieje jeszcze wiele innych narzędzi AI, które znajdują zastosowanie w różnych dziedzinach. W przypadku modeli LLM generujących tekst można tu wymienić OpenAI z wersją GPT-4, a także Anthropic' z modelem Claude, Google z modelem Gemini i Meta z modelem Llama 2, które pomagają w różnych zadaniach związanych z pisaniem. Modele LLM i narzędzia Cohere skupiają się na zastosowaniach związanych z przetwarzaniem języka naturalnego w przedsiębiorstwie. Modele Adobe Firefly, Midjourney 2 & 3, OpenAI Dall-E i Stable AI's Stable Diffusion tworzą bardzo realistyczne i kreatywne obrazy na podstawie promptów tekstowych, podczas gdy programiści mogą korzystać z asystentów Amazon CodeWhisperer, GitHub Copilo i Oracle APEX.

Istnieją również generatory audio, które tworzą muzykę oraz syntetyzują mowę i efekty dźwiękowe; modele LLM, które generują krótkie filmy wideo na podstawie podpowiedzi tekstowych, a także narzędzia, które tworzą modele 3D z obrazów 2D. Ale być może kategorią narzędzi, która ma największy wpływ na rzeczywistość, są agenty generatywnej sztucznej inteligencji, czyli rozwijane m.in. przez Oracle oprogramowanie, któremu można zlecić wykonanie określonych zadań, zbadanie otoczenia, podjęcie określonych działań i uczenie się na podstawie własnych doświadczeń.

Historia generatywnej sztucznej inteligencji

Co może być zaskakujące, pierwszy krok na drodze do dzisiejszych modeli generatywnej sztucznej inteligencji wykonano w 1943 r. — tym samym, w którym zademonstrowano pierwszy programowalny komputer elektryczny Colossus, używany potem przez Wielką Brytanię do odszyfrowywania tajnych wiadomości podczas II wojny światowej. Jednym z kamieni milowych w rozwoju sztucznej inteligencji był artykuł pt. „A Logical Calculus of Ideas Immanent in Nervous Activity (PDF)”, autorstwa Warrena McCullocha, psychiatry i profesora na University of Illinois College of Medicine, oraz Waltera Pittsa, samouka w dziedzinie neuronauki obliczeniowej.

Pitts, wybitny matematyk, uciekł z domu w wieku 15 lat i był bezdomny, ale spotkał na swojej drodze McCullocha, który przyjął go do swojej rodziny. Jedynym stopniem naukowym Pittsa był Associate of Arts przyznany mu przez Uniwersytet w Chicago po opublikowaniu pionierskiej pracy, która pokazała obliczenia, na bazie których sztuczny neuron „decyduje” o tym, czy zwróci wartość zero, czy jeden.

Drugi krok został wykonany w Buffalo, w stanie Nowy Jork, przez psychologa z Cornell Aeronautical Laboratory, Franka Rosenblatta. W ramach grantu przyznanego mu w lipcu 1957 r. przez Biuro Badań Marynarki Wojennej w Departamencie Marynarki Wojennej Stanów Zjednoczonych w ramach projektu Cornell PARA (Perceiving and Recognizing Automaton), Rosenblatt oparł się na matematyce McCullocha i Pittsa, aby opracować „perceptron” — sieć neuronową z pojedynczą warstwą „ukrytą” między warstwami danych wejściowych i wyjściowych. Przed zbudowaniem Perceptronu Mark I, który obecnie znajduje się w Instytucie Smithsona, Rosenblatt i naukowcy z Marynarki Wojennej przeprowadzili jego symulację na komputerze IBM 704 w ramach publicznej demonstracji w lipcu 1958 r. Perceptron był jednak tak prostą siecią neuronową, że wywołał krytykę ze strony informatyka z Massachusetts Institute of Technology, Marvina Minsky'ego, współzałożyciela laboratorium sztucznej inteligencji na MIT. Minsky i Rosenblatt podobno dyskutowali o długoterminowych perspektywach perceptronu na forach publicznych, w wyniku czego społeczność związana ze sztuczną inteligencją w dużej mierze porzuciła badania nad sieciami neuronowymi od lat 60. do lat 80. XX w.

Okres ten został nazwany „zimą sztucznej inteligencji”.

Odwilż w badaniach nad sieciami neuronowymi nastąpiła w latach 80. dzięki wysiłkom kilku badaczy, w szczególności Paula Werbosa, którego pierwsze dokonania ponownie odkryły perceptron, oraz Geoffreya Hintona, Yoshua Bengio i Yanna LeCuna. W wyniku połączonej pracy tych naukowców zademonstrowano możliwości dużych, wielowarstwowych sieci neuronowych i pokazano, w jaki sposób sieci te mogą uczyć się na podstawie poprawnych i niepoprawnych odpowiedzi poprzez przypisywanie punktów za pomocą algorytmu propagacji wstecznej. Wtedy właśnie pojawiły się sieci RNN i CNN. Ograniczenia tych wczesnych sieci neuronowych, w połączeniu z wygórowanymi oczekiwaniami, których nie można było spełnić ze względu na te ograniczenia i moc obliczeniową dostępną w tamtym czasie, doprowadziły do drugiej zimy sztucznej inteligencji w latach 90. i na początku XXI w.

Tym razem jednak wielu badaczy sieci neuronowych, w tym Hinton, Bengio i LeCun, nie zmieniło obranego kursu. Wspomniana trójka, czasami nazywana „ojcami chrzestnymi sztucznej inteligencji”, otrzymała nagrodę 2018 Turing Award za swoje prace z lat 80-tych oraz późniejszą wytrwałość i nieustanne badania. W połowie lat 2010. bardzo szybko zaczęły się pojawiać nowe i zróżnicowane warianty sieci neuronowych, które opisano w sekcji „Modele generatywnej sztucznej inteligencji”.

Przyszłość generatywnej sztucznej inteligencji

Nie znamy jeszcze wpływu generatywnej sztucznej inteligencji na przedsiębiorstwa i sposób pracy człowieka. Jedno jest jednak pewne: ogromne inwestycje w generatywną sztuczną inteligencję obejmą wiele wymiarów ludzkiej działalności. Fundusze venture capital, przedsiębiorstwa o ugruntowanej pozycji i praktycznie wszystkie inne podmioty gospodarcze w zawrotnym tempie inwestują w startupy zajmujące się generatywną sztuczną inteligencją. Uniwersalną „magią” modeli LLM jest niesamowita zdolność do pośredniczenia w interakcji człowieka z dużymi zbiorami danych, aby pomagać ludziom w zrozumieniu informacji poprzez wyjaśnianie ich w prosty, jasny i zadziwiająco szybki sposób. Sugeruje to, że generatywna sztuczna inteligencja zostanie osadzona w wielu istniejących aplikacjach i przyczyni się do powstania kolejnej fali nowych aplikacji.

Firma analityczna Gartner przewiduje na przykład, że do 2024 r. 40% aplikacji dla przedsiębiorstw będzie mieć wbudowaną konwersacyjną sztuczną inteligencję, do 2025 r. 30% przedsiębiorstw będzie mieć strategie rozwoju i testowania oparte na sztucznej inteligencji, a do 2026 r. ponad 100 mln pracowników będzie ze sztucznej inteligencji korzystać.

Możliwe jest oczywiście, że istniejące ryzyko i ograniczenia generatywnej sztucznej inteligencji wykoleją cały ten technologiczny pociąg. Dostrojenie modeli generatywnej sztucznej inteligencji do niuansów poszczególnych przedsiębiorstw może okazać się zbyt trudne, stosowanie tak intensywnych obliczeniowo modeli może okazać się zbyt kosztowne, a nieumyślne ujawnienie tajemnic handlowych może odstraszyć użytkowników od tej technologii.

Możliwe jest również urzeczywistnienie się tego wszystkiego, ale w tempie wolniejszym, niż oczekiwane obecnie przez wielu obserwatorów. Dla przypomnienia, obietnica powstania Internetu została w końcu zrealizowana. Zajęło to jednak dekadę dłużej niż przewidywało pierwsze pokolenie entuzjastów, podczas której zbudowano lub wynaleziono niezbędną infrastrukturę, a użytkownicy dostosowali swoje zachowanie do możliwości nowego środka przekazu. Pod wieloma względami generatywna sztuczna inteligencja jest kolejnym nowym środkiem przekazu.

Influencerzy rozważają przyszłość generatywnej sztucznej inteligencji w biznesie w szerokiej perspektywie.

„Może to oznaczać, że w przyszłości będziemy budować przedsiębiorstwa w inny sposób” — stwierdził Sean Ammirati, inwestor venture capital, który jest również uznanym profesorem przedsiębiorczości w Tepper School of Business na Carnegie Mellon University i współzałożycielem tamtejszego laboratorium startupów Corporate Startup Lab. Ammirati przewiduje, że w ten sam sposób, w jaki natywne cyfrowo przedsiębiorstwa miały przewagę po pojawieniu się Internetu, przedsiębiorstwa zbudowane od podstaw na bazie automatyzacji opartej na generatywnej sztucznej inteligencji będą w stanie zająć pozycje liderów.

„Przedsiębiorstwa te będą zorientowane na automatyzację, nie będą zatem musiały na nowo uczyć się, jak eliminować wykonywane ręcznie czynności na rzecz czynności zautomatyzowanych” — podsumował Ammirati. „W rezultacie może powstać całkiem nowy typ przedsiębiorstwa”.

Łatwe wdrożenie generatywnej sztucznej inteligencji dzięki rozwiązaniom Oracle

Oracle nie tylko ma wieloletnie doświadczenie w rozwijaniu funkcji sztucznej inteligencji i integrowaniu ich w swoich produktach, ale jest także liderem w pracach rozwojowych związanych z tą technologią. Generatywna sztuczna inteligencja to w pełni zarządzana usługa infrastruktury Oracle Cloud Infrastructure, która oferuje zestaw najnowocześniejszych, konfigurowalnych modeli LLM obejmujących szeroki zakres zastosowań, w tym czat, generowanie tekstu, podsumowywanie i tworzenie wektorów tekstowych. Dziesiątki agentów sztucznej inteligencji wbudowanych w aplikacje Oracle Fusion Cloud (kolejne są regularnie dodawane) umożliwiają przedsiębiorstwom zastosowanie generatywnej sztucznej inteligencji tam, gdzie jest potrzebna, bez odchodzenia od używanych na codzień aplikacji ERP, aplikacji do obsługi sprzedaży, marketingu i innych rozwiązań.

Możesz wypróbować infrastrukturę OCI bezpłatnie, aby przetestować gotowe do użycia wstępnie wytrenowane modele lub tworzyć i hostować własne, precyzyjnie dostrojone modele niestandardowe na podstawie własnych danych na dedykowanych klastrach AI.

Innowacje w zakresie generatywnej sztucznej inteligencji szybko przyspieszają, ponieważ przedsiębiorstwa z różnych branż z nią eksperymentują i w nią inwestują. Wraz ze zdolnością do znacznego usprawnienia pracy i życia, generatywna sztuczna inteligencja niesie jednak ze sobą ogromne ryzyko, począwszy od likwidacji miejsc pracy, a skończywszy — jeśli wierzyć sceptykom — na potencjalnym wyginięciu rodzaju ludzkiego. To, czego jesteśmy pewni, to fakt, że dżin wyszedł z butelki i już do niej nie wróci.

Co sprawia, że rozwiązania Oracle najlepiej nadają się do zastosowania generatywnej sztucznej inteligencji?

Rozwiązania Oracle oferują nowoczesną platformę danych oraz niedrogą, ale wydajną infrastrukturę do obsługi rozwiązań korzystających ze sztucznej inteligencji. Dodatkowe czynniki, w tym zaawansowane, wydajne modele, doskonałe zabezpieczenia danych i wbudowane usługi sztucznej inteligencji pokazują, dlaczego oferta Oracle w zakresie sztucznej inteligencji została rzeczywiście stworzona z myślą o przedsiębiorstwach.

Generatywna sztuczna inteligencja — często zadawane pytania

Czym jest generatywna sztuczna inteligencja?

Generatywna sztuczna inteligencja to technologia oparta na architekturze sieci neuronowych, która naśladuje sposób działania ludzkiego mózgu. Wspomniane sieci neuronowe są trenowane poprzez wprowadzanie do nich ogromnych ilości danych w stosunkowo małych próbkach. Następnie sztuczna inteligencja ma za zadanie dokonywać prostych przewidywań, takich jak wskazanie następnego słowa w sekwencji lub prawidłowej kolejności sekwencji zdań. Sieć neuronowa otrzymuje nagrodę lub karę za dobre i złe odpowiedzi, ucząc się w ten sposób do momentu, aż będzie zdolna do dokonywania prawidłowych prognoz. W ostatecznym rozrachunku technologia ta na podstawie swoich danych treningowych uczy się reagować na zadawane pytania i inne wprowadzane prompty w sposób zbliżony do ludzkiego.

Co jest przykładem generatywnej sztucznej inteligencji?

Najbardziej znanym obecnie przykładem generatywnej sztucznej inteligencji jest ChatGPT — czatbot, który jest w zdolny do prowadzenia rozmów i pisania na wiele różnych tematów. Innymi przykładami sztucznej inteligencji są narzędzia Midjourney i Dall-E, które tworzą obrazy, a także wiele innych narzędzi, które mogą generować teksty, obrazy, filmy i dźwięki.

Czym generatywna sztuczna inteligencja różni się od sztucznej inteligencji?

Generatywna sztuczna inteligencja zasadniczo nie różni się od tradycyjnej sztucznej inteligencji; istnieją one jedynie w różnych punktach spektrum. Tradycyjne systemy sztucznej inteligencji zazwyczaj służą do wykonywania określonych zadań, takich jak wykrywanie oszustw związanych z kartami kredytowymi. Systemy generatywnej sztucznej inteligencji mają natomiast szerszy zakres działania i są zdolne do tworzenia nowych treści. Częściowo wynika to z faktu, że narzędzia generatywnej sztucznej inteligencji są trenowane na większych i bardziej zróżnicowanych zestawach danych niż tradycyjna sztuczna inteligencja. Ponadto tradycyjna sztuczna inteligencja jest zazwyczaj trenowana przy użyciu nadzorowanych technik uczenia się, podczas gdy generatywna sztuczna inteligencja jest trenowana przy użyciu technik nienadzorowanych.

Jakie zagrożenia niesie ze sobą generatywna sztuczna inteligencja?

W społeczeństwie toczy się obecnie poważna debata na temat możliwych zagrożeń związanych z generatywną sztuczną inteligencją. Radykałowie po jej przeciwnych stronach twierdzą, że technologia ta może z jednej strony doprowadzić do wyginięcia rodzaju ludzkiego, a z drugiej — uratować świat. Bardziej prawdopodobne jest, że sztuczna inteligencja doprowadzi do likwidacji wielu obecnych miejsc pracy. Przedsiębiorstwa powinny interesować się sposobami, w jakie generatywna sztuczna inteligencja będzie wpływać na zmiany w procesach pracy i rolach zawodowych, a także możliwością nieumyślnego ujawnienia prywatnych lub wrażliwych informacji lub naruszenia prawa autorskiego.

Do czego przydatna jest generatywna sztuczna inteligencja?

Generatywna sztuczna inteligencja może być bardzo przydatnym narzędziem dla pracowników i pomagać im na przykład w generowaniu nowych pomysłów lub kształceniu się w pokrewnych dziedzinach. Ponadto pozwala ludziom na szybszą analizę danych bez struktury. W bardziej ogólnym ujęciu może przynieść korzyści przedsiębiorstwom, zwiększając produktywność, redukując koszty, poprawiając zadowolenie klienta, dostarczając lepszych informacji do podejmowania decyzji i zwiększając tempo rozwoju produktów.

Czego generatywna sztuczna inteligencja nie może zrobić?

Generatywna sztuczna inteligencja nie może mieć prawdziwie nowych pomysłów, czyli takich, które nie zostały wcześniej zawarte w danych treningowych lub przynajmniej z nich ekstrapolowane. Nie może być również pozostawiona sama sobie. Wymaga nadzoru ludzi i najlepiej sprawdza się we współpracy z człowiekiem.

Jakie sektory korzystają z generatywnej sztucznej inteligencji?

Ze względu na swój szeroki zakres, generatywna sztuczna inteligencja może być przydatna w praktycznie każdym sektorze gospodarki.

Jak generatywna sztuczna inteligencja wpłynie na przyszłość pracy?

Generatywna sztuczna inteligencja prawdopodobnie będzie mieć duży wpływ na pracę opartą na wiedzy, czyli działania, w ramach których ludzie współpracują ze sobą lub podejmują decyzje biznesowe. Role pracowników merytorycznych będą musiały zostać co najmniej dostosowane do współpracy z narzędziami generatywnej sztucznej inteligencji, przy czym niektóre stanowiska pracy zostaną zlikwidowane. Z doświadczeń historycznych wynika jednak, że zmiany technologiczne, takie jak te oczekiwane w związku z generatywną sztuczną inteligencją, zawsze prowadzą do utworzenia większej liczby miejsc pracy niż liczba miejsc zlikwidowanych.