POIT #238: Generative AI: Halucynacje czy rewolucja w komunikacji, tworzeniu UI aplikacji i edukacji technologicznej?

Witam w dwieście trzydziestym ósmym odcinku podcastu „Porozmawiajmy o IT”. Tematem dzisiejszej rozmowy jest generative AI: halucynacje czy rewolucja w komunikacji, tworzeniu UI aplikacji i edukacji technologicznej.

Dziś moim gościem jest Tomasz Gawronposiada wieloletnie doświadczenie w badaniach i wdrożeniach technologii, specjalizujący się w robotyce i sztucznej inteligencji. Od 2013 do 2021 roku zajmował się planowaniem ruchu, nieliniowymi systemami sterowania i AI, współpracując z takimi firmami jak Solaris Bus & Coach czy Forcom. W ostatnich latach jako AI Lead w Wunderman Thompson Commerce & Technology, skupiał się na zastosowaniach Generative i Curative AI. Obecnie pełni rolę Head of AI w XTB gdzie zajmuje się zastosowaniami sztucznej inteligencji.

Sponsor odcinka

Sponsorem odcinka jest XTB.

W tym odcinku o generative AI w następujących kontekstach:

  • jak rozwój generative AI wpływa na interfejsy użytkownika?
  • jakie wyzwania stoją przed organizacjami wdrażającymi generative AI do produktów?
  • jakie ryzyka niesie za sobą wykorzystanie generative AI?
  • czym są halucynacje large language models?
  • czy rozwój AI stał się już domeną wyłącznie megakorporacji?
  • jak postępy z ostatnich miesięcy przekładają się na branżę IT?
  • czy przeżyjemy więcej przełomowych momentów takich jak premiera ChatGPT?
  • jak rynek pracy w branży IT reaguje i odpowiada na rozwój AI?
  • jakie są obecne kierunki rozwoju generative AI?

Subskrypcja podcastu:

Linki:

Wsparcie na Patronite:

Wierzę, że dobro wraca i że zawsze znajdą się osoby w bliższym lub dalszym gronie, którym przydaje się to co robię i które zechcą mnie wesprzeć w misji poszerzania horyzontów ludzi z branży IT.

Patronite to tak platforma, na której możesz wspierać twórców internetowych w ich działalności. Mnie możesz wesprzeć kwotą już od 5 zł miesięcznie. Chciałbym oddelegować kilka rzeczy, które wykonuję przy każdym podcaście a zaoszczędzony czas wykorzystać na przygotowanie jeszcze lepszych treści dla Ciebie. Sam jestem patronem kilku twórców internetowych i widzę, że taka pomoc daje dużą satysfakcję obu stronom.

👉Mój profil znajdziesz pod adresem: patronite.pl/porozmawiajmyoit

Pozostańmy w kontakcie:

 

Muzyka użyta w podcaście: „Endless Inspiration” Alex Stoner (posłuchaj)

Transkrypcja podcastu

To jest 238. odcinek podcastu Porozmawiajmy o IT, w którym z moim gościem rozmawiamy o Generative AI w kontekście tego, czy to tylko halucynacje, czy może rewolucja w komunikacji, tworzeniu UI, aplikacji i edukacji technologicznej.

Sponsorem tego odcinka jest XTB. Notatkę, linki oraz transkrypcję do dzisiejszego odcinka znajdziesz pod adresem porozmawiajmyoit.pl/238.

Podcast Porozmawiajmy o IT  jest dostępny zupełnie za darmo. Obowiązuje tylko jedna zasada: Jeśli jesteś tu przynajmniej po raz drugi, to po pierwsze rozgość się, a po drugie odwdzięcz za te treści, wystawiając ocenę w Twojej aplikacji podcastowej lub polecając odcinek w social mediach. Dziękuję.

Ja się nazywam Krzysztof Kempiński. Moją misją jest poszerzanie horyzontów ludzi z branży IT, co realizuję m.in. poprzez ten podcast. A teraz zapraszam Cię już do odcinka.

Odpalamy!

 

Cześć! 

Mój dzisiejszy gość posiada wieloletnie doświadczenie w badaniach i wdrożeniach technologii, specjalizuje się w robotyce i sztucznej inteligencji. Od 2013 do 2021 roku zajmował się planowaniem ruchu, nielinowymi systemami sterowania i AI, współpracując z takimi firmami jak Solaris Bus & Coach czy Forcom. W ostatnich latach jako AI lead w Wunderman Thompson Commerce & Technology skupiał się na zastosowaniach Generative i Creative AI. Obecnie pełni rolę head of AI w XTB, gdzie zajmuje się zastosowaniami sztucznej inteligencji. Moim i Waszym gościem jest Tomasz Gawron. 

Cześć, Tomku, bardzo miło mi gościć Cię w podcaście. 

 

Cześć, witaj! Również bardzo mi miło z Tobą tutaj być.

 

Dzisiaj z Tomkiem będziemy rozmawiać o Generative AI, czyli o temacie, który jest bardzo popularny, ale myślę, że warto o nim mówić, żeby odczarować nieco to powszechne pojmowanie. Dzisiaj spojrzymy właśnie na Generative AI z takiej perspektywy, czy to faktycznie są halucynacje tylko, czy może realna rewolucja w komunikacji, w tym jak tworzy się albo będzie tworzyło interfejsy aplikacji i też rewolucja w podejściu do edukacji technologicznej. Więc bardzo rozbudowany temat i myślę, że tutaj korzystając z doświadczenia Tomka, będziemy w stanie na to pytanie odpowiedzieć. 

Tomku, na początku jednak tak jak każdego mojego gościa, chciałbym Cię zapytać, czy słuchasz podcastów. Jeśli tak, to może masz jakieś ciekawe audycje, o których tutaj warto powiedzieć i zarekomendować słuchaczom? 

 

Jeżeli chodzi o podcasty, to jest to takie tło do pracy, którego często słucham. Przyznam, że nie słucham podcastów technologicznych. Najczęściej są to jakieś podcasty true crime, więc tutaj być może jest kilka rekomendacji, chociaż są one dosyć mainstreamowe. Pewnie np. podcast Olgi Herling. Jeżeli chodzi o taką informację technologiczną czy naukową, to zazwyczaj ona na tyle skupienia ode mnie wymaga, że jednak jest to w jakichś takich timeboxach już po pracy i w takiej formie, powiedziałbym, modalności wizyjnej. Lubię przeczytać, lubię zobaczyć rysunek. Jeżeli o tym słyszę, to to wszystko mi się rozmywa. 

 

Super, dzięki za te rekomendacje. Na początku chciałbym Cię zapytać o takie pojmowanie AI jako nowego interfejsu użytkownika. Jesteśmy pewnie bardzo mocno przyzwyczajeni do klawiatury i myszki, natomiast faktycznie AI pozwala nam w nieco inny sposób wchodzić w interakcję z technologią. I właśnie, czy ta generatywna sztuczna inteligencja ma szansę się przełożyć na to, jak są projektowane, jak wyglądają interfejsy użytkownika i w efekcie przełożyć się na to, jak człowiek z maszyną się komunikuje? 

 

Myślę, że tak. Myślę, że tutaj jest właściwie kilka sposobów, na jakich to przełożenie może wystąpić. Pierwszy to to, że tak jak wspomniałeś, jesteśmy przyzwyczajeni do klawiatury, myszki, jesteśmy też przyzwyczajeni do interfejsów werbowych czy okienkowych. Mamy już od bardzo młodego wieku takie mocne sprzężenie haptyczne między tym, co klikamy, co widzimy i jak to się zmienia. I dopiero od niedawna zaczynamy się przyzwyczajać do tego, że możemy również w taki sposób płynny z tą maszyną porozmawiać. 

I moim zdaniem to niesie bardzo ciekawe wyzwania, bo dopiero eksplorujemy, być może jeżeli chodzi o takich mainstreamowych deweloperów, to czy w danym zastosowaniu lepiej jest właśnie pisać, czy mówić do maszyny, czy lepiej jest tak naprawdę korzystać z takich konwencjonalnych zachowań. 

My np. w XTB, jak budujemy jakieś narzędzia wewnętrzne, to często korzystamy z takiego hybrydowego podejścia, gdzie można z jakimś narzędziem poczatować, ale np. tacy tzw. power userzy też mogą poznać pewne komendy, które pozwalają czy to skrócić tę interakcję, czy to w jakiś sposób ją wzbogacić dzięki temu, że mogą bardzo precyzyjnie powiedzieć temu systemowi, o co mu chodzi dzięki tym komendom. 

I tutaj właśnie też moim zdaniem leży największe wyzwanie, być może. Jest to wyzwanie, które mógłbym określić w taki sposób: Wraz z tym otwarciem i wraz z takim obniżeniem poprzeczki, które ewidentnie jest spowodowane przez takie czatowe interfejsy, tracimy dokładność tej interakcji i tracimy też dokładność przekazywanych intencji. W związku z tym powstaje taka sytuacja, w której musimy inaczej podejść do budowania doświadczeń użytkownika. Ten UX naszych aplikacji powinien gdzieś tam mieć wbudowane w sobie to, że ta interakcja będzie trochę taka jak między dwójką ludzi. Będą mogły w nim wystąpić pomyłki, będzie musiała być w jakiś sposób poprawiona czy naprostowana. I wreszcie też ten nasz użytkownik powinien gdzieś tam cały czas być z tyłu informowany o tym, że właśnie w ten sposób powinien tę interakcję traktować. 

Natomiast moim zdaniem to jest tylko część, bo jeżeli chodzi o UX czy w ogóle doświadczenia użytkownika, to to, co Generative AI niesie ze sobą, to również drastyczny spadek zasobów, jakie są potrzebne do budowania niektórych rozwiązań. To, że możemy relatywnie tanio już i bez ingerencji człowieka generować warianty różnych obrazów, czy też potencjalnie rekomendować różne treści, czy nawet przeredagowywać te treści, powoduje, że coraz częściej widzimy produkty, które chcą się rozwijać w stronę hiperpersonalizacji. Czyli budowania, Krzysztofie, takiego doświadczenia, które jest unikalne na Twoim ekranie, unikalne dla Ciebie i idące dużo dalej niż to, co np. robią takie usługi jak Netflix, gdzie dostajesz, powiedzmy, rekomendacje filmów czy treści, które chcesz zobaczyć. 

To te same treści są modyfikowane i w ogóle układ, w jakim one są przedstawione pod to, jakim Ty jesteś użytkownikiem i czego potencjalnie Ty potrzebujesz. W asymptocie można powiedzieć, że gdzieś być może za jakiś czas zobaczymy aplikacje, dla których tak naprawdę części UI-a będą mało przewidywalne, bo np. dashboard jakiejś aplikacji będzie kompletnie inny dla różnych klas użytkowników. 

 

To jest fascynujące, jak dwie strony tej interakcji, tej komunikacji się właśnie zmieniają. Tak jak mówisz, AI, który jest w stanie wręcz modyfikować w nieprzewidywalny sposób interfejs, ale też dużo słyszy się teraz o takich badaniach, czy wręcz można powiedzieć takich doświadczeniach ludzi, którzy właśnie wchodzą w interakcję z szeroko rozumianym AI, którzy to zmieniają sposób właśnie komunikowania się, nie traktują już tej drugiej strony jako takiej bezdusznej maszyny, ale właśnie czegoś na poły inteligentnego, prawda? I ta interakcja jest wówczas inna, ma nieco bardziej ludzkie, mogę powiedzieć, zabarwienie. To jest bardzo ciekawe, jak to się będzie jeszcze dalej rozwijało. 

Zacząłeś tutaj mówić o wyzwaniach i chciałbym może ten wątek pociągnąć. Przedstawiając Ciebie, bo wiem, że w różnych firmach, w których do tej pory miałeś okazję pracować, zajmowałeś się m.in. AI, albo w dużej mierze AI. Czy na bazie tych doświadczeń, które zebrałeś, jesteś w stanie powiedzieć, że organizacje stoją przed dużymi wyzwaniami właśnie związanymi z wdrażaniem AI? Czy to jest problematyczne, kłopotliwe? Jeśli tak, to najczęściej z czym muszą sobie poradzić? 

 

Myślę, że na pewno obserwujemy takie problemy czy wyzwania jeszcze wieku dziecięcego, jeżeli chodzi o wdrażanie sztucznej inteligencji. Mianowicie przede wszystkim to pole nie jest jeszcze mocno uregulowane. Wchodzą tutaj oczywiście różne akty prawne, te wszystkie instytucje regulacyjne zaczynają doganiać bardzo nagły rozwój technologii w ostatnich dwóch latach, ale jednak w bardzo wielu wypadkach trzeba się mocno zastanawiać nad tym, jakie konsekwencje mogą się pojawić w przypadku jakiegoś błędnego zrozumienia odpowiedzi od Generative AI. 

Jeżeli mamy np. jakiś system wsparcia klienta, to oczywiste jest, że jesteśmy w stanie namierzyć tę osobę, która popełniła błąd w tej interakcji, jeżeli ta jakaś osoba reprezentuje firmę. Ale jeżeli firmę reprezentuje bot, powstaje pytanie, gdzie jest ta odpowiedzialność i też jak wiele my od tego bota, jako klient z kolei takiej firmy, możemy wymagać. I tutaj to jest, wydaje mi się, jeden z największych obecnie bóli, jakie doświadczają firmy próbujące wdrożyć AI, że jednak jest to technologia, która ma w sobie wbudowany pewien niedeterminizm. Podobnie jak my ludzie, AI popełnia pomyłki, halucynuje. Czyli tak naprawdę generuje informacje, które są bez żadnego pokrycia w rzeczywistości. I wreszcie nie jesteśmy w stanie do końca przewidzieć, jak systemy tego typu zachowają się dla danych wyjściowych, których przedtem chciał. 

Tak więc tutaj potrzebna jest też w pewnym sensie zmiana kulturowa, którą dana organizacja musi sprowokować po obu stronach. Po stronie swojego użytkownika, żeby gdzieś tam ten użytkownik zabudował w sobie pewną elastyczność na tej interakcji, o której wspominaliśmy, ale również po stronie samej organizacji. Nagle procesy testowania aplikacji stają się bardziej złożone. Nagle okazuje się, że aplikacje wdrożone, przetestowane, działające w jakichś tam środowiskach fazy produkcyjnych mogą zacząć działać gorzej z tego powodu, że zmieniły się jakieś uwarunkowania na rynku, uwarunkowania klientów i po prostu klienci inaczej rozmawiają z tymi aplikacjami. 

Jest tutaj dużo tej niepewności. I w mojej ocenie ta niepewność często jeszcze w pewien sposób potrafi przerażać. Oczywiście też naturalnie, tak jak z innymi technologiami, które są w jakiś sposób powiązane z obliczeniami na wysoką skalę, są też tutaj takie wyzwania związane ze skalowaniem, z utrzymaniem tych zasobów obliczeniowych i cała inżynieria. Natomiast wydaje mi się, że my jesteśmy jako software developerzy dużo bardziej przygotowani po tej stronie inżynierskiej, natomiast jest to wielkie pole do zagospodarowania, jeżeli chodzi o taką ewangelizację tej technologii i właśnie znajdowanie, powiedziałbym, dobrze wypośrodkowanych use case’ów, które to mają w sobie zabudowaną gdzieś pewną odporność na ten determinizm. 

Więc myślę, że tutaj jeszcze jest też duże pole do rozwoju dla zarówno developerów, jak i prawdopodobnie menedżerów w takiej ewangelizacji. 

Jeżeli mamy np. jakiś system wsparcia klienta, to oczywiste jest, że jesteśmy w stanie namierzyć tę osobę, która popełniła błąd w tej interakcji, jeżeli ta jakaś osoba reprezentuje firmę. Ale jeżeli firmę reprezentuje bot, powstaje pytanie, gdzie jest ta odpowiedzialność i też jak wiele my od tego bota, jako klient z kolei takiej firmy, możemy wymagać. I tutaj to jest, wydaje mi się, jeden z największych obecnie bóli, jakie doświadczają firmy próbujące wdrożyć AI, że jednak jest to technologia, która ma w sobie wbudowany pewien niedeterminizm. Podobnie jak my ludzie, AI popełnia pomyłki, halucynuje. Czyli tak naprawdę generuje informacje, które są bez żadnego pokrycia w rzeczywistości.

 

Ta nieprzewidywalność, którą tutaj przywołałeś, jest zastanawiająca, ponieważ z jednej strony może być to argument na tak, z drugiej strony argument na nie. W takim sensie, że poszukujemy właśnie tej nieprzewidywalności w kreowaniu obrazów, tekstów, chcemy dostać coś, czego jeszcze nie było, coś, co będzie pewną inspiracją dla nas, coś, co jest trochę właśnie nieprzewidywalne. A z drugiej strony w pewnych zastosowaniach chcielibyśmy móc, żeby ta sztuczna inteligencja dawała nam właśnie przewidywalne efekty i to na tym etapie inżynierii, jak powiedziałeś, kiedy chcielibyśmy, żeby testy przechodziły nam po raz kolejny pozytywnie, na podstawie tego samego inputu, tego samego wkładu, ale też w pewnych zastosowaniach, gdzie ma to bardzo istotne znaczenie, sądownictwo może być pewnie jednym z takich obszarów. 

Chciałbym Cię zapytać w związku z tym o ryzyka, które są związane z wykorzystaniem Generative AI. O jakich może obszarach takich ryzyk możemy powiedzieć? 

 

Częściowo już tego dotknęliśmy przed chwilą, kiedy mówiliśmy o tych właśnie obszarach compliance, gdzie mamy te niepewne regulacje, gdzie jednocześnie mamy też właśnie tę kwestię, co się stanie, jeżeli maszyna się pomyli. Natomiast ja myślę, że są też ryzyka dalece bardziej zaawansowane, które to mogą mieć też duże konsekwencje, a o których jeszcze tak często nie myślimy. 

Po pierwsze, wydaje mi się, że jesteśmy niejako skazani na to, że pozostając w takiej technologii, rozwijając te modele, będziemy odkrywali pewne obciążenia danych, które do nas spływają. Bardzo ważne jest, żebyśmy traktowali te obciążenia w sposób poważny. Co to znaczy? To znaczy, wydaje mi się, że organizacje pracujące nad takimi technologiami powinny bezpośrednio dedykować swój czas, żeby badać dane, które zbierają pod kątem takich obciążeń i żeby przeciwdziałać temu, żeby one miały swoje konsekwencje w dalszych rekomendacjach generowanych przez te modele. 

Tzn. mamy tutaj np. taki konkretny scenariusz, który wydarzył się w rządzie holenderskim, jeżeli dobrze pamiętam. Tam mianowicie miała miejsce taka sytuacja, że model machine learningowy rekomendował, komu należy przyznać pomoc społeczną – w telegraficznym skrócie, tutaj było na pewno jeszcze więcej etapów. I okazuje się, że w danych tam pewne właśnie obciążenie związane z tym, skąd pochodzą osoby, które o taką pomoc występują, się pojawiło, i przez długi czas na tej podstawie ludzie podejmowali decyzje. To jest coś, co jest bardzo niebezpieczne moim zdaniem, bo nie jest to bezpośrednio widziane często przez klienta naszej organizacji, a jest to taki efekt, który przejawia się i w produkcie, i w tym, co dostaje nasz klient poprzez procesy business intelligence, gdzie na podstawie tak naprawdę obciążonych danych wyciągamy nieprawidłowe wnioski. 

To jest szczyt. To jest, szczerze mówiąc, kwestia, która nie jest tak naprawdę powiązana tylko z Generative AI, to już było lata temu. Teraz natomiast dzieje się to po prostu w większej skali i szybciej. 

Wydaje mi się też, że jest jeszcze kwestia całej klasy ryzyk powiązanej z tym, że w przypadku aplikacji, które utrzymują jakieś wrażliwe dane, które pracują w jakichś regulowanych domenach, korzystając z AI, otwieramy się na całą nową klasę ataków. Można zrobić bardzo, powiedziałbym, różne, nieprzewidywalne rzeczy z modelami AI, i teraz bardzo ważne jest, żeby procesy zarządzania danymi i dostępu do danych były w organizacji stosującej AI na dużą skalę już wcześniej rozwinięte. 

Jeżeli tego nie ma, to jest też szansa, że po prostu nie będziemy wiedzieli, jak szeroko Generative AI wpływa na naszą obecną procedurę pracy. 

 

Postawiliśmy sobie dzisiaj pytanie, czy Generative AI to jest tylko wielki worek halucynacji. Myślę, że warto teraz ten worek otworzyć i faktycznie przyjrzeć się temu zagadnieniu, bo pewnie zgodzisz się ze mną, że to słowo halucynacja jest przynajmniej kandydatem na słowo roku. Teraz wszędzie się o nim słyszy i jest, mam wrażenie, pewnego rodzaju uzasadnieniem danych, czy też, można powiedzieć, rezultatów działania AI, których się gdzieś tam nie spodziewamy. Właśnie, może spróbujmy sobie powiedzieć, czym są te halucynacje LLM-ów, jakie są metody, żeby sobie z tym problemem poradzić. 

 

Jeżeli chodzi o halucynacje, przy takiej klasycznej definicji, klasycznym pojmowaniu faktycznie bardzo wiele osób sprowadza się do LLM-ów. Natomiast warto wiedzieć, że nie tylko w przypadku modeli językowych takie halucynacje mogą występować. Co do zasady, my zakładamy, że czy to model językowy, czy to model generujący obrazy, czy to model generujący jakiekolwiek nawet prognozy w szeregach czasowych, będzie nam dawał informacje, które są w jakiś sposób wyjaśnialne i umocowane w rzeczywistości. 

O tej wyjaśnialności to też jeszcze można mówić bardzo długo, natomiast co do tego umocowania w rzeczywistości chodzi nam o to, że powinny to być takie wnioski, do których my sami również możemy dojść i możemy je potencjalnie sprawdzić. Oczywiście w tym wypadku, kiedy to jest w ogóle możliwe jeszcze do objęcia umysłem przez człowieka. 

I jak wiemy, te modele generatywne są w zdecydowanej swojej większości autoregresywne, czyli takie, że tak naprawdę na podstawie swoich poprzednich wyjść generują kolejne wyjścia i tym samym one mogą niczym człowiek się rozgadać czy rozgenerować i troszeczkę odejść od tego, co my uważamy za prawdę czy rzeczywistość. 

I tutaj pojawia się właśnie moim zdaniem bardzo ciekawe zagadnienie, bo z jednej strony jest to inherentna cecha takich modeli, ale z drugiej strony jest to moim zdaniem też inherentna cecha nas, tego, jak my generujemy kontekst, w jakim się taki model porusza i w jaki sposób my takiemu modelowi sugerujemy, jak nam powinien odpowiadać. 

Bardzo często jest tak, że można te halucynacje bardzo mocno zredukować, będąc po prostu bardziej precyzyjnym w tym, jak my specyfikujemy zadania dla takich modeli, i również stosując taką technikę Retrieval Augmented Generation, czyli tak naprawdę korzystając z szeroko pojętych baz danych, żeby podać dodatkową informację wyjściową, na podstawie której taki model może rozumować. 

Tak więc można powiedzieć, że jest to taki efekt, który będzie występował w tych modelach dalej, i można go w pewnych określonych scenariuszach edukować, natomiast chciałem też ci powiedzieć, Krzysztofie, o tym, że moim zdaniem nie zawsze jest to w ogóle efekt negatywny. Ja pamiętam, jak zaczynaliśmy pracę z takimi modelami, jak docieraliśmy do jakichś tam pierwszych modeli generujących obrazy, jak community AI-owe cieszyło się z tego, że te modele halucynują, że one śnią, że potrafią sobie wygenerować jakąś alternatywną wersję rzeczywistości czy alternatywny model świata, którego emanację my widzimy jako output tego modelu. 

Do dziś są ludzie w organizacjach, z którymi współpracuję, którzy w taki sposób, powiedziałbym, kreatywny używają modeli tego typu. Tzn. traktują taki model jak asystenta, który może wyśnić czy wygenerować jakiś pomysł, czy też jakiś koncept artystyczny, na który ja bym nie wpadł i który generalnie nie jest szeroko formowany. Są nawet całe frameworki software’owe zbudowane właśnie wokół tego pomysłu, jak np. pisać w sposób najbardziej kreatywny, jak zestawiać ze sobą w zdaniach takie pojęcia, których ludzie zazwyczaj nie zestawiają. 

Więc tutaj, tak jak widać, wracamy do tego, co mówiliśmy wcześniej, do tego dobrania use case’u, bo są sytuacje, gdzie ta halucynacja nie przeszkadza, a nawet powiedziałbym, że wręcz jest wymagana. 

Bardzo często jest tak, że można te halucynacje bardzo mocno zredukować, będąc po prostu bardziej precyzyjnym w tym, jak my specyfikujemy zadania dla takich modeli, i również stosując taką technikę Retrieval Augmented Generation, czyli tak naprawdę korzystając z szeroko pojętych baz danych, żeby podać dodatkową informację wyjściową, na podstawie której taki model może rozumować. 

 

Okej, czyli wiemy już, że halucynacje są immanentną cechą tych modeli. Dla użytkowników, dla odbiorców, no właśnie różnie, czasem są problemem, czasem nie są, to zależy pewnie od zastosowania. Pytanie tylko, czy dla osób, które zajmują się AI, tak jak np. Ty, czy to jest problem, czy to jest coś, co wymaga zaadresowania, coś, co w ogóle nazywa się problemem? I czy to, że faktycznie LLM-y, i tak jak powiedziałeś szerzej, różne modele mają taką cechę, to czy to powoduje, że nie możemy wykorzystać ich w pewnych zastosowaniach? 

 

To jest na pewno zjawisko, które ja i inni w community chcielibyśmy kontrolować. Tworzymy jako machine learningowe community całe zestawy benchmarków, które są zbudowane właśnie tylko z myślą o tym, żeby pokazać, jak dobrze bądź jak źle można kontrolować to zjawisko w przypadku pewnych konkretnych modeli. I na pewno jest to rodzaj takiego stopera w pewnych zastosowaniach. 

Ja myślę, że to jest coś, co jest również źródłem skomplikowania w wielu naszych systemach. Wyobraźmy sobie np., że mamy jakiegoś właśnie chatbota, który odpowiada na podstawie jakiejś bazy dokumentów, coś, co jest teraz ogromnie popularne. Jeżeli taki chatbot ma odpowiadać i zakładamy, że on może się pomylić i że człowiek gdzieś tam będzie zawsze po nim sprawdzał i że pomyłka nie ma dużych konsekwencji, taki system jest relatywnie prosty do wytworzenia. Natomiast nakład sił potrzebny, żeby pokazać, że w pewnych konkretnych scenariuszach ten system potrafi określić, że czegoś po prostu nie wie, to jest już osobny, wieloosobowy projekt, gdzie muszą też pojawić się osoby testujące. Tak więc jak widać, jest to dla nas źródło pewnego skomplikowania. 

Natomiast moim zdaniem to też warto pomyśleć o tym, że często jest to skomplikowanie, które wynika ze skomplikowania samego problemu. Nie powinniśmy zapominać o tym, że AI i machine learning stosujemy tam, gdzie bardzo często to człowiek, jeśli może, objąć tej bazy wiedzy, o którą chcemy zapytać albo tej predykcji, którą chcemy uzyskać na podstawie setek czy często tysięcy zmiennych. Dlatego tutaj moim zdaniem warto na to patrzeć w taki sposób, że rozwiązujemy te zadania, których kilka lat temu rozwiązać nie mogliśmy. Jest to pewna mała cena, jaką musimy za to zapłacić. 

To też taka wskazówka dla nas inżynierów, żeby stosować AI właśnie tam, gdzie tego typu zadania występują. Moim zdaniem jest właśnie cała rzesza scenariuszy, które można w sposób prostszy lub trudniejszy zautomatyzować bez korzystania z Generative AI. Tam, gdzie jest to możliwe, moim zdaniem powinniśmy tak robić, bo na pewno obniża to koszty, podnosi przewidywalność, dokładność w wielu sytuacjach, no i wreszcie też w pewien sposób jest to bardziej ekologiczne, bo nie mówimy o tym za często, nie myślimy o tym, ale kiedy my się tam pytamy GPT-4 o przepis na jajecznicę, to cała farma GPU pracuje i przepala energię, żeby nam tej odpowiedzi po raz piąty tego dnia udzielić. 

 

No właśnie, tutaj dotykamy tego, kto tak naprawdę tworzy te duże modele, o to chciałbym Cię zapytać, bo wiesz, taki przysłowiowy Kowalski, Smith czy Brown chce korzystać właśnie z tego typu narzędzi, jak sobie zobaczy, kto za tym stoi, jakie organizacje, jakie firmy te modele stworzyły, no to zobaczy tam Google’a, OpenAI, Facebooka i wszystkich wielkich tego świata. W związku z tym, czy tutaj nie rodzi się też pewnego rodzaju ryzyko, że tylko właśnie te megakorporacje będą sterowały rozwojem AI, czy w ogóle jest to problem, czy może AI rozwija się również poza tymi wielkimi modelami, o których tutaj najwięcej słyszymy? 

 

Myślę, że obecnie jest to pewnego rodzaju ryzyko. Tutaj na pewno bym odłączył od siebie dwa aspekty. Jeden to taki, że ze względu na wymagania związane z wolumenem danych, jaki jest potrzebny, żeby takie duże modele promować, kosztami infrastruktury i też, powiem to myślę jasno, że również umiejętnościami osób pracujących w danym zespole, ze względu na to wszystko jesteśmy w stanie skazani na to, że jakieś większe organizacje będą tymi, które będą budowały tego typu rozwiązanie. 

Natomiast pozostaje pytanie, jakie organizacje powinny to być, jakie cele powinny tym organizacjom przyświecać, i wreszcie, jak te organizacje powinny się tymi wynikami dzielić. Obecnie faktycznie przechodzi ta wiedza i cała ta masa doświadczeń właśnie do dostawców cloudowych, czy do wielkich firm – mamy teraz tych wielkich graczy jak Google, OpenAI, albo właściwie już bardziej Microsoft i Antropic – i ewidentnie obserwujemy taką centralizację, natomiast moim zdaniem sama ta centralizacja nie jest zła, jeżeli pozostaje pewna gwarancja powszechnego dostępu, i też powszechnego rozprzestrzenienia wiedzy na temat tego, jakie przełomy naukowe powodują, że dostajemy nowe wersje takich modeli. 

Tutaj, jak widać w ostatnich miesiącach, to już nie zawsze tak jest. Te organizacje coraz mniej się dzielą takimi doświadczeniami. Natomiast ja myślę, że jest to balansowane przez taki naturalny efekt, który my obserwujemy w community open source’owym i również w community badaczy. Mianowicie na początku, kiedy wielkim osiągnięciem było zbudowanie w ogóle modelu czy LLM-a, który będzie w sensowny sposób odpowiadał, nikt nie patrzył na to, na ile ekonomiczne są te rozwiązania, które się pojawiają. Teraz wszyscy już na to patrzą, wszyscy chcą oczywiście oszczędzać jak najbardziej, tym samym te modele zaczynają się z czasem pomniejszać. 

Jak one się z powrotem pomniejszają, to prace nad nimi stają się coraz bardziej dostępne dla tych mniejszych, dla tych, jak to niektórzy trochę brzydko określają, dzikich i biednych?28:24 . Więc z czasem będziemy prawdopodobnie obserwować to, że state of the art będzie w rękach właśnie takich wielkich graczy, natomiast gdzieś nie tak daleko za tym będą pozostali, którzy to będą już mogli na dużo mniejszych zasobach operować, żeby uzyskiwać podobne wyniki. 

Ja bym sobie życzył, żeby było więcej takich inicjatyw, jak np. polski SpeakLeash. Mamy tutaj właśnie polski zespół, który we współpracy z AGH trenuje polskiego LLM-a, zebrał polski korpus tekstu, i właśnie tak zbudowana inicjatywa, też okołouczelniana, moim zdaniem w pewien sposób zabezpiecza nas i jest takim backupem na sytuację, kiedy coś niekorzystnego stanie się z tymi usługami, które dostarczają nam wielcy. 

 

Tak, to jest bardzo ważne, żeby faktycznie w te tematy inwestować. I tutaj myślę, że dotykamy tematu rozwoju AI, który to rozwój nawet dla osób postronnych, gdzieś tam z boku obserwujących tę dziedzinę, jest zadziwiająco szybki. Chciałbym Cię zapytać, jak to, co teraz obserwujemy, jak rozwój tych inicjatyw OpenAI, jak to, że Copilot się rozwija, Code Disparer się rozwija, inne tego typu modele, Gemini przecież od Google itd., jak wszystkie te zmiany, jak postęp w tych modelach wpływa na branżę IT? Czy ma szansę wpłynąć realnie na pracę data scientistów, data inżynierów, analityków, programistów? 

 

Myślę, że przede wszystkim to ludzie pracujący w IT dzielą się ciągle jeszcze na dwie grupy. Na tych, którzy już zrozumieli, że jest to zmiana, która się odbywa od pewnego czasu i my się gotujemy trochę jak takie żaby i już dużo się zmieniło, a my jeszcze nie do końca w to uwierzyliśmy, i na tę drugą grupę, która cały czas trwa w takim twardym wyparciu i mówi o tym, że te narzędzia zmienią niewiele. 

Moim zdaniem taka największa odczuwalna zmiana na rynku to to, że my zaczynamy od developerów wchodzących do branży wymagać coraz więcej. I to się moim zdaniem gwałtownie podniosło w ostatnim czasie, bo zaczynamy od nich wymagać, żeby oni troszeczkę rozumieli takie narzędzia, żeby umieli z nimi pracować, a jednocześnie obserwujemy to, że część takich prac wydaje się prostych, które mogłyby być robione przez takich wschodzących developerów, żeby się wprawić, my możemy zautomatyzować albo współautomatyzować. I wtedy rolę takiego stażysty ma właśnie Copilot, czy nawet GooGPT, czy jakieś wewnętrzne narzędzie wytworzone w danych organizacji. 

Tym samym obserwujemy, moim zdaniem, rodzaj takiej rodzącej się przepaści, gdzie mamy zaawansowanych inżynierów, którzy są w cenie i organizacje poszukują takich to inżynierów, a jednocześnie mamy inżynierów wchodzących na rynek, którzy mogą obserwować, że dla nich jest tego miejsca coraz mniej i nie do końca mogą widzieć jasną ścieżkę, jak stać się tym zaawansowanym inżynierem. 

Sądzę, że to jest taki nieunikniony efekt, który pewnie jakoś się odwróci w najbliższych latach, ale teraz na pewno raczej zaczyna się nasilać. 

Wydaje mi się też, że jako deweloperzy powinniśmy być spokojni o pracę dla nas, natomiast ta praca na pewno się zmieni i na pewno należy się coraz bardziej adaptować. Wydaje mi się, że coraz mniej jest takiego popytu na specjalistów, którzy są kompletnie zamknięci i wysokotechniczni, a coraz bardziej oczekuje się od nich, żeby oni troszeczkę wychodzili poza swoją domenę i wchodzili w coraz to lepszy dialog z ekspertami domenowymi i patrzyli też na architekturę rozwiązań. 

Coraz bardziej zbliżamy się do świata, gdzie pewne szczegóły implementacyjne będziemy mogli zdelegować na maszynę, oczywiście pod jednym warunkiem: jeżeli będziemy umieli tę maszynę sprawdzić. Tutaj, Krzysztofie, taka ciekawa rzecz à propos tych narzędzi, właśnie wszelkich. To, co obserwujemy w każdej organizacji, w jakiej właściwie byłem, to taki efekt, że z tych narzędzi najlepiej korzystają ci, którzy już wiedzą, co chcą zbudować, wiedzą, co chcą napisać, już kiedyś to zbudowali i mają pewną wiedzę, żeby właśnie nadzorować niejako tego swojego asystenta. 

Ci, którzy zaczynają, nie widzą tak naprawdę dużego wzrostu produktywności. Widzą pewien aspekt edukacyjny, ale ich tempo pracy się nie zmienia. W związku z tym, z tego taki wniosek logiczny, że jednak dobrze wykształceni developerzy i developerzy z doświadczeniem, to są ci, których ta technologia wspomoże, a nie wyprze. Przynajmniej obecnie. Nikt nie wie, co się stanie za kilka lat oczywiście. 

 

Tak, tak, dokładnie, jak najbardziej się pod tym podpisuję. W związku z tym rodzi się pytanie, czy powinniśmy inaczej się uczyć, może inaczej podchodzić do problemów z uwzględnieniem tego, że jest takie narzędzie jak Generative AI, które może nas wesprzeć, które może nam pomóc, dać tę pierwszą motywację do działania. I właśnie bazując na tym, co powiedziałeś na temat juniorów, osób aspirujących do IT, czy te osoby powinny być może uczyć się czegoś innego niż obecnie, aby się w tym, jakby nie było, zaawansowanym środowisku jakoś odnaleźć? 

 

Tak, ja myślę, że pomijając nawet samą branżę IT, to podchodząc teraz koncepcyjnie do różnych problemów, jako ludzie mający dostęp do Generative AI, powinniśmy być może moim zdaniem zaadaptować taką formułę szybszego kontaktu z tymi modelami. Bardzo często osoby właśnie ścisłe najpierw dostając jakiś problem, starają się go przeanalizować, rozmontować ładnie na kawałki i zastanawiają się mocno nad tym, jak ja bym to rozwiązał. Podczas gdy często to jest właśnie ta część procesu, którą w sposób wręcz nagły, może taki Generative AI przyspieszyć. 

Tym samym my w naszych zespołach bardzo często z developerami staramy się sobie przypominać o tym, żeby najpierw rzucać tym problemem w tę technologię, patrzeć, co wróci z tego pierwszego rzutu, i starać się właśnie tak iteracyjnie korygować to rozwiązanie czy też sformułowanie problemu. Jest to moim zdaniem drastycznie coś innego niż to, czego często się uczymy, czy to w szkole, czy na uczelniach, żeby wybrać sobie jakiś aparat, jakiś formalizm, w ramach tego formalizmu ładnie zdefiniować problem i potem próbować dalej ten dobrze zdefiniowany problem rozwiązywać. 

Tutaj bardziej jesteśmy w świecie, gdzie zastanawiamy się, a chacie GPT czy inny modelu, powiedz mi, jak ten problem by wyglądał w tym formalizmie. I godzimy się na to, że będziemy musieli to przejrzeć, ale jest to dużo szybsze niż nasze własne bezpośrednie modelowanie w wielu aspektach. 

Wydaje mi się też, że jeżeli chodzi o to, jak współpracujemy, jak uczymy, jak rozwijamy pewne umiejętności, to tutaj też powinniśmy założyć, że pewne stare metody pracy czy metody nauki po prostu nie będą miały żadnego przełożenia na to, co się dzieje w tej chwili. Np., jeżeli teraz mówimy o przygotowaniu jakiegoś projektu, dokumentowaniu tego projektu, żeby zademonstrować komuś, że potrafimy coś tam konkretnego wykonać, to powstaje pytanie, czy na pewno to jest takie ważne, czy na pewno ta część raportowa jest taka istotna, skoro zaczyna być ciężko zweryfikować, jak dużo z tej części raportowej jest tak naprawdę wygenerowane przez człowieka. 

Powstaje pytanie, czy to nie jest tak, że ja np. zrobię sobie jakiś kawałek badań, poproszę AI o summary i wstępne wnioski, potem na podstawie tego, po edycji oczywiście tych wniosków przeze mnie, wygeneruję sobie ładnie dwie strony tekstu, które mi o tym opowiadają, tylko po to, żeby recenzent tej pracy, czy odbierający, zapytał się GPT, a jakie jest summary tych dwóch stron. Nagle jesteśmy w takiej sytuacji, gdzie dekompresujemy te nasze dane i po drugiej stronie te dane są znów kompresowane. A to się naprawdę dzieje. Ja już nie jestem w tej chwili takim aktywnym naukowcem, ale mam, Krzysztof, kolegów aktywnych naukowców, którzy w tej chwili, mając tabelę z danymi i mając zestaw wykresów z komentarzami, proszą tego typu modele o napisanie tej sekcji wniosków z eksperymentów.

Powstaje pytanie, czy to nie jest tak, że ja np. zrobię sobie jakiś kawałek badań, poproszę AI o summary i wstępne wnioski, potem na podstawie tego, po edycji oczywiście tych wniosków przeze mnie, wygeneruję sobie ładnie dwie strony tekstu, które mi o tym opowiadają, tylko po to, żeby recenzent tej pracy, czy odbierający, zapytał się GPT, a jakie jest summary tych dwóch stron. Nagle jesteśmy w takiej sytuacji, gdzie dekompresujemy te nasze dane i po drugiej stronie te dane są znów kompresowane. A to się naprawdę dzieje.

 

Ciekawe. Może właśnie tak wygląda ta droga, natomiast tak jak powiedziałeś, kluczowe jest to, żeby posiadać kompetencje oceny tego wyjścia i żeby ewentualnie iterować, dostosowywać, a jednocześnie wiedzieć, czego mniej więcej się spodziewać, bo inaczej to faktycznie możemy się mocno rozminąć z prawdą. 

Wiesz, mówimy tutaj sporo o rozwoju narzędzi AI i oczywiście każdy to obserwuje, każdy to widzi. Próbujemy jako ludzie się do tego jakoś tam adoptować, ale co innego to jest powolny jakiś tam rozwój, a co innego to są takie skoki rozwojowe, to są pewnego rodzaju przełomy. Można powiedzieć, że pojawienie się chata GPT, a przynajmniej upowszechnienie się tego narzędzia z pewnością w świadomości wielu było właśnie takim przełomowym momentem. Czy myślisz, że mamy szansę jeszcze ujrzeć tego typu przełomy i czy w robotyce też te przełomy będą miały miejsce, żebyśmy w końcu takie półinteligentne, można powiedzieć, maszyny roboty mogli użyć? Co ty o tym myślisz? 

 

Myślę, że tak, że będziemy świadkami jeszcze takich przełomów. Natomiast warto się cofnąć do tego, co się stało, kiedy pojawił się Chat GPT i jaka tam tak naprawdę była historia. Ponieważ jeżeli chodzi o takie podwaliny naukowe, ten przełom wydarzył się dużo wcześniej. Ludzie stojący za Chatem GPT moim zdaniem tak naprawdę swój sukces głównie zawdzięczają temu, że podeszli do całego zagadnienia bardzo produktowo i zastanowili się nad tym, jak z takich modeli może skorzystać przeciętna osoba i jakie doświadczenie ta osoba powinna dostać. 

I gdzieś z tego wyszedł również ten problem alignment i też moim zdaniem to, że podczas prac nad chatem GPT ten alignment został tak poważnie potraktowany. Alignment, czyli tutaj zmuszenie niejako tych modeli do tego, żeby odpowiadały w pewnych ramach zgodnych z naszymi przewidywaniami i żeby właśnie były zdolne do prowadzenia konwersacji. 

Właśnie to moim zdaniem zadecydowało, że tutaj odniesiono taki sukces. Czyli niejako ktoś wziął Ten nieoszlifowany jeszcze diament, oszlifował go w odpowiedni sposób, przede wszystkim wyniósł pod strzechy. Nie bał się również tego gwałtownego momentu wdrożenia, który jest bardzo nieprzewidywalny. Bardzo wielu teraz mówi o tym, że Google, który tak naprawdę badawczo był za tą rewolucją, który zbudował tą architekturę sieci neuronowych, przespał niejako ten moment i że oni mieli wszystkie narzędzia ku temu, żeby zrobić to samo co OpenAI, brakowało tutaj tylko takiej pewnej sprawczości. 

Ja myślę, że to też pokazało, że teraz żyjemy w takim świecie, w którym nie ma czasu na wieloletnie rozwijanie projektów, w którym nie ma czasu na decyzje, które są podejmowane całymi kwartałami, tylko w którym trzeba bardzo szybko literować i jak najszybciej wychodzić do klienta, czy szeroko pojętego odbiorcy z produktami. 

Myślę, że również community robotyczne to zobaczyło i również wyjęło z tego pewne doświadczenia. A co więcej, naturalnym jest, że skoro mamy teraz taki, można powiedzieć, reasoning engine w postaci LLM-ów, które również potrafią same ze sobą taki dialekt prowadzić i zastanawiać się nad tymi zagadnieniami, to że to jest dokładnie to, co chcielibyśmy zgodnie z takimi lemowskimi treściami wstawić do środka naszego robota. 

Wydaje mi się natomiast, że raczej nie będzie tak, że te gwałtowne momenty postępu są jakoś bardzo niedaleko. Wydaje mi się, że zarówno w przypadku modelu Generative AI, jak i w przypadku robotyki jeszcze chwilę będziemy czekać. W przypadku robotyki sądzę, że może być to bardziej powiązane z tym, jak się skalujemy, tzn. za systemami robotycznymi stoi również sprzęt. Ten sprzęt rozwija się znacząco wolniej od tego, jak rozwija się software. Więc tutaj moim zdaniem, żebyśmy zobaczyli takie niesamowite zmiany, to być może potrzeba jeszcze trochę tego, żeby Generative AI pomagało nam na tyle mocno projektować sprzęt, żebyśmy tutaj przyspieszyli. 

Natomiast w przypadku samego Generative AI sądzę, że już obserwujemy pewnego rodzaju plateau. Zauważ, Krzysztofie, że od czasu premiery GPT-4 my widzimy takie pewne iteracyjne poprawianie tego modelu, co są w OpenAI, ale nie widzimy w tej modalności tekstowej przynajmniej niczego przełomowego, nie widzimy żadnej walutowej zmiany. 

Co więcej, konkurencja ostatnio co i rusz to pokazuje nowe modele, które jednak co do pewnej granicy błędu, zachowują się dla nas tak samo. Nawet jeżeli one w jakichś benchmarkach, gdzieś tam w niektórych aspektach biją ten model dosyć solidnie, to okazuje się, że nie przenosi się to na jakąś konsekwencję w naszym bezpośrednim użyciu. Naturalnie więc przychodzi do głowy takie pytanie, czy to nie jest tak, że dostajemy już coraz mniej korzyści z tego gwałtownego skalowania zasobów obliczeniowych, z których my korzystamy, i czy tym samym nie jest potrzebny jakiś przełom, który będzie dużo trudniejszy? Mianowicie taki przełom jakościowy. 

Ja sądzę, że bardzo wiele zespołów w tej chwili właśnie na świecie nad tym pracuje i sądzę, że być może taki przełom będzie gdzieś właśnie wokół tego, że ludzie budujący modele Generative AI zaadaptują właśnie z robotyki i niejako z klasycznego AI niektóre algorytmy czy to wyszukiwania, czy to właśnie cross-weryfikacji różnych scenariuszy, żeby podnieść skuteczność i podnieść właśnie siłę rozumowania tych modeli generatywnych. 

Ale zauważ, że tutaj to już wymaga pewnych rygorystycznych badań, pewnych długotrwałych treningów, również być może pewnej zmiany w infrastrukturze sprzętowej typu organizacji, jeżeli one będą chciały wystawiać takie nowe modele. Więc to nie jest coś, co się dzieje samoczynnie i co się może wydarzyć w takim krótkim czasie. Jeżeli oczywiście zapytasz mnie, co to znaczy krótki czas, co to znaczy długi czas, bardzo ciężko jest mi to powiedzieć, sądzę natomiast, że to są jednak lata, a nie miesiące. 

 

Rozumiem. No zobaczymy. Jestem bardzo ciekaw też, obserwuję właśnie, jak ta dziedzina się zmienia. To, co widzę, to, co też tutaj potwierdziłeś, to to, że AI wpływa na to, jak branża pracuje, wpływa na to, jakie są wymagania właśnie oczekiwane od strony osób poszukiwanych na rynku, ale też powoduje, że są potrzebne cały czas nowe moce przerobowe, żeby te rozwiązania tworzyć. I mamy taki wpływ wieloraki właśnie AI na rynek pracy w IT. Co Ty na tym rynku tutaj widzisz na złączeniu tych dwóch światów? 

 

Przede wszystkim widzę, że gwałtownie tworzą się nowe role. Poza znanymi już nam data scientistami i data engineerami, czyli w skrócie tymi, którzy analizują dane i tworzą modele, czy też determinują modele, oraz tymi, którzy powodują, żeby ci pierwsi te dane dostawali w odpowiedni sposób i żeby mogli je przetwarzać wydajnie, pojawiają się też role, powiedziałbym, na pograniczu biznesu i managementu, które są stricte związane z AI. 

Przykładem jest to, co się działo ze mną. W dwóch ostatnich organizacjach pełniłem rolę leaderską związaną z AI, która kilka lat temu jeszcze nie istniała, która w ogóle nie była wyobrażona wcześniej przez te organizacje. To się dzieje nagminnie. Wiele organizacji mianuje, można powiedzieć, prawie że w popłochu chief AI officerów, head of AI, zależnie jak to nazwiemy. Natomiast koniec końców chodzi o to, że zidentyfikowano taką wielką potrzebę, o której mówiliśmy już dzisiaj też wcześniej, taką potrzebę ewangelizacji tej technologii wśród zespołów technicznych i zespołów analitycznych i to powoduje, że pojawiają się nowe odłamy różnych specjalności. 

Podobnie jest z architektami. Wiele organizacji software’owych wie od dawna, że potrzebuje architektów, którzy będą dbali o to, żeby te systemy, które są przez nich budowane, były skalowalne, spełniały pewne normy itd. Teraz mamy wręcz wysyp, moim zdaniem, ogłoszeń na AI architektów, czyli ludzi, którzy potrafią wziąć pod uwagę te wcześniej wymienione aspekty, ale jednocześnie mają na tyle dużo wiedzy na temat tego, co się obecnie dzieje na rynku AI, jakie są dostępne, już gotowe do zintegrowania usługi, że będą w stanie poukładać te usługi w architekturze jakichś większych, rozproszonych systemów informatycznych, które już istnieją w danym organizacji. 

I moim zdaniem to są wielkie okazje, które teraz się pojawiają. I myślę, że tutaj też rodzajem takiej okolicy, gdzie będą duże innowacje powiązane z AI, są analitycy danych. Dotychczasowo to często było tak, że żeby analityk zobaczył jakiś raport i żeby na podstawie tego raportu mógł wyciągnąć jakieś wnioski, potrzebna była praca właśnie developerów, praca często data scientistów, data engineerów, żeby to wszystko mogło zostać odpowiednio przetworzone i pokazane tym osobom. 

Teraz okazuje się, że da się budować systemy coraz bardziej tak, że jeżeli organizacja ma właśnie dobrze przerobione te postawy data engineeringu i data governance, to analityk w dużej części bez odwoływania się do programistów będzie mógł modyfikować swoje raporty, czy nawet generować nowe i budować dosyć zaawansowane wizualizacje tego, co w tych danych jest, dzięki czemu taki analityk stanie się powiedziałbym półautonomiczny. 

I spójrz teraz, Krzysztofie, jak cenne będą osoby, które będą w stanie, czy które już są w stanie wejść w ten potencjał, i jak bardzo to może zmienić czas, w jakim one te wnioski osiągają. I tutaj myślę, że to będzie skutkowało tym, że kolejna generacja analityków będzie już gdzieś tam obserwowała ogłoszenia z takimi właśnie wymaganiami. To stanie się powoli normą. 

To oczywiście tylko taka moja predykcja. Natomiast podsumowując, ja mam wrażenie, że ta taka wiosna, czy może już lato AI, po tej zimie, która była gdzieś tam dawno temu, to jest moim zdaniem czynnik, który do rozwoju rynku się bardziej przyczynia, niż do tego, że niektórzy z programistów, niektóre z osób pracujących w IT będą miały problem ze znalezieniem pracy. Myślę, że rynek się dopiero otwiera i rozwija. 

 

Powiedziałeś wcześniej o takiej kilkuletniej, powiedzmy, perspektywie kolejnego przełomu w tej dziedzinie. Jak gdybyśmy spojrzeli na nieco krótszą perspektywę, jakie trendy obecnie widzisz, jakie kierunki rozwoju Generative AI? 

 

Myślę, że przede wszystkim będziemy widzieli coraz gwałtowniejszy proces zmniejszania się modeli – to, o czym mówiliśmy wcześniej. Jednocześnie też wydaje mi się, że zobaczymy, czy nawet być może już powoli widzimy, takie pewne odcięcie. Tzn. zaczniemy identyfikować zastosowania, dla których modele state of the art już będą nawet przewymiarowane i dla których założymy, że pewien poziom jakości danego modelu jest już wystarczający. 

I tym samym ja myślę, że teraz będziemy mocno przechodzili właśnie w taki okres, w którym to będziemy się zastanawiali nad rozwojem tych narzędzi, które pozwolą na szybszą i wydajniejszą produktyzację tych technologii. To jest moim zdaniem w tej chwili najważniejsze. 

Natomiast jeżeli chodzi właśnie o to, co będzie na state of the art, to myślę, że tak jak wspomniałem, połączenie właśnie takich technik wyszukiwania i rozumowania na danych symbolicznych z tym, co potrafią już elementy. I oczywiście też eksploracja kolejnych modalności. Od niedawna mamy tak naprawdę użyteczne generatory obrazów. One też się ciągle rozwijają. OpenAI niedawno pokazało Sorę. Sora na razie jest właśnie moim zdaniem na takim etapie, gdzie znów bardzo wielu z nas jeszcze nie wierzy, że to, co zobaczyliśmy, jest w ogóle możliwe. To się jednak stało faktem. Natomiast na pewno nie bez jakiegoś wysokiego kosztu infrastruktury. 

I sądzę, że to jest też bardzo silny kierunek, który AI będzie teraz eksplorować. Tzn. generowanie wideo nie tylko po to, żeby generować wideo i żeby tutaj w zastosowaniach tego wideo jakoś pomóc, ale również po to, żeby ucząc się generować wideo, wygenerować w tych modelach taki wewnętrzny model świata, który to model świata może być wykorzystany również do pracy z tekstem, czy do pracy z danymi. I myślę, że to jest właśnie to, co jest gdzieś dla nas nieuchronne, że my będziemy musieli, jeżeli chcemy zbudować sobie takiego sztucznego człowieka, zacząć patrzeć na to, że człowiek dostaje jednak cały czas taki filtr danych, które są haptyczne, które są wizualne, które się mocno zmieniają, stymulują, a nie tylko tekst, czy nie tylko stojące obrazy.

 

Fascynujące. Myślę, że odpowiadając sobie na to początkowe pytanie, czy Generative AI to halucynacje, czy może rewolucja w komunikacji, tworzeniu i aplikacji, i edukacji technologicznej, jednoznacznie widać, że to jest to drugie, aczkolwiek halucynacje tam są i to wcale nie musi znaczyć, że to jest jakiś problem. 

Moim i Waszym gościem dzisiaj był Tomasz Gawron. Tomku, bardzo Ci dziękuję za rozmowę. 

 

Również dziękuję, to była wielka przyjemność. 

 

Cieszę się bardzo. Na koniec zapytam Cię jeszcze, gdzie Cię można znaleźć w internecie, gdzie możemy słuchaczy odesłać? 

 

Myślę, że można odesłać na mój profil na LinkedIn. Tam na pewno da się zobaczyć, co robię i tam też będzie można zobaczyć, na jakich innych eventach udaje się mnie znaleźć.

 

Świetnie. Oczywiście ten link będzie w notatce do odcinka. Tomku, jeszcze raz wielkie dzięki.

Do usłyszenia i cześć!

 

Cześć!

 

I to na tyle z tego, co przygotowałem do Ciebie na dzisiaj. Po więcej wartościowych treści zapraszam Cię do wcześniejszych odcinków. A już teraz, zgodnie z tym, co czujesz, wystaw ocenę, recenzję lub komentarz w aplikacji, której słuchasz, lub w social mediach.

Zawsze możesz się ze mną skontaktować pod adresem krzysztof@porozmawiajmyoit.pl lub przez media społecznościowe.

Ja się nazywam Krzysztof Kempiński, a to był odcinek podcastu Porozmawiajmy o IT o Generative AI. 

Zapraszam do kolejnego odcinka już wkrótce.

Cześć!

 

+ Pokaż całą transkrypcję
– Schowaj transkrypcję
mm
Krzysztof Kempiński
krzysztof@porozmawiajmyoit.pl

Jestem ekspertem w branży IT, w której działam od 2005 roku. Zawodowo zajmuję się web-developmentem i zarządzaniem działami IT. Dodatkowo prowadzę podcast, kanał na YouTube i blog programistyczny. Moją misją jest inspirowanie ludzi do poszerzania swoich horyzontów poprzez publikowanie wywiadów o trendach, technologiach i zjawiskach występujących w IT.