AI w praktyce: jak korzystać z dużych modeli językowych mądrze i bezpiecznie

Obecnie na każdym kroku mówi się o kolejnych narzędziach i przełomowych modelach AI – ludzie jak zdarta płyta powtarzają, że sztuczna inteligencja wkrótce zmieni wszystko. Jednak my – deweloperzy – doskonale wiemy, że między efektownym demem a rozwiązaniem działającym skutecznie na produkcji jest ogromna przepaść

Celem tego artykułu nie jest więc opowiadanie o „magii AI”. Zamierzam zabrać Was za kulisy, pokazać realne życie tych technologii: głośne porażki, przyczyny problemów i – co najważniejsze – podpowiedzieć, jak korzystać z AI mądrze, bezpiecznie i skutecznie

Przepaść generatywnej AI 

Na co dzień żyjemy w bańce informacyjnej. Z każdej strony słyszymy o rewolucji AI, o asystentach, którzy zrobią za nas połowę pracy. Rzeczywistość jest jednak bardziej brutalna. 

Raport MIT „The GenAI Divide1” pokazuje, że aż 95% korporacyjnych wdrożeń AI kończy się porażką. „Porażka” oznacza brak mierzalnego zwrotu z inwestycji – zero wpływu na wyniki finansowe. Miliardy dolarów trafiają w próżnię, a tylko 5% firm osiąga realne korzyści

Raport definiuje „przepaść generatywnej AI”: mówi o istnieniu elitarnej grupy 5% firm, które wdrażają AI z sukcesem, zarabiają miliony i zdobywają przewagę konkurencyjną, podczas gdy pozostałe 95% utknęło w martwym punkcie. 

Na czym polega paradoks tej sytuacji? Ponad 80% firm testowało narzędzia takie jak ChatGPT czy Copilot, a wielu z nas używa ich codziennie do pisania maili czy podsumowań spotkań. Zatem skoro narzędzia AI są tak powszechne, dlaczego korporacyjne wdrożenia tak często zawodzą

Luka w uczeniu się 

Większość korporacyjnych systemów AI jest statyczna – nie uczy się na podstawie interakcji z użytkownikiem, nie pamięta kontekstu ani stylu pracy. Za każdym razem wszystko trzeba tłumaczyć od nowa. 

Wyobraźmy sobie prawnika w dużej firmie: AI może przygotować szkic prostego pisma – świetnie. Ale czy powierzyłby jej przygotowanie kluczowej, wartej miliony umowy? Nie – model nie pamięta poprzednich poprawek ani preferencji klienta, więc popełnia te same błędy. 

W raporcie MIT wyróżniono trzy główne wzorce porażki: 

  1. Przepaść między pilotażem a produkcją – z 60% firm, które zaczynają rozważać wdrożenie AI, tylko 5% dociera do pełnego wdrożenia. Projekty umierają, bo nie działają w realnym świecie biznesu. 
  1. Gospodarka cienia (Shadow AI) – pracownicy korzystają z prywatnych narzędzi, nawet jeśli oficjalne wdrożenia zawodzą. Popyt na AI jest ogromny, ale firmowe systemy często nie spełniają oczekiwań. 
  1. Pułapka „build vs buy” – gotowe rozwiązania kupowane od partnerów mają 67% szans na sukces, projekty tworzone od zera w firmie – tylko 33%. 

Raporty o AI – jak je czytać 

95% porażek według MIT może robić wrażenie, ale warto spojrzeć szerzej: 

  • BCG podaje, że 80% wdrożeń AI spełnia lub przekracza oczekiwania
  • Google Cloud twierdzi, że 74% firm odczuwa zwrot z inwestycji w ciągu pierwszego roku
  • Boston Consulting Group wskazuje, że 26% firm generuje realną wartość biznesową jako liderzy AI

Różnice wynikają głównie z definicji sukcesu. MIT postawił poprzeczkę bardzo wysoko: sukces = pełne wdrożenie AI na produkcji z bezpośrednim wpływem na rachunek zysków i strat. Inne badania przyjmują bardziej praktyczne kryteria, jak poprawa produktywności, redukcja kosztów czy usprawnienie procesów. 

Gdy AI zawodzi: przykład Air Canada 

W 2022 roku świat obiegła historia Jacka Moffatta, która stała się podręcznikowym przykładem tego, co może pójść nie tak, gdy firmy zbyt ufają sztucznej inteligencji. Pan Moffatt podróżował w związku ze śmiercią babci i chciał skorzystać ze zniżki dla osób podróżujących na pogrzeb bliskiej osoby – tzw. bereavement fares. Na stronie Air Canada nie znalazł jednak jasnych informacji, więc postanowił zapytać chatbota. 

Asystent AI odpowiedział pewnym głosem: należy kupić bilet w pełnej cenie, a w ciągu 90 dni można złożyć wniosek o zwrot części kosztów. Chatbot nawet podał link do odpowiedniego formularza. Brzmiało wiarygodnie – pan Moffatt zaufał systemowi i kupił bilet za ponad 1600 dolarów. 

Po podróży złożył wniosek o zwrot i… spotkała go odmowa. Zgodnie z polityką Air Canada zniżki nie przysługiwały po odbyciu podróży. Rozpoczęła się wielomiesięczna wymiana maili, która ostatecznie trafiła do sądu. 

Air Canada próbowała bronić się dwoma, delikatnie mówiąc, kontrowersyjnymi argumentami: 

  1. Chatbot to osobny byt – firma twierdziła, że nie odpowiada za treści generowane przez AI. Sąd odrzucił ten argument, stwierdzając, że chatbot jest integralną częścią strony i to firma odpowiada za jego komunikaty. 
  1. Klient powinien sam sprawdzić regulamin – skoro prawdziwa informacja znajdowała się w innym miejscu witryny, to klient był winny. Sąd również odrzucił ten argument, pytając: dlaczego użytkownik miałby zakładać, że jedna część strony jest bardziej wiarygodna niż druga? 

Ostatecznie Air Canada przegrała proces i musiała zwrócić pieniądze. Kwota była symboliczna, ale sprawa stała się precedensem – pokazała, że firma odpowiada za błędy AI tak samo, jak za każdą inną treść publikowaną w serwisie. 

Ta historia pokazuje dwie fundamentalne prawdy: 

  • Odpowiedzialność nie może być delegowana na technologię – niezależnie od tego, jak „inteligentne” wydaje się narzędzie, firma odpowiada za jego działanie i konsekwencje. 
  • Halucynacje są nieodłączną cechą modeli językowych – AI potrafi generować wiarygodnie brzmiące, ale nieprawdziwe informacje. Rolą inżynierów i menedżerów jest projektowanie mechanizmów zabezpieczających (tzw. guardrails), które minimalizują ryzyko wpadek. 

W praktyce balans jest trudny. Zbyt słabe zabezpieczenia prowadzą do kompromitujących błędów, zbyt mocne – jak w przypadku specjalistycznego chatbota Microsoftu do Minecrafta, który większość pytań kończył odpowiedzią „nie wiem” – sprawiają, że narzędzie staje się bezużyteczne. 

Jak działają modele językowe i co to oznacza w praktyce 

Duży model językowy (LLM) w istocie jest zaawansowanym systemem autouzupełniania tekstu. Jego podstawowe zadanie jest proste – przewidzieć, jakie słowo powinno pojawić się następne w danym ciągu. Wszystko inne, co wydaje się „inteligencją” – pisanie kodu, tworzenie streszczeń, generowanie prezentacji – jest efektem ubocznym tej jednej funkcji, działającej na niewyobrażalną skalę. 

Przełom: transformery 

W 2017 roku pojawiła się przełomowa praca naukowa Attention is All You Need, wprowadzająca architekturę transformera. W przeciwieństwie do wcześniejszych modeli, które czytały tekst sekwencyjnie i łatwo „zapominały” wcześniejsze słowa, transformery analizują wszystkie wyrazy jednocześnie. Dzięki mechanizmowi self-attention potrafią powiązać ze sobą istotne informacje w całym zdaniu. Przykład? W zdaniu „Michał, siedząc na krześle, jadł pizzę pepperoni. To był jego ulubiony smak” słowo „to” zostanie powiązane z „pizzą”, a nie z „krzesłem”, ponieważ kontekst dotyczy jedzenia. Dzięki temu modele zaczynają „rozumieć” język – przynajmniej w sensie statystycznym. 

Jak modele się uczą? 

Proces uczenia LLM składa się z dwóch głównych etapów: 

  1. Pre-training – model „zamyka się” na wiele miesięcy w ogromnych zbiorach danych, obejmujących niemal cały internet, książki, artykuły czy Wikipedię. Uczy się gramatyki, faktów i stylów pisania, ale przyswaja też błędy, uprzedzenia i toksyczne treści. 
  1. Fine-tuning – czyli „szkoła dobrych manier”. Model jest dostosowywany do użytecznego i bezpiecznego działania z wykorzystaniem RLHF (Reinforcement Learning with Human Feedback). Trenerzy oceniają generowane odpowiedzi, wskazują najlepsze i najgorsze, a model uczy się preferencji ludzi. Efekt? Model potrafi odpowiadać w sposób użyteczny, ale nie poszerza swojej wiedzy – jedynie filtruje zachowania. 

Najważniejsza lekcja: LLM przewiduje kolejne słowa. Wszystko inne to efekt uboczny, nie „magia” ani prawdziwe zrozumienie. 

Rewolucja w procesie tworzenia aplikacji 

Tradycyjny proces tworzenia aplikacji bywa długi i kosztowny: pomysł → spotkania → specyfikacje → makiety → development → pierwsza wersja. AI radykalnie skraca ten cykl. Narzędzia typu Uizard czy Visily potrafią zamienić opis tekstowy w interaktywny prototyp.  

Co to oznacza dla deweloperów? Żadne narzędzie AI z całą pewnością nie zastąpi programistów, ale definitywnie zmieni proces ich pracy. Dzięki sztucznej inteligencji działy biznesowe będą w stanie samodzielnie tworzyć proste narzędzia, dużo łatwiej też o dostarczenie lepszych jakościowo prototypów. Programiści mogą wówczas skupić się na tym, co naprawdę trudne i wartościowe: logice biznesowej, architekturze, wydajności i bezpieczeństwie. 

Jednocześnie zmienia się charakter błędów – mniej literówek i drobnych pomyłek, a zarazem więcej fundamentalnych problemów w architekturze i luk bezpieczeństwa. Tu pojawia się także pewna pułapka psychologiczna, tzw. bias automatyzacjiufamy maszynie, choć powinniśmy krytycznie weryfikować generowany kod

Bezpieczne zastosowania narzędzi AI 

Trzy złote zasady korzystania z AI 

  1. Ty jesteś pilotem, nie pasażerem – krytycznie weryfikuj wszystko, co podpowiada AI. 
  1. Nie ufaj – testuj – traktuj kod jakby napisał go nieznany stażysta i stosuj TDD. 
  1. Dziel się – ale nie sekretami – korzystaj z bezpiecznych wersji enterprise lub self-hosted; nie wklejaj poufnych danych do publicznych narzędzi. 

AI w codziennej pracy – tryb research 

Coraz częściej AI wspiera nie tylko w generowaniu kodu, ale także w szybszym znajdowaniu informacji. Tryb research w ChatGPT pozwala zadawać pytania w naturalnym języku, a model przeszukuje setki źródeł, analizuje je i zwraca streszczenie wraz z linkami. To znacznie skuteczniejsze niż klasyczne wyszukiwanie po słowach kluczowych. 

RAG – Retrieval-Augmented Generation 

RAG to z kolei przykład bezpiecznego zastosowania AI w pracy z dokumentacją. Model nie zgaduje z pamięci, lecz korzysta wyłącznie z wybranych fragmentów naszej dokumentacji, co daje trzy korzyści: 

  • Kontrola – odpowiedzi pochodzą wyłącznie z naszych danych, 
  • Wiarygodność – każda odpowiedź wskazuje źródło, 
  • Aktualność – zmiany w dokumentacji są natychmiast widoczne. 

W praktyce oznacza to szybkie odpowiedzi, krótszy onboarding i dokumentację, która staje się żywym, interaktywnym narzędziem, a nie cmentarzyskiem PDF-ów. 

Podsumowanie – trzy rzeczy do zapamiętania 

Trzeba pamiętać, że AI to potężne narzędzie, ale nie magiczna różdżka – większość porażek wynika z ludzkich błędów. Kluczowe jest zatem zrozumienie, że AI przewiduje słowa, a nie myśli, dlatego zawsze potrzebny jest nasz krytyczny nadzór. Najwięksi zwycięzcy tej rewolucji zaczynają od realnych problemów, pytając: „Jaki problem mogę rozwiązać?”, zamiast zastanawiać się, w jaki jeszcze obszar „wcisnąć” AI. Traktujmy AI jak sprytnego partnera: uczmy się, testujmy, eksperymentujmy i skupiajmy się na tym, co naprawdę przynosi wartość.

Jeżeli myślisz o wdrożeniu rozwiązania opartego na AI w swojej organizacji i chcesz mieć pewność, że będzie skuteczna w działaniu, wypełnij poniższy formularz. Nasi specjaliści chętnie wesprą Cię w kolejnych krokach.

  1. ai_report_2025.pdf ↩︎

    Skontaktuj się z nami

    *Wymagane

    Klauzula informacyjna dotycząca przetwarzania danych osobowych:

    Administratorem Twoich danych osobowych jest Infinity Group Sp. z o.o. z siedzibą w Białymstoku.
    Dane podane w formularzu będą przetwarzane w celu udzielenia odpowiedzi na zapytanie (art. 6 ust. 1 lit. f RODO – prawnie uzasadniony interes administratora polegający na prowadzeniu korespondencji). Podanie danych jest dobrowolne, ale niezbędne do udzielenia odpowiedzi. Przysługuje Ci m.in. prawo sprzeciwu wobec przetwarzania danych oraz prawo wniesienia skargi do Prezesa Urzędu Ochrony Danych Osobowych. Szczegółowe informacje, w tym o odbiorcach danych, okresie przechowywania oraz możliwym przekazywaniu danych poza EOG, znajdziesz pod linkiem „Informacje o przetwarzaniu Twoich danych osobowych”.