15 października 2025
Głębokie uczenie (deep learning) w rozwoju przedsiębiorstwa
Udostępnij
Dane stały się nową formą kapitału. To one napędzają procesy biznesowe i dają przewagę firmom, które potrafią je uporządkować i przekuć w konkretne decyzje. Banki analizują transakcje i zachowania klientów, by szybciej wychwytywać próby oszustwa. W e-commerce każda interakcja staje się źródłem wiedzy, dzięki której użytkownik otrzymuje trafniejsze rekomendacje. W efekcie dane nie są już tylko dodatkiem do biznesu, lecz fundamentem jego strategii i rozwoju.
Czym jest analityka biznesowa (business intelligence) i jakie jest jej znaczenie w rozwoju przedsiębiorstwa?
Business Intelligence (BI) to zestaw narzędzi, które pomagają firmom analizować dane i zamieniać je w wiedzę potrzebną do podejmowania decyzji. Informacje z systemów ERP, CRM czy platform e-commerce trafiają do hurtowni danych, gdzie są porządkowane, co daje menedżerom pełniejszy obraz działalności. BI odpowiada przede wszystkim na pytania o to, co się wydarzyło i dlaczego. Raporty pokazują np., spadek sprzedaży lub wzrost kosztów logistyki, a analiza przyczyn ujawnia źródła problemów. Systemy BI pomagają też w monitorowaniu ryzyk i szans. Kierownictwo widzi na bieżąco, gdzie firma radzi sobie dobrze, a gdzie sytuacja wymaga szybkiej reakcji. Nic dziwnego, że – jak pokazały badania KPMG i Microsoft z 2022 roku – systemy Business Intelligence należą do najczęściej wdrażanych technologii cyfrowych w polskich firmach, obok systemów ERP. [1]
Mimo wielu zalet, BI ma jednak swoje ograniczenia. Przede wszystkim opisuje to, co już się wydarzyło, ale nie prognozuje przyszłości. Narzędzia BI gorzej radzą sobie także z analizą danych nieustrukturyzowanych, takich jak obrazy czy nagrania, a cykliczny tryb raportowania sprawia, że decyzje często opierają się na informacjach, które mogą być już częściowo nieaktualne. Wobec tego przedsiębiorstwa zaczęły poszukiwać narzędzi bardziej predykcyjnych i elastycznych. To właśnie otworzyło drogę do rozwoju uczenia maszynowego oraz głębokiego uczenia.
Uczenie maszynowe (machine learning), a głębokie uczenie.
Podczas gdy BI pomaga zrozumieć, co się wydarzyło w przeszłości, uczenie maszynowe (ML) otwiera firmom drogę do przewidywania przyszłości. Zamiast ręcznie programować reguły, tworzy się algorytmy, które same uczą się na podstawie danych i potrafią budować modele predykcyjne. W praktyce ML znajduje zastosowanie w wielu branżach (w e-commerce prognozuje, które produkty mogą cieszyć się największym zainteresowaniem, a w logistyce – możliwe opóźnienia dostaw). Najczęściej stosowaną metodą jest uczenie nadzorowane, czyli takie, w którym człowiek przygotowuje zestaw przykładowych danych, np. oznacza, które transakcje były oszustwem, a które prawidłowe. Na tej podstawie algorytm uczy się samodzielnie klasyfikować nowe przypadki.
Głębokie uczenie (Deep Learning, DL) idzie o krok dalej. Dzięki sieciom neuronowym algorytmy same rozpoznają istotne cechy w danych, bez konieczności ręcznego ich definiowania. To sprawia, że DL szczególnie dobrze radzi sobie z danymi nieustrukturyzowanymi. Jak podkreśla raport McKinsey z 2022 roku, to właśnie rozwój DL umożliwił przełomy w takich obszarach jak rozpoznawanie mowy czy systemy rekomendacyjne, które dziś napędzają sprzedaż w e-commerce.[2]
Na czym opiera się deep learning?
Deep learning swoją skuteczność zawdzięcza sztucznym sieciom neuronowym. Najprościej wyobrazić je sobie jako zestaw warstw, przez które przechodzą dane. Na wejściu sieć otrzymuje informacje, np. zdjęcie, a następnie stopniowo je przekształca. Początkowe warstwy rozpoznają proste elementy (linie, kolory), kolejne wychwytują kształty, a końcowe identyfikują całe obiekty. Efektem jest konkretna decyzja, np. „to jest e-mail ze spamem”. Im więcej warstw, tym bardziej skomplikowane zależności mogą zostać uchwycone. Skuteczność modeli DL zależy od danych - zarówno od ilości, jak i jakości. Jak podkreśla raport PwC 2025 AI Business Predictions, sam wolumen danych to dopiero punkt wyjścia, przewagę zapewnia przede wszystkim ich staranne przygotowanie. [3]
Kluczowa jest również moc obliczeniowa. Przełom nastąpił, gdy zaczęto wykorzystywać karty graficzne (GPU), zdolne do równoległego wykonywania ogromnych ilości obliczeń, co przyspieszyło trening modeli. Kolejnym etapem rozwoju były TPU (Tensor Processing Units), specjalne układy stworzone przez Google wyłącznie do obliczeń związanych z AI. Podczas gdy GPU pozostają narzędziem uniwersalnym, TPU zostały zaprojektowane od podstaw z myślą o uczeniu maszynowym, dzięki czemu lepiej radzą sobie z dużymi sieciami neuronowymi. Nie mniej ważną rolę odgrywa chmura obliczeniowa. To ona umożliwia nawet średnim firmom dostęp do zasobów. Model subskrypcyjny sprawia, że przedsiębiorstwa mogą skalować moc obliczeniową w zależności od potrzeb projektu i płacą tylko za faktyczne zużycie.
Sam proces uczenia opiera się na powtarzaniu prób i korygowaniu błędów. Za każdym razem, gdy model przewiduje wynik, sprawdza, jak bardzo się pomylił i odpowiednio dostosowuje swoje wagi - parametry decydujące o tym, które informacje są istotne. Całością zarządzają algorytmy optymalizacji. Niektóre z nich uczą się powoli i systematycznie (np. Stochastic Gradient Descent), inne dopasowują tempo nauki do sytuacji (np. Adam). Od ich wyboru zależy, jak szybko model osiągnie wysoki poziom dokładności.
Ostatnim, ale równie istotnym elementem jest infrastruktura danych. Hurtownie zapewniają centralne miejsce do przechowywania i integrowania informacji z różnych systemów, a rozwiązania do przetwarzania strumieniowego pozwalają analizować dane w czasie rzeczywistym. Bazy NoSQL ułatwiają z kolei obsługę zbiorów danych, które nie mieszczą się w tradycyjnych tabelach. Na tym fundamencie działają frameworki takie jak TensorFlow i PyTorch, czyli narzędzia programistyczne umożliwiające tworzenie i trenowanie modeli DL.
W jaki sposób deep learning może być zastosowany w analityce biznesowej?
Połączenie danych i odpowiedniej infrastruktury sprawia, że deep learning staje się praktycznym narzędziem biznesowym, wykorzystywanym w wielu obszarach działalności.
1) Prognozowanie i zarządzanie sprzedażą
Jednym z zastosowań deep learningu jest prognozowanie. Sieci neuronowe analizują dane historyczne, sezonowość, zachowania klientów online, a nawet czynniki zewnętrzne, takie jak sytuacja gospodarcza czy pogoda. Dzięki temu przedsiębiorstwa mogą lepiej przewidywać popyt i redukować koszty. Analiza historii transakcji i aktywności pozwala z kolei ocenić, które produkty mają potencjał sprzedażowy i jakie kampanie marketingowe przyniosą najlepsze efekty.
Kolejnym obszarem jest dynamic pricing, czyli automatyczne dostosowywanie cen do bieżących warunków rynkowych. Amazon jest przykładem firmy, która szeroko wykorzystuje tego typu rozwiązania - ceny produktów potrafią zmieniać się wiele razy w ciągu dnia w zależności od konkurencji i zachowań klientów.[4]
2) Obsługa klienta
Deep learning zrewolucjonizował przetwarzanie języka naturalnego. Chatboty i voiceboty potrafią prowadzić coraz bardziej naturalne rozmowy. Przykładem jest asystent głosowy IKO w PKO BP, który potrafi poinformować o stanie konta. Sklepy internetowe wykorzystują chatboty do odpowiadania na pytania klientów. W call center voiceboty oparte na DL są w stanie obsłużyć tysiące rozmów jednocześnie, co znacząco obniża koszty i skraca czas oczekiwania.
3) Predictive maintenance
W przemyśle DL wspiera przewidywanie awarii urządzeń. Sieci neuronowe analizują dane z czujników IoT (np. zużycie energii), aby prognozować, kiedy maszyna wymaga serwisu. Pozwala to unikać kosztownych przestojów i lepiej planować konserwacje.
4) Finanse i cyberbezpieczeństwo
Tradycyjne systemy wykrywania oszustw coraz częściej zastępowane są modelami DL, które rozpoznają subtelne wzorce, np. nietypową godzinę transakcji czy miejsce logowania. Ponadto sieci neuronowe potrafią wykrywać anomalie w ruchu sieciowym czy identyfikować ataki phishingowe na podstawie analizy plików i logów. Banki wdrażają systemy AI do monitorowania transakcji w czasie rzeczywistym, co umożliwia blokowanie podejrzanych płatności zanim zostaną zrealizowane.
5) Działy HR
Algorytmy porównują aplikacje kandydatów z wymaganiami stanowiska, skracając czas pierwszej selekcji. DL może analizować dane o pracownikach, aby identyfikować luki kompetencyjne i wspierać planowanie rozwoju. Jednocześnie w HR szczególnie istotne są kwestie etyczne i prawne. Jak sugerują materiały KPMG[5], źle zaprojektowane algorytmy mogą utrwalać istniejące uprzedzenia, np. faworyzując jedną płeć. Dlatego firmy muszą wprowadzać mechanizmy kontroli i zapewniać przejrzystość procesów rekrutacyjnych.
W jakich sytuacjach/obszarach deep learning usprawni funkcjonowanie przedsiębiorstwa?
Deep learning otwiera przed biznesem ogromne możliwości, ale nie jest technologią, którą można wdrożyć w każdej firmie od razu. W przeciwieństwie do klasycznych narzędzi analitycznych, wymaga on spełnienia szeregu warunków technicznych, organizacyjnych i regulacyjnych. Po pierwsze – dane. Sieci neuronowe potrzebują ogromnych i regularnie aktualizowanych zbiorów, aby skutecznie uczyć się. Raporty EY[6] wskazują, że znaczna część danych w wielu organizacjach wymaga uprzedniej obróbki (czyszczenia i standaryzacji), zanim da się je wykorzystać w analizach. W praktyce, jeśli firma handlowa wykorzysta DL do prognozowania sprzedaży, a jej dane transakcyjne będą niespójne to prognozy mogą być błędne.
Nie można też pominąć kwestii kosztów infrastruktury. Trening modeli wymaga ogromnej mocy obliczeniowej. Budowa własnych centrów danych wiąże się z ogromnymi wydatkami i skomplikowaną obsługą. Dlatego większość przedsiębiorstw sięga po chmurę obliczeniową, gdzie moc kupuje się w modelu „pay as you go”. Raport OECD z 2025 roku podkreśla, że koszty adopcji, w tym wydatki na infrastrukturę techniczną, pozostają jednymi z ważnych barier wdrożeń AI[7].
Kolejnym istotnym czynnikiem są kompetencje. Raport World Economic Forum z 2023 roku[8] wskazuje, że umiejętności związane z analizą danych i AI są jednymi z priorytetów szkoleniowych w firmach. Wiele organizacji decyduje się na pomoc zewnętrznych firm konsultingowych. Coraz popularniejsze staje się również korzystanie z gotowych narzędzi w modelu „as a service”, ponieważ jest to rozwiązanie korzystne finansowo i organizacyjnie.
Aspekty prawne i etyczne
Wdrażanie technologii opartych na deep learningu w przedsiębiorstwach to obszar silnie regulowany Pominięcie aspektów prawnych i etycznych może skutkować poważnymi konsekwencjami: karami finansowymi, sporami lub utratą zaufania klientów.
1) Dane osobowe
Algorytmy deep learningu uczą się na podstawie danych, które często mają charakter danych osobowych i w tym zakresie podlegają ochronie wynikającej z RODO[9]. Do zasad, które przedsiębiorstwo musi przestrzegać, należą: zasada minimalizacji danych (przetwarzanie tylko informacji niezbędnych do realizacji celu), stosowanie anonimizacji i pseudonimizacji, obowiązki informacyjne wobec osób, których dane dotyczą, oraz prawo do bycia zapomnianym.
Problemem w kontekście deep learningu jest to, że nawet dane, które na pierwszy rzut oka wydają się anonimowe, mogą w praktyce podlegać reidentyfikacji. EDPB w najnowszych opiniach dotyczących modeli AI[10] podkreśla, że w wielu przypadkach trudno zagwarantować pełną skuteczność anonimizacji. Z tego powodu organizacje powinny dokumentować środki techniczne i organizacyjne minimalizujące ryzyko identyfikacji.
2) Decyzje AI
W obszarze ochrony danych osobowych za zgodność z RODO zwykle odpowiada administrator danych, to on decyduje o celach i sposobach przetwarzania danych oraz musi wdrożyć odpowiednie środki. Kwestia komplikuje się przy decyzjach AI. Dostawca technologii projektuje algorytm, firma włącza go do procesów biznesowych, a osoba trzecia doświadcza skutków decyzji. Kto ostatecznie poniesie odpowiedzialność, zależy od konkretnego przypadku, umów między stronami oraz od tego, czy szkoda wynika z naruszenia przepisów o ochronie danych, błędu systemu czy innego działania.
Na poziomie regulacyjnym Unia Europejska ujęła w AI Act[11] wymagania techniczne i organizacyjne dotyczące projektowania, wdrażania i monitorowania systemów sztucznej inteligencji. Akt opiera się na podejściu zróżnicowanym według poziomu ryzyka: praktyki oceniane jako „unacceptable risk” są zakazane (np. subliminalne manipulacje, social scoring), inne klasyfikowane są jako wysokiego ryzyka (np. systemy mające wpływ na decyzje kredytowe, medyczne, HR), zaś istnieją też kategorie ograniczonego ryzyka (np. chatboty) i minimalnego ryzyka (np. filtry antyspamowe). Warto zwrócić uwagę, że AI Act nakłada obowiązki na dostawców i wdrażających systemy AI, ale nie wyłącza zasad odpowiedzialności cywilnej. Osoby poszkodowane przez systemy AI nadal mogą dochodzić odszkodowań na podstawie prawa krajowego i unijnego. Jednocześnie UE modernizuje ramy odpowiedzialności produktowej: przyjęto nowelizowaną Product Liability Directive 2024/2853, która rozszerza definicję „produktu” na oprogramowanie i systemy AI, wprowadza ułatwienia dowodowe oraz nowe obowiązki dla producentów i dostawców, co sprawia, że mapowanie ryzyk prawnych w tym obszarze staje się coraz ważniejsze dla firm.
3) Transparentność
Firmy stosujące DL muszą uwzględnić wymogi dotyczące wyjaśnialności decyzji algorytmu. Sieci neuronowe są z natury złożone i często działają jak „czarna skrzynka”, co sprawia, że spełnienie tych wymogów może być trudne. Zgodnie z AI Act, systemy wysokiego ryzyka muszą być rozwijane w sposób zapewniający dostateczny poziom przejrzystości, dzięki czemu użytkownicy mogą zrozumieć, jak działa system i dlaczego podjął określoną decyzję. Przepisy te obejmują wymogi dokumentacji technicznej i testów, prowadzenia rejestrów operacyjnych, jak również obowiązek dostarczania informacji o sposobie działania modelu[12].
4) Etyka
Deep learning może nieświadomie przejmować uprzedzenia, przez co algorytmy mogą preferować kandydatów określonej płci, wieku czy pochodzenia. Systemy uczące się mogą różnicować ceny dla wybranych grup klientów, co prowadzi do ryzyka dyskryminacji (np. na podstawie miejsca zamieszkania czy cech demograficznych). Chatboty trenowane na nieodpowiednich danych mogą odpowiadać w sposób nieadekwatny, a nawet obraźliwy, co obniża jakość doświadczeń użytkowników. Dlatego tak ważne jest projektowanie algorytmu z uwzględnieniem etyki, przeprowadzanie analiz biasu (uprzedzeń algorytmicznych) i regularnych testów sprawdzających równość działania modelu.
5) Cyberbezpieczeństwo
Systemy oparte na deep learningu są podatne na ataki. Szczególnie istotne zagrożenia to celowe „zatruwanie” danych treningowych, które prowadzi do błędnych prognoz, manipulowanie danymi wejściowymi w celu oszukania systemu (np. niewielkie zmiany w obrazie mogą uniemożliwić prawidłową klasyfikację), czy wycieki danych.
RODO nakłada na firmy obowiązek wdrażania odpowiednich zabezpieczeń danych osobowych, a ustawa z dnia 5 lipca 2018 r. o krajowym systemie cyberbezpieczeństwa zobowiązuje operatorów usług kluczowych do monitorowania i reagowania na incydenty. Zgodnie z raportami EY[13] wiele organizacji zauważa rosnącą liczbę prób ataków związanych z implementacją AI. Dlatego szyfrowanie, testy penetracyjne i stały monitoring są uważane za kluczowe elementy bezpiecznego wdrażania rozwiązań opartych na deep learningu.
Podsumowanie
Deep learning staje się jednym z kluczowych motorów transformacji cyfrowej. W przeciwieństwie do tradycyjnych algorytmów uczenia maszynowego, DL pozwala na analizę złożonych, nieustrukturyzowanych danych: obrazów, nagrań audio, języka naturalnego czy zachowań użytkowników. Dzięki temu przedsiębiorstwa mogą nie tylko lepiej rozumieć przeszłość, ale też prognozować przyszłość i reagować na nią w czasie rzeczywistym. Z drugiej strony, ta technologia niesie ryzyka – od naruszeń ochrony danych osobowych, przez brak przejrzystości działania algorytmów, aż po ryzyko dyskryminacji i ataków cybernetycznych. Dlatego innowacje muszą iść w parze z regulacjami i kontrolą prawną.
Katarzyna Prykiel
Radca prawny przy Okręgowej Izbie Radców Prawnych w Warszawie. Specjalizuje się w obsłudze prawnej spółek oraz prawie gospodarczym. Prowadzi własną kancelarię, gdzie łączy wiedzę prawną z rozumieniem realiów biznesowych. Doradza firmom na każdym etapie działalności – od założenia, przez bieżące doradztwo, po procesy reorganizacyjne i spory sądowe.
Artykuł powstał w ramach realizacji projektu Centrum Rozwoju Małych i Średnich Przedsiębiorstw sfinansowanego ze środków Ministerstwa Rozwoju i Technologii
[1] Monitor Transformacji Cyfrowej Biznesu [online], KPMG & Microsoft, czerwiec 2022 [dostęp 2025-09-02] (pol.).
[2] The state of AI in 2022—and a half decade in review [online], McKinsey, grudzień 2022 [dostęp 2025-09-02] (ang.).
[3] 2025 AI Business Predictions [online], PwC, www.pwc.com [dostęp 2025-09-09] (ang.).
[4] Amazon changes its prices more than 2.5 million times a day [online], Roberto A. Ferdman, 21 lipca 2022 r., www.qz.com [dostęp 2025-09-13] (ang.).
[5] Responsible AI: injecting ethics into algorithms [online], KPMG, 29 czerwca 2022 r., www.kpmg.com [dostęp 2025-09-13] (ang.).
[6] Jak analiza dużych zbiorów danych może pomóc instytucjom finansowym? [online], Marcin Pisarski, Radosław Wojdowski, 15 lutego 2024 r., www.ey.com [dostęp 2025-09-13] (pol.).
[7] The Adoption of Artificial Intelligence in Firms [online], OECD, 2025 r. [dostęp 2025-09-15] (ang.).
[8] The Future of Jobs Report 2023 [online], World Economic Forum, maj 2023 r. [dostęp 2025-09-15] (ang.).
[9] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych)
[10] Opinia 28/2024 w sprawie niektórych aspektów ochrony danych związanych z przetwarzaniem danych osobowych w kontekście modeli AI, EDPB, 17 grudnia 2024 r.
[11] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji)
[12] Przejrzystość, w tym wyjaśnialność sztucznej inteligencji i ich funkcje w RODO i AI Act, Monitor Prawniczy nr 11/2024, Dominik Lubasz
[13] How can cybersecurity transform to accelerate value from AI? [online], EY, 1 maja 2024 r., www.ey.com [dostęp 2025-09-16] (ang.).