28 sierpnia 2025
AI literacy, czyli o odpowiedzialnym korzystaniu ze sztucznej inteligencji
Udostępnij
Wraz z postępującą cyfryzacją i coraz szerszym zastosowaniem sztucznej inteligencji (AI) w życiu codziennym i zawodowym, rosnące znaczenie zyskuje pojęcie AI literacy, rozumiane jako umiejętność świadomego, odpowiedzialnego i zgodnego z prawem korzystania z systemów opartych na AI. Zagadnienie to wykracza poza sferę technologiczną – obejmuje kompetencje cyfrowe, etyczne oraz prawne, a jego znaczenie zostało dodatkowo podkreślone w przepisach Unii Europejskiej.
AI – co na to prawo?
Kwestie sztucznej inteligencji reguluje zwłaszcza ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (tzw. AI Act). Rozporządzenie weszło w życie w dniu 2 sierpnia 2024 r., ale jego stosowanie zostało odroczone w czasie. Pierwsza grupa przepisów, obejmująca m.in. AI literacy jest już stosowana od 2 lutego 2025 r.
Czy AI Act i AI literacy ogranicza korzystanie ze sztucznej inteligencji?
Wbrew obawom części środowisk, celem AI Act nie jest hamowanie rozwoju technologii. W preambule rozporządzenia wskazano, że jego celem jest poprawa funkcjonowania rynku unijnego przez ustalenie ram dotyczących m.in. rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji.
Przepisy mają dążyć do tego by sztuczna inteligencja była narzędziem bezpiecznym, etycznym i godnym zaufania oraz zorientowanym na człowieka. Celem rozporządzenia nie jest zatrzymanie rozwoju technologii, ale zapewnienie bezpiecznych ram tego rozwoju i wspieranie innowacji.
Zwrócono uwagę na to, że ujednolicenie zasad ma pomóc uniknąć zarówno:
- nadmiernych ograniczeń dotyczących korzystania z AI, które mogłyby być nakładane przez przepisy krajowe, co hamowałoby rozwój sztucznej inteligencji i utrudniało swobodną działalność na terenie UE dostawcom takich usług i narzędzi, jak i
- stosowaniu i rozwijaniu narzędzi sztucznej inteligencji bez zapewnienia wysokiego poziomu ochrony zdrowia, bezpieczeństwa, podstawowych praw, w tym praworządności, demokracji, ochrony środowiska.
AI literacy jako obowiązek prawny – czym jest?
W ocenie Komisji Europejskiej realizacja celów AI Act wymaga zobowiązania organizacji do podnoszenia kompetencji w zakresie AI. W tym celu wprowadzono art. 4 AI Act, zgodnie z którym:
Dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być wykorzystywane.
Czym są kluczowe kompetencje AI wymagane przez prawo UE?
Zgodnie z art. 3 pkt 56 AI Act kompetencje w zakresie AI oznaczają umiejętności, wiedzę oraz zrozumienie, które pozwalają dostawcom, podmiotom stosującym i osobom, na które AI ma wpływ – z uwzględnieniem ich odnośnych praw i obowiązków w kontekście niniejszego rozporządzenia – w przemyślany sposób wdrażać systemy sztucznej inteligencji oraz mieć świadomość, jakie możliwości i ryzyka wiążą się z AI oraz jakie potencjalne szkody może ona wyrządzić.
Kogo obejmuje AI literacy?
Zgodnie z art. 4 AI Act, obowiązki nazywane zbiorczo jako AI literacy obejmują:
- dostawców systemów sztucznej inteligencji, tj. osoby fizyczne lub prawne, organy publiczne, agencje lub inne podmioty, które rozwijają system AI lub model AI ogólnego przeznaczenia lub zlecają rozwój systemu AI lub modelu AI ogólnego przeznaczenia oraz które – odpłatnie lub nieodpłatnie – pod własną nazwą lub własnym znakiem towarowym wprowadzają do obrotu lub oddają do użytku system AI oraz
- podmioty, które stosują systemy AI w swoich organizacjach, tj. osoby fizyczne lub prawne, które wykorzystują system AI, nad którym sprawują kontrolę. Z podmiotów stosujących wyłączone są osoby, które stosują systemy AI do działalności pozazawodowej.
Rozporządzenie dotyczy nie tylko podmiotów z Unii Europejskiej, ale także spoza Unii Europejskiej, jeśli:
- ich systemy/ modele AI ogólnego przeznaczenia są wprowadzane do obrotu na rynek UE,
- ich systemy/modele AI oddawane są do użytku na terytorium UE, lub
- jeśli wyniki działania tych systemów są wykorzystywane w UE.
Zgodnie z art. 4 AI Act, wskazane wyżej podmioty muszą zapewnić w możliwie największym stopniu, odpowiedni poziom kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu.
Komisja Europejska w swoich wyjaśnieniach potwierdza, że pod pojęciem innych osób można rozumieć te osoby, które działają w imieniu organizacji, a więc m.in. zleceniobiorców, podwykonawców, usługodawców, zewnętrznych dostawców czy klientów, o ile ich działania są powiązane z funkcjonowaniem AI w organizacji[1]. Przesłanka działania „w imieniu organizacji” może być interpretowana szeroko, w zależności od roli danej osoby w procesie wdrożenia lub użytkowania AI.
Co ważne, AI literacy dotyczy nie tylko pracowników technicznych czy działu IT/ programistów, ale także osób z innych działów, w których AI jest wykorzystywane, m.in. w działach rekrutacji pracowników, działach marketingu, działach sprzedaży, obsługi klienta czy nawet w działach prawnych. To właśnie tak najczęściej pojawia się ryzyko nieprawidłowego użycia sztucznej inteligencji do działań, które mogą mieć kluczowe znaczenie dla organizacji.
Przykład z praktyki
W jednej z firm, z którą współpracowałam, dział marketingu korzystał z AI do tworzenia opisów produktów, ale bez żadnych procedur weryfikacyjnych. Efekt? Na stronie pojawiały się treści z nieaktualnymi informacjami o parametrach technicznych, co naraziło firmę na reklamacje klientów. Dopiero wdrożenie AI literacy – w tym obowiązkowej weryfikacji treści przed publikacją i określenie odpowiedzialności za finalną treść – ograniczyło podobne ryzyka w przyszłości.
Niezależnie od działań wewnętrznych w organizacji, organizacja CIPL[2] (Centre for Information Policy Leadership) zwraca uwagę, że równie ważna jest także edukacja społeczna. W swoim raporcie podkreśla, że obecnie coraz więcej podmiotów podejmuje także działania z zakresu edukacji społecznej, udostępniając swoje narzędzia edukacyjne publicznie, np. przez darmowe kursy online, podcasty, biblioteki taksonomii z opisem ryzyk i korzyści, a także dokumentację zarządzania ryzykiem. Pojawiają się także inicjatywy współpracy z uczelniami wyższymi czy szkołami w celu wspierania podnoszenia kompetencji w zakresie AI.
Jakie kompetencje są wymagane w ramach AI literacy?
Z uwagi na szybki rozwój technologii i narzędzi sztucznej inteligencji AI Act nie określa wprost, jakie dokładnie kompetencje powinny zostać uznane za wystarczające. Ustawodawca unika nadmiernego uszczegółowienia – słusznie przewidując, że wyzwania danej organizacji mogą się znacznie różnić w zależności od profilu, sektora czy skali działalności, rodzaju wykorzystywanych systemów AI i ich funkcjonalności oraz stopnia ich autonomiczności/ zaawansowania.
Artykuł 3 pkt 56 AI Act oraz motyw 20 rozporządzenia podkreślają, że celem AI literacy jest zapewnienie użytkownikom, dostawcom i osobom, na które wpływa AI, wiedzy i umiejętności niezbędnych do podejmowania świadomych decyzji w kontekście stosowania systemów sztucznej inteligencji. Ma to wspomóc osiągnąć największe korzyści z systemów AI przy jednoczesnym zachowaniu praw podstawowych, zdrowia i bezpieczeństwa i innych wspomnianych i promowanych przez UE wartości.
Choć AI Act nie wprowadza zamkniętego katalogu, najczęściej wymieniane elementy to:
- rozumienie podstawowych pojęć dotyczących AI,
- znajomość stosowanych systemów i ich przeznaczenia,
- identyfikacja potencjalnych zagrożeń i korzyści (np. halucynacje AI, błędy predykcyjne, bias, brak przejrzystości),
- umiejętność interpretacji i oceny wyników AI,
- zapewnienie zgodności z prawem (RODO, prawa autorskie, DSA, cyberbezpieczeństwo, regulacje sektorowe).
W odniesieniu do osób, na które AI ma wpływ, konieczne jest wyposażanie ich w wiedzę niezbędną do zrozumienia, jaki wpływ będą miały na nie decyzje podejmowane przy pomocy AI. Są to bowiem osoby, które są narażane na skutki działania systemów AI. Ważna jest również świadomość tych osób dotycząca odpowiedzialności prawnej i konsekwencji błędnego wykorzystania AI.
Należy pamiętać, że ostateczny zakres kompetencji, ale też lista działań, która wymaga wdrożenia będą zależne od kontekstu działalności.
Najczęstszy błąd
Traktowanie AI literacy wyłącznie jako jednorazowego szkolenia. W praktyce kompetencje w tym obszarze trzeba stale rozwijać, zarówno z uwzględnieniem kwestii prawnych, jak i technologicznych, ponieważ narzędzia i ryzyka zmieniają się w szybkim tempie.
Jakie są dobre praktyki wdrażania AI literacy i jak je dostosować do swojej działalności?
CIPL[3] w swoim raporcie wśród dobrych praktyk wskazuje na:
- tworzenie kultury organizacyjnej opartej na wspólnej odpowiedzialności za edukację AI poprzez dzielenie się wiedzą, oraz identyfikację dobrych praktyk,
- dostosowywanie programów i strategii wdrażania AI literacy do rozwoju technologii oraz faktycznych potrzeb
- wychodzenie poza tradycyjne szkolenia i tworzenie okazji do praktycznego zastosowania wiedzy z odpowiednim wsparciem;
- stosowanie podejścia nastawionego na rozwój i informację zwrotną
- ustalenie tzw. wspólnej taksonomii AI w organizacji, czyli stworzenie wspólnego języka oraz klasyfikacja pojęć związanych z AI, które są wykorzystywane w organizacji.
Zgodnie z raportem CIPL, odpowiednio stworzone programy edukacyjne:
- budują wiedzę personelu o politykach i procedurach AI obowiązujących w organizacji,
- pozwalają przełożyć teorię na praktykę i codzienną pracę z systemami AI,
- zwiększają świadomość dotyczącą zgodności działań z przepisami i pozwalają je lepiej zrozumieć w praktyce.
Rada eksperta
Prowadząc szkolenia dla przedsiębiorców w celu realizacji przez nich obowiązków z AI literacy widzę jak ważne jest zaangażowanie kierownictwa w to by edukacja w zakresie AI była priorytetem. Tylko wtedy możliwe jest trwałe wdrożenie kultury świadomego i odpowiedzialnego korzystania z AI w całej organizacji, w której pracownicy rozumieją zarówno potencjał, jak i ryzyka technologii, potrafią stosować ją w zgodzie z przepisami, a kierownictwo aktywnie wspiera rozwój kompetencji, zapewnia zasoby i egzekwuje standardy etyczne.
Na co warto zwrócić uwagę przy określaniu niezbędnych kompetencji w ramach organizacji?
Zarówno CIPL, jak i Komisja Europejska CIPL podkreślają, że aby wdrożyć AI literacy konieczne są:
- identyfikacja potrzeb edukacyjnych,
- promowanie istniejącej wiedzy,
- rozwój nowych kompetencji i wdrażanie dobrych praktyk.
Rada eksperta
Przy wdrażaniu AI literacy rekomenduję rozpoczęcie od audytu kompetencji i ustalenia, które działy organizacji mają największy kontakt z AI, gdzie pojawia się najwięcej ryzyk, ale i też korzyści z wykorzystywania sztucznej inteligencji. To pozwala szybko określić priorytety edukacyjne i dobrać odpowiednią formę szkoleń.
Aby wdrożenie AI literacy było skuteczne, warto odpowiedzieć sobie m.in. na poniższe pytania i zweryfikować:
- jak dużo pracownicy/osoby wiedzą o sztucznej inteligencji i systemach organizacji, z których korzystają?
- co jeszcze powinni wiedzieć?
Ważne jest też to:
- w jakim sektorze działa organizacja i jakiej wielkości jest organizacja,
- w jakim stopniu systemy AI są wykorzystywane w firmie - wewnętrznie czy też nie,
- z jakich systemów korzystają i jakie jest przeznaczenie systemów - w jakim celu/usłudze będzie wykorzystywany system AI (np. wyłącznie do tworzenia tekstów reklamowych czy też może skutkować podejmowaniem istotnych decyzji mających wpływ na zdrowie, życie, bezpieczeństwo czy inne aspekty),
- czy jest to system wysokiego ryzyka,
- do jakich osób system AI jest kierowany (np. konsumentów, pacjentów, obywateli, firm),
- w jaki sposób systemy AI wchodzą w interakcję z innymi obowiązkami regulacyjnymi,
- jakie kompetencje są potrzebne pracownikom, żeby móc bezpiecznie, etycznie i zgodnie z wymogami stosować AI.
Wskazówka praktyczna
Jeśli w organizacji korzysta się z wielu różnych narzędzi AI, wprowadź centralny rejestr tych systemów. To ułatwia monitorowanie zgodności z przepisami i planowanie szkoleń.
Przy projektowaniu narzędzi wspierających organizację w budowaniu kompetencji należy uwzględnić różnice w wiedzy technicznej, doświadczeniu, wykształceniu i poziomie przeszkolenia personelu oraz innych osób. CIPL wśród rekomendowanych działań wskazuje m.in.:
- wprowadzenie szkolenia bazowego dla wszystkich pracowników,
- organizację szkoleń specjalistycznych w zależności od sposobu wykorzystywania AI w organizacji,
- stosowanie różnych form nauki,
- stworzenie wspólnej bazy wiedzy z materiałami edukacyjnymi dotyczącymi AI, dostosowanymi do ról i poziomów zaawansowania.
Przykład z praktyki
Inne wyzwania będą miały organizacje (i poszczególne działy), które korzystają z AI do generowania tekstu, a inne – te wykorzystujące AI do obsługi zapytań ofertowych. Odmienne wyzwania stoją także przed organizacjami tworzącymi systemy AI do analiz opartych na danych zwykłych, a inne – przed tymi, które używają AI np. w pracy z danymi wrażliwymi np. w ochronie zdrowia. W pierwszym przypadku kluczowa może być umiejętność rozpoznawania halucynacji AI czy deepfake’ów. W drugim – ochrona danych wrażliwych (tzw. danych szczególnej kategorii) oraz zapewnienie prywatności i poufność.
Dodatkowo, edukacja AI powinna być także zintegrowana z istniejącymi w firmie innymi programami zgodności, strategią i procesami biznesowymi. Należy pamiętać, że kompetencje w zakresie AI obejmują wiele obszarów – zarówno kwestie techniczne, biznesowe, jak i prawne. Od strony prawnej korzystanie z AI będzie ściśle związane nie tylko z samym rozporządzeniem AI Act, ale także z innymi przepisami takimi jak ochrona danych osobowych – RODO, kwestie praw własności intelektualnej, poufności i bezpieczeństwa informacji, ochrony konsumentów, usług cyfrowych [DSA], jak również cyberbezpieczeństwo czy regulacje sektorowe.
Organizacje przy określaniu kompetencji powinny uwzględniać cały cykl życia systemu AI w organizacji, a lista kompetencji powinna być aktualizowana wraz z rozwojem lub zmianą korzystania z systemów.
Czy AI literacy nakłada obowiązek mierzenia i dokumentowania poziomu wiedzy i kompetencji personelu w zakresie sztucznej inteligencji?
Artykuł 4 AI Act nie nakłada wprost obowiązku pomiaru wiedzy i umiejętności pracowników w zakresie sztucznej inteligencji. Potwierdza to też Komisja Europejska.
Niezależnie od tego, mając na uwadze zasadę rozliczalności i przejrzystości, w celu wykazania, że organizacja dba o zapewnienie zgodności swojego działania z AI Act, zalecane jest dokumentowanie podejmowanych działań.
Czy w przypadku przeprowadzenia szkolenia, konieczne jest uzyskanie certyfikatu?
Komisja Europejska wprost wskazuje, że certyfikat nie jest wymagany. Do celów rozliczalności tj. wykazania działań organizacji w zakresie wyposażania w kompetencje należy jednak zadbać o udokumentowanie szkoleń. Może to następować także np. poprzez prowadzenie wewnętrznego rejestry szkoleń lub przez dokumentowanie udziału w szkoleniach w ramach platformy e-learningowej.
Dlaczego AI literacy to kluczowy obowiązek organizacji?
Zasady godnej zaufania sztucznej inteligencji (AI) – takie jak nadrzędna rola człowieka, bezpieczeństwo, ochrona prywatności, przejrzystość i niedyskryminacja – jasno pokazują, że rozwój sztucznej inteligencji musi iść w parze ze świadomością prawną i społeczną. Dotyczy to zarówno dostawców i twórców technologii, jak i jej użytkowników.
AI oferuje ogromne korzyści, ale niesie też poważne ryzyka jak manipulowanie użytkownikami, nieprawidłowości w generowanych wynikach tzw. halucynacje AI, nielegalne profilowanie, naruszenia prywatności przy zdalnej identyfikacji biometrycznej, utrwalanie dyskryminacji w rekrutacji czy edukacji, dezinformację, podszywanie się pod osoby – i wiele innych zagrożeń, których skala zależy od możliwości danego systemu.
To wszystko sprawia, że tak istotne obecnie jest etyczne i odpowiedzialne projektowanie, rozwijanie i stosowanie AI. Dzięki AI literacy organizację mogą:
- uzyskać wyższą jakość decyzji podejmowanych z pomocą AI,
- zwiększyć wykorzystanie pełnego potencjału narzędzi AI przy jednoczesnym zminimalizowaniu ryzyk prawnych i wizerunkowych,
- lepiej przygotować się na audyty i kontrole.
Warto zauważyć, że AI literacy to dziś nie tylko „kompetencja przyszłości” – to realna potrzeba ochrony praw i wolności. Organizacje, które już teraz inwestują w edukację w tym zakresie, zyskują przewagę – prawną, wizerunkową i biznesową.
Kinga Konopelko – radca prawny, ekspert prawa biznesowego i regulacji dotyczących sztucznej inteligencji, koordynator projektów prawnych. Właścicielka Kancelarii, która łączy prawo i strategię, wspierając przedsiębiorców w bezpiecznym wdrażaniu i stosowaniu AI zgodnie z wymogami UE. Występuje jako prelegentka na konferencjach biznesowych i technologicznych. Publikuje m.in. w Forbes, Gazeta Prawna, Rzeczpospolita, Puls Biznesu
[1] European Commision, AI Literacy - Questions & Answers
https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers (data dostępu: 01.08.2025r.)
[2] CIPL's EU AI Act Implementation Project, AI Act Article 4: AI Literacy Best Practices and Recommendations for Practitioners, https://www.informationpolicycentre.com/uploads/5/7/1/0/57104281/cipl_ai_literacy_best_practices_may25.pdf (data dostępu: 03.08.2025r.)
[3] CIPL's EU AI Act Implementation Project, AI Act Article 4: AI Literacy Best Practices and Recommendations for Practitioners, https://www.informationpolicycentre.com/uploads/5/7/1/0/57104281/cipl_ai_literacy_best_practices_may25.pdf (data dostępu: 03.08.2025r.)