2 sierpnia 2025 roku weszły w życie kluczowe przepisy unijnego AI Act. Obejmują one dostawców modeli sztucznej inteligencji ogólnego przeznaczenia, zasady nakładania kar oraz nowe kompetencje organów nadzoru. To moment, który wyznacza nowy etap rozwoju i kontroli rynku AI w Europie - także w Polsce.
- To sygnał dla przedsiębiorców, instytucji badawczych i przedsiębiorstw technologicznych, że sektor AI w UE wchodzi w erę podwyższonej odpowiedzialności, wymagań dokumentacyjnych i nadzoru - mówi dr Robert Król, ekspert Uniwersytetu WSB Merito.
Modele GPAI pod kontrolą
Największe zmiany dotyczą tzw. modeli ogólnego przeznaczenia (GPAI), czyli takich, które można stosować do wielu różnych zadań - np. generatywne modele językowe. Od sierpnia ich dostawcy muszą prowadzić dokumentację techniczną i udostępniać jej streszczenia, współpracować z organami nadzoru, a w przypadku modeli uznanych za „systemowe” - spełniać szczególnie rygorystyczne wymogi dotyczące testów, zarządzania ryzykiem i cyberbezpieczeństwa.
- Modele systemowe będą musiały spełniać wyjątkowo wysokie standardy bezpieczeństwa, w tym ochrony danych i algorytmów - podkreśla dr Król.
Największe zmiany dotyczą tzw. modeli ogólnego przeznaczenia (GPAI), czyli takich, które można stosować do wielu różnych zadań - np. generatywne modele językowe. Od sierpnia ich dostawcy muszą prowadzić dokumentację techniczną i udostępniać jej streszczenia, współpracować z organami nadzoru, a w przypadku modeli uznanych za „systemowe” - spełniać szczególnie rygorystyczne wymogi dotyczące testów, zarządzania ryzykiem i cyberbezpieczeństwa.
- Modele systemowe będą musiały spełniać wyjątkowo wysokie standardy bezpieczeństwa, w tym ochrony danych i algorytmów - podkreśla dr Król.
Sankcje - wysokie kary, ale z odroczeniem
AI Act przewiduje kary sięgające nawet 35 mln euro lub 7 proc. rocznego obrotu przedsiębiorstwa. Dostawcy GPAI zostali jednak objęci odroczonym reżimem sankcji - pełna odpowiedzialność finansowa wobec nich zacznie obowiązywać od sierpnia 2026 r. Już teraz ciąży na nich jednak obowiązek przejrzystości i współpracy z organami, choć pełne egzekwowanie kar rozpocznie się dopiero za rok.
AI Act przewiduje kary sięgające nawet 35 mln euro lub 7 proc. rocznego obrotu przedsiębiorstwa. Dostawcy GPAI zostali jednak objęci odroczonym reżimem sankcji - pełna odpowiedzialność finansowa wobec nich zacznie obowiązywać od sierpnia 2026 r. Już teraz ciąży na nich jednak obowiązek przejrzystości i współpracy z organami, choć pełne egzekwowanie kar rozpocznie się dopiero za rok.
Nowe instytucje nadzorcze
Każde państwo członkowskie musiało wyznaczyć organy odpowiedzialne za kontrolę rynku AI. W Polsce prace nad powołaniem Komisji ds. Rozwoju i Bezpieczeństwa Sztucznej Inteligencji wciąż trwają. Komisja ma mieć prawo prowadzenia kontroli, nakładania kar i wydawania interpretacji. Na poziomie unijnym działa natomiast AI Office i AI Board, które mają zapewnić spójność stosowania przepisów w całej Europie.
- Polska stoi przed wyzwaniem zsynchronizowania prawa krajowego z wymaganiami unijnymi. To kwestia zarówno kompetencji, jak i realnej siły egzekucyjnej przyszłego organu - zaznacza ekspert.
Wyzwania dla biznesu i nauki
Nowe przepisy oznaczają dla przedsiębiorstw koszty dostosowania procesów, audytów i systemów monitoringu. Mogą być barierą dla start-upów czy ośrodków naukowych, które muszą godzić innowacyjność z biurokratycznymi wymogami. Z drugiej strony, firmy, które szybciej wdrożą nowe standardy, mogą zyskać przewagę rynkową - budując zaufanie klientów, partnerów i inwestorów.
Co dalej? Przed sektorem AI stoją kolejne wyzwania: różny stopień przygotowania państw członkowskich, brak szczegółowych standardów technicznych, a także konieczność szkolenia pracowników i budowania kompetencji w zakresie AI.
- Regulacje mają chronić użytkowników i prawa podstawowe, ale nie mogą jednocześnie tłumić innowacji. Zbyt rygorystyczne podejście grozi przesunięciem inwestycji poza Europę - ostrzega dr Król.
Każde państwo członkowskie musiało wyznaczyć organy odpowiedzialne za kontrolę rynku AI. W Polsce prace nad powołaniem Komisji ds. Rozwoju i Bezpieczeństwa Sztucznej Inteligencji wciąż trwają. Komisja ma mieć prawo prowadzenia kontroli, nakładania kar i wydawania interpretacji. Na poziomie unijnym działa natomiast AI Office i AI Board, które mają zapewnić spójność stosowania przepisów w całej Europie.
- Polska stoi przed wyzwaniem zsynchronizowania prawa krajowego z wymaganiami unijnymi. To kwestia zarówno kompetencji, jak i realnej siły egzekucyjnej przyszłego organu - zaznacza ekspert.
Wyzwania dla biznesu i nauki
Nowe przepisy oznaczają dla przedsiębiorstw koszty dostosowania procesów, audytów i systemów monitoringu. Mogą być barierą dla start-upów czy ośrodków naukowych, które muszą godzić innowacyjność z biurokratycznymi wymogami. Z drugiej strony, firmy, które szybciej wdrożą nowe standardy, mogą zyskać przewagę rynkową - budując zaufanie klientów, partnerów i inwestorów.
Co dalej? Przed sektorem AI stoją kolejne wyzwania: różny stopień przygotowania państw członkowskich, brak szczegółowych standardów technicznych, a także konieczność szkolenia pracowników i budowania kompetencji w zakresie AI.
- Regulacje mają chronić użytkowników i prawa podstawowe, ale nie mogą jednocześnie tłumić innowacji. Zbyt rygorystyczne podejście grozi przesunięciem inwestycji poza Europę - ostrzega dr Król.