Czy procedury w firmie powinny regulować zasady korzystania z AI?
Dynamiczny rozwój sztucznej inteligencji (AI) w ostatnich latach otworzył przed przedsiębiorcami ogromne możliwości – od automatyzacji procesów, przez generowanie treści, po zaawansowaną analitykę. Jednocześnie pojawiły się nowe wyzwania dotyczące bezpieczeństwa danych. W praktyce każdy adwokat czy specjalista odpowiedzialny za obsługę prawną firm dostrzega, że AI przetwarza często dane poufne, a nawet wrażliwe, co wymaga odpowiedniego uregulowania zasad jej użycia.
AI jako nowe wyzwanie dla bezpieczeństwa danych
Sztuczna inteligencja stała się narzędziem powszechnie wykorzystywanym zarówno w życiu prywatnym, jak i zawodowym. Systemy AI działają dzięki danym wprowadzanym przez użytkowników – to one są ich „paliwem”. Wprowadza to fundamentalne pytanie: czy obecne procedury bezpieczeństwa danych obejmują ryzyka związane z AI, czy muszą zostać dostosowane do nowych realiów?
Z perspektywy kancelarii widoczne jest rosnące zapotrzebowanie przedsiębiorców na uporządkowanie zasad korzystania z narzędzi AI, zwłaszcza gdy mogą one przetwarzać dane klientów lub informacje stanowiące tajemnicę przedsiębiorstwa.
AI Act – pierwsza tak kompleksowa regulacja w Europie
Odpowiedzią na rozwój technologii jest unijne Rozporządzenie AI Act (2024/1689), które weszło w życie 1 sierpnia 2024 r. i przewiduje stopniowe wdrażanie przepisów aż do 2027 r. To pierwsza w Europie tak kompleksowa regulacja dotycząca systemów AI.
Jej celem jest:
- zapewnienie bezpieczeństwa danych,
- stworzenie przejrzystych reguł odpowiedzialności,
- umożliwienie nadzoru nad systemami sztucznej inteligencji.
AI Act wprowadza liczne obowiązki po stronie dostawców, ale również tych podmiotów, które korzystają z AI. Oznacza to, że firmy – niezależnie od branży – będą musiały przygotować lub dostosować procedury bezpieczeństwa, aby korzystać z narzędzi AI zgodnie z prawem.
Dlaczego procedury bezpieczeństwa firm muszą objąć AI?
Dla wielu przedsiębiorców korzystanie z generatywnych narzędzi AI stało się codziennością. Ale brak zasad może prowadzić do realnych zagrożeń – technologicznych, prawnych i wizerunkowych. Z perspektywy praktyki, w której ważną rolę odgrywa obsługa prawna firm, najczęściej pojawiają się trzy obszary ryzyka:
1. Ryzyko ujawnienia danych
Pracownicy mogą nieświadomie wprowadzać do narzędzi AI:
- dane klientów,
- umowy,
- dokumenty finansowe,
- informacje objęte tajemnicą przedsiębiorstwa.
Może to prowadzić do naruszenia RODO i odpowiedzialności prawnej.
2. Ryzyko błędnych lub zmanipulowanych danych
Systemy AI generują treści, które brzmią profesjonalnie, ale nie zawsze są zgodne z faktami. Opieranie procesów biznesowych na takich materiałach może być kosztowne.
3. Ryzyko odpowiedzialności prawnej
Co, jeśli narzędzie AI wygeneruje treść naruszającą:
- prawa autorskie,
- dobra osobiste,
- przepisy o zwalczaniu nieuczciwej konkurencji?
Bez procedur odpowiedzialność spada na firmę.
Jakie zasady powinny znaleźć się w procedurach bezpieczeństwa?
Nowoczesne procedury bezpieczeństwa nie mogą ograniczać się wyłącznie do haseł i zakazów klikania w podejrzane linki. Powinny regulować m.in.:
- jakie dane wolno wprowadzać do narzędzi AI,
- kiedy wymagana jest ludzka weryfikacja wyników,
- jak klasyfikować poziomy ryzyka w zależności od rodzaju wykorzystania AI,
- jakich narzędzi AI używa firma i w jakich celach,
- kto ponosi odpowiedzialność za weryfikację treści generowanych przez AI,
- jak dokumentować działania realizowane z udziałem AI.
W wielu branżach – np. bankowości czy medycynie – takie regulacje już funkcjonują. To tylko potwierdza, że podobne standardy są konieczne również w innych sektorach gospodarki.
Sankcje za naruszenia AI Act
AI Act przewiduje bardzo wysokie administracyjne kary pieniężne – nawet do 15 mln euro lub 3% rocznego światowego obrotu przedsiębiorstwa. Konstrukcja ta przypomina mechanizm kar znany z RODO i może stanowić poważne ryzyko dla firm, które nie wdrożą odpowiednich procedur.
Podsumowanie: AI wymaga świadomego i bezpiecznego wdrożenia w firmie
Sztuczna inteligencja to narzędzie o ogromnym potencjale, ale wymaga odpowiedzialności. Każdy przedsiębiorca powinien dostosować procedury bezpieczeństwa do nowych realiów technologicznych, aby chronić dane, uniknąć ryzyka prawnego i korzystać z AI w sposób zgodny z przepisami.
Jeżeli firma korzysta z AI w procesach operacyjnych lub planuje jej wdrożenie, warto skonsultować to z prawnikiem. Profesjonalna analiza ryzyka oraz przygotowanie procedur wewnętrznych to dziś element rzetelnej obsługi prawnej firm.
Masz pytania dotyczące stosowania AI w Twojej firmie? Skontaktuj się z naszą kancelarią – Kancelaria GRUBE | Adwokat Gdynia.


