Czy procedury w firmie powinny regulować zasady korzystania z AI?

Dynamiczny rozwój sztucznej inteligencji (AI) w ostatnich latach otworzył przed przedsiębiorcami ogromne możliwości – od automatyzacji procesów, przez generowanie treści, po zaawansowaną analitykę. Jednocześnie pojawiły się nowe wyzwania dotyczące bezpieczeństwa danych. W praktyce każdy adwokat czy specjalista odpowiedzialny za obsługę prawną firm dostrzega, że AI przetwarza często dane poufne, a nawet wrażliwe, co wymaga odpowiedniego uregulowania zasad jej użycia.

AI jako nowe wyzwanie dla bezpieczeństwa danych

Sztuczna inteligencja stała się narzędziem powszechnie wykorzystywanym zarówno w życiu prywatnym, jak i zawodowym. Systemy AI działają dzięki danym wprowadzanym przez użytkowników – to one są ich „paliwem”. Wprowadza to fundamentalne pytanie: czy obecne procedury bezpieczeństwa danych obejmują ryzyka związane z AI, czy muszą zostać dostosowane do nowych realiów?

Z perspektywy kancelarii widoczne jest rosnące zapotrzebowanie przedsiębiorców na uporządkowanie zasad korzystania z narzędzi AI, zwłaszcza gdy mogą one przetwarzać dane klientów lub informacje stanowiące tajemnicę przedsiębiorstwa.

AI Act – pierwsza tak kompleksowa regulacja w Europie

Odpowiedzią na rozwój technologii jest unijne Rozporządzenie AI Act (2024/1689), które weszło w życie 1 sierpnia 2024 r. i przewiduje stopniowe wdrażanie przepisów aż do 2027 r. To pierwsza w Europie tak kompleksowa regulacja dotycząca systemów AI.

Jej celem jest:

  • zapewnienie bezpieczeństwa danych,
  • stworzenie przejrzystych reguł odpowiedzialności,
  • umożliwienie nadzoru nad systemami sztucznej inteligencji.

AI Act wprowadza liczne obowiązki po stronie dostawców, ale również tych podmiotów, które korzystają z AI. Oznacza to, że firmy – niezależnie od branży – będą musiały przygotować lub dostosować procedury bezpieczeństwa, aby korzystać z narzędzi AI zgodnie z prawem.

Dlaczego procedury bezpieczeństwa firm muszą objąć AI?

Dla wielu przedsiębiorców korzystanie z generatywnych narzędzi AI stało się codziennością. Ale brak zasad może prowadzić do realnych zagrożeń – technologicznych, prawnych i wizerunkowych. Z perspektywy praktyki, w której ważną rolę odgrywa obsługa prawna firm, najczęściej pojawiają się trzy obszary ryzyka:

1. Ryzyko ujawnienia danych

Pracownicy mogą nieświadomie wprowadzać do narzędzi AI:

  • dane klientów,
  • umowy,
  • dokumenty finansowe,
  • informacje objęte tajemnicą przedsiębiorstwa.

Może to prowadzić do naruszenia RODO i odpowiedzialności prawnej.

2. Ryzyko błędnych lub zmanipulowanych danych

Systemy AI generują treści, które brzmią profesjonalnie, ale nie zawsze są zgodne z faktami. Opieranie procesów biznesowych na takich materiałach może być kosztowne.

3. Ryzyko odpowiedzialności prawnej

Co, jeśli narzędzie AI wygeneruje treść naruszającą:

  • prawa autorskie,
  • dobra osobiste,
  • przepisy o zwalczaniu nieuczciwej konkurencji?

Bez procedur odpowiedzialność spada na firmę.

Jakie zasady powinny znaleźć się w procedurach bezpieczeństwa?

Nowoczesne procedury bezpieczeństwa nie mogą ograniczać się wyłącznie do haseł i zakazów klikania w podejrzane linki. Powinny regulować m.in.:

  • jakie dane wolno wprowadzać do narzędzi AI,
  • kiedy wymagana jest ludzka weryfikacja wyników,
  • jak klasyfikować poziomy ryzyka w zależności od rodzaju wykorzystania AI,
  • jakich narzędzi AI używa firma i w jakich celach,
  • kto ponosi odpowiedzialność za weryfikację treści generowanych przez AI,
  • jak dokumentować działania realizowane z udziałem AI.

W wielu branżach – np. bankowości czy medycynie – takie regulacje już funkcjonują. To tylko potwierdza, że podobne standardy są konieczne również w innych sektorach gospodarki.

Sankcje za naruszenia AI Act

AI Act przewiduje bardzo wysokie administracyjne kary pieniężne – nawet do 15 mln euro lub 3% rocznego światowego obrotu przedsiębiorstwa. Konstrukcja ta przypomina mechanizm kar znany z RODO i może stanowić poważne ryzyko dla firm, które nie wdrożą odpowiednich procedur.

Podsumowanie: AI wymaga świadomego i bezpiecznego wdrożenia w firmie

Sztuczna inteligencja to narzędzie o ogromnym potencjale, ale wymaga odpowiedzialności. Każdy przedsiębiorca powinien dostosować procedury bezpieczeństwa do nowych realiów technologicznych, aby chronić dane, uniknąć ryzyka prawnego i korzystać z AI w sposób zgodny z przepisami.

Jeżeli firma korzysta z AI w procesach operacyjnych lub planuje jej wdrożenie, warto skonsultować to z prawnikiem. Profesjonalna analiza ryzyka oraz przygotowanie procedur wewnętrznych to dziś element rzetelnej obsługi prawnej firm.

Masz pytania dotyczące stosowania AI w Twojej firmie? Skontaktuj się z naszą kancelarią – Kancelaria GRUBE | Adwokat Gdynia.