Sztuczna inteligencja przestała być ciekawostką – dziś to narzędzie codziennego użytku, które potrafi pisać, analizować, a nawet diagnozować. Zanim jednak na dobre wkomponujemy AI w strategię naszej firmy, warto zadać sobie kilka kluczowych pytań: jakie dane „karmią” nasze AI? Czy potrafimy ocenić, kiedy algorytm się myli – a kiedy my mu ślepo wierzymy? Kto ponosi odpowiedzialność, gdy AI złamie prawo… albo reputację?

Unijny AI Act, czyli pierwsze w Europie kompleksowe prawo regulujące wykorzystanie sztucznej inteligencji, zacznie obowiązywać już w 2025 roku. Przewiduje konkretne obowiązki dla dostawców i użytkowników AI – i nieprzyjemne konsekwencje dla tych, którzy je zignorują (tak, mowa o karach w milionach euro).

W artykule „Jak bezpiecznie korzystać z AI w firmach” opublikowanym na łamach „Rzeczpospolita” Bartosz Grube i Mateusz Buczkowski odpowiadają na pytania:  

  • Co dokładnie reguluje AI Act i kiedy zaczyna obowiązywać?
  • Jakie obowiązki spoczywają na firmach korzystających z AI?
  • Dlaczego dane wprowadzane do algorytmu mogą stać się tykającą bombą?
  • Czemu warto mieć jasne procedury zanim AI namiesza bardziej, niż byśmy chcieli?

Procedury bezpieczeństwa naszej firmy – tak samo jak w przypadku dynamiki zmian w zakresie zagrożeń cybernetycznych – powinny ewoluować wraz z rozwojem technologii i uwzględniać specyficzne wyzwania związane z wykorzystaniem sztucznej inteligencji. Regulacje wewnętrzne powinny obejmować zarówno aspekty techniczne, jak i etyczne, aby zapewnić, że sztuczna inteligencja jest wykorzystywana w sposób odpowiedzialny i bezpieczny.

Zachęcamy do lektury artykułu na stronie:
Firmy powinny mieć procedury korzystania z AI