Sztuczna inteligencja przestała być ciekawostką – dziś to narzędzie codziennego użytku, które potrafi pisać, analizować, a nawet diagnozować. Zanim jednak na dobre wkomponujemy AI w strategię naszej firmy, warto zadać sobie kilka kluczowych pytań: jakie dane „karmią” nasze AI? Czy potrafimy ocenić, kiedy algorytm się myli – a kiedy my mu ślepo wierzymy? Kto ponosi odpowiedzialność, gdy AI złamie prawo… albo reputację?
Unijny AI Act, czyli pierwsze w Europie kompleksowe prawo regulujące wykorzystanie sztucznej inteligencji, zacznie obowiązywać już w 2025 roku. Przewiduje konkretne obowiązki dla dostawców i użytkowników AI – i nieprzyjemne konsekwencje dla tych, którzy je zignorują (tak, mowa o karach w milionach euro).
W artykule „Jak bezpiecznie korzystać z AI w firmach” opublikowanym na łamach „Rzeczpospolita” Bartosz Grube i Mateusz Buczkowski odpowiadają na pytania:
- Co dokładnie reguluje AI Act i kiedy zaczyna obowiązywać?
- Jakie obowiązki spoczywają na firmach korzystających z AI?
- Dlaczego dane wprowadzane do algorytmu mogą stać się tykającą bombą?
- Czemu warto mieć jasne procedury zanim AI namiesza bardziej, niż byśmy chcieli?
Procedury bezpieczeństwa naszej firmy – tak samo jak w przypadku dynamiki zmian w zakresie zagrożeń cybernetycznych – powinny ewoluować wraz z rozwojem technologii i uwzględniać specyficzne wyzwania związane z wykorzystaniem sztucznej inteligencji. Regulacje wewnętrzne powinny obejmować zarówno aspekty techniczne, jak i etyczne, aby zapewnić, że sztuczna inteligencja jest wykorzystywana w sposób odpowiedzialny i bezpieczny.
Zachęcamy do lektury artykułu na stronie:
Firmy powinny mieć procedury korzystania z AI