Dane wskazują, że 56% firm korzysta ze sztucznej inteligencji, która najczęściej wykorzystywana jest do monitorowania, serwisowania i zapobiegania awariom sprzętów. Kluczową kwestią w ubezpieczeniu AI jest ustalenie odpowiedzialności za szkody. Czy obowiązkowe OC ułatwi rozwiązywanie tego problemu? 

Sztuczna inteligencja wspomaga firmy 

Z badania przeprowadzonego przez McKinsey wynika, że pod koniec ubiegłego roku 56% firm korzystało ze sztucznej inteligencji (AI) – to o 6 pkt procentowych więcej niż rok wcześniej. Najczęściej AI angażowana jest do optymalizacji działań serwisowych (27%), udoskonalenia produktów (22%), automatyzacji contact center (22%), optymalizacji produktów (20%) oraz zapobiegania awariom i ułatwiania interwencji (18%). Na kolejnych pozycjach wskazano także działania z obszaru wsparcia sprzedaży i marketingu oraz zarządzania ryzykiem. Jak widać, sztuczna inteligencja wspomaga firmy w różnych czynnościach, choć na czoło wysuwają się procesy związane z bezpieczeństwem fizycznym czy zabezpieczeniem mienia. 

– Dlatego ubezpieczyciele, którzy sami także korzystają z AI w swoich działaniach, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody, czy też temperaturę w budynkach to także elementy naszej codzienności. Ponadto, sami ubezpieczyciele coraz częściej oferują klientom wsparcie w postaci systemów monitorujących i predykcyjnych, pozwalających zminimalizować ryzyko awarii – zauważa Mateusz Bartoszcze, radca prawny, Z-ca Dyrektora Oddziału Kraków EIB SA. 

Sztuczna inteligencja a odpowiedzialność za szkody 

Na rynku funkcjonują już umowy ubezpieczenia, które uwzględniają udział AI w minimalizacji ryzyka. Jednak istnieje jeszcze sporo wątpliwości, co do odpowiedzialności za ewentualne szkody – za działanie bądź niezadziałanie konkretnych urządzeń. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Obowiązuje co prawda zasada odpowiedzialności producenta za produkt. Jednak, co w sytuacji, w której samo urządzenie działa poprawnie? A może brak informacji zwrotnej wynikał z błędów strony trzeciej, np. ubezpieczyciela, który je udostępnił ubezpieczonemu? Dodatkowo, samo urządzenie bazujące na AI może być elementem wprowadzającym dodatkowe ryzyko cybernetyczne, więc awaria i szkody materialne mogą być też wynikiem ataku hakerskiego. Jak widać pytań w tej kwestii może być całkiem sporo, dlatego każdy przypadek rozpatrywany jest zazwyczaj indywidualnie. 

– Oprócz kwestii technicznych, musimy też zmierzyć się z problemami etycznymi. Najlepszym przykładem są pojazdy autonomiczne. Jak ma być oceniane ryzyko i co powinien zrobić pojazd w razie zagrożenia? Czy powinien chronić przede wszystkim pasażerów i „samego siebie”? Czy AI powinna również ocenić potencjalne szkody w otoczeniu? Przykładowo, co jeśli pojedynczy pieszy wyjdzie na jezdnię tuż przed pojazdem, którym podróżuje kilka osób? W przypadku zdarzeń przemysłowych z kolei, czy ważniejsze jest bezpieczeństwo i zdrowie pracowników, czy minimalizacja rozmiaru szkód w linii produkcyjnej? To trudne kwestie i nie zazdroszczę dylematów, przed którymi staną prawodawcy i twórcy oprogramowania – dodaje Mateusz Bartoszcze z EIB SA. 

Obowiązkowe OC dla sztucznej inteligencji

Wiele przemawia za tym, że wprowadzenie nowych rodzajów ubezpieczeń staje się w tej kwestii koniecznością. Już jakiś czas temu UE postanowiła unormować problem za pomocą Artificial Inteligence Act, który m.in. dokonuje m.in. podziału systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono, więc systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne, systemy wyborcze. Nie każdy wie, że w 2020 r. przyjęto rezolucję Parlamentu Europejskiego, która dotyczyła reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05). W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów, w zakresie, w jakim odpowiedzialność nie mieściłaby się, lub wykraczała, poza regulacje dotyczące odpowiedzialności za produkt. Co więcej, ustalono także, na wzór regulacji dotyczących OC samochodowego, sugerowane sumy gwarancyjne tych ubezpieczeń – są to kwoty w wysokości 2 mln euro na zdarzenie w przypadku szkód na osobie oraz 1 miliona euro w przypadku szkód rzeczowych.

– Wydaje się, że zaproponowane rozwiązanie jest dobre, jednak nadal nie mamy konkretnych propozycji. Jedną z barier jest przyjęcie jednolitych definicji. Sądzę jednak, że już w niedalekiej przyszłości pojawią się już pierwsze „standardowe” polisy. Na razie ubezpieczenia uwzględniające lub chroniące AI to produkty szyte na miarę. Patrząc jednak na rozwój technologii i jej roli w naszym życiu, to musi się szybko zmienić – mówi Mateusz Bartoszcze z EIB SA.   

Źródło: brandscope.pl; EIB SA.