Dane wskazują, że 56% firm korzysta ze sztucznej inteligencji, która najczęściej wykorzystywana jest do monitorowania, serwisowania i zapobiegania awariom sprzętów. Kluczową kwestią w ubezpieczeniu AI jest ustalenie odpowiedzialności za szkody. Czy obowiązkowe OC ułatwi rozwiązywanie tego problemu?
Z badania przeprowadzonego przez McKinsey wynika, że pod koniec ubiegłego roku 56% firm korzystało ze sztucznej inteligencji (AI) – to o 6 pkt procentowych więcej niż rok wcześniej. Najczęściej AI angażowana jest do optymalizacji działań serwisowych (27%), udoskonalenia produktów (22%), automatyzacji contact center (22%), optymalizacji produktów (20%) oraz zapobiegania awariom i ułatwiania interwencji (18%). Na kolejnych pozycjach wskazano także działania z obszaru wsparcia sprzedaży i marketingu oraz zarządzania ryzykiem. Jak widać, sztuczna inteligencja wspomaga firmy w różnych czynnościach, choć na czoło wysuwają się procesy związane z bezpieczeństwem fizycznym czy zabezpieczeniem mienia.
– Dlatego ubezpieczyciele, którzy sami także korzystają z AI w swoich działaniach, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody, czy też temperaturę w budynkach to także elementy naszej codzienności. Ponadto, sami ubezpieczyciele coraz częściej oferują klientom wsparcie w postaci systemów monitorujących i predykcyjnych, pozwalających zminimalizować ryzyko awarii – zauważa Mateusz Bartoszcze, radca prawny, Z-ca Dyrektora Oddziału Kraków EIB SA.
Na rynku funkcjonują już umowy ubezpieczenia, które uwzględniają udział AI w minimalizacji ryzyka. Jednak istnieje jeszcze sporo wątpliwości, co do odpowiedzialności za ewentualne szkody – za działanie bądź niezadziałanie konkretnych urządzeń. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Obowiązuje co prawda zasada odpowiedzialności producenta za produkt. Jednak, co w sytuacji, w której samo urządzenie działa poprawnie? A może brak informacji zwrotnej wynikał z błędów strony trzeciej, np. ubezpieczyciela, który je udostępnił ubezpieczonemu? Dodatkowo, samo urządzenie bazujące na AI może być elementem wprowadzającym dodatkowe ryzyko cybernetyczne, więc awaria i szkody materialne mogą być też wynikiem ataku hakerskiego. Jak widać pytań w tej kwestii może być całkiem sporo, dlatego każdy przypadek rozpatrywany jest zazwyczaj indywidualnie.
– Oprócz kwestii technicznych, musimy też zmierzyć się z problemami etycznymi. Najlepszym przykładem są pojazdy autonomiczne. Jak ma być oceniane ryzyko i co powinien zrobić pojazd w razie zagrożenia? Czy powinien chronić przede wszystkim pasażerów i „samego siebie”? Czy AI powinna również ocenić potencjalne szkody w otoczeniu? Przykładowo, co jeśli pojedynczy pieszy wyjdzie na jezdnię tuż przed pojazdem, którym podróżuje kilka osób? W przypadku zdarzeń przemysłowych z kolei, czy ważniejsze jest bezpieczeństwo i zdrowie pracowników, czy minimalizacja rozmiaru szkód w linii produkcyjnej? To trudne kwestie i nie zazdroszczę dylematów, przed którymi staną prawodawcy i twórcy oprogramowania – dodaje Mateusz Bartoszcze z EIB SA.
Wiele przemawia za tym, że wprowadzenie nowych rodzajów ubezpieczeń staje się w tej kwestii koniecznością. Już jakiś czas temu UE postanowiła unormować problem za pomocą Artificial Inteligence Act, który m.in. dokonuje m.in. podziału systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono, więc systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne, systemy wyborcze. Nie każdy wie, że w 2020 r. przyjęto rezolucję Parlamentu Europejskiego, która dotyczyła reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05). W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów, w zakresie, w jakim odpowiedzialność nie mieściłaby się, lub wykraczała, poza regulacje dotyczące odpowiedzialności za produkt. Co więcej, ustalono także, na wzór regulacji dotyczących OC samochodowego, sugerowane sumy gwarancyjne tych ubezpieczeń – są to kwoty w wysokości 2 mln euro na zdarzenie w przypadku szkód na osobie oraz 1 miliona euro w przypadku szkód rzeczowych.
– Wydaje się, że zaproponowane rozwiązanie jest dobre, jednak nadal nie mamy konkretnych propozycji. Jedną z barier jest przyjęcie jednolitych definicji. Sądzę jednak, że już w niedalekiej przyszłości pojawią się już pierwsze „standardowe” polisy. Na razie ubezpieczenia uwzględniające lub chroniące AI to produkty szyte na miarę. Patrząc jednak na rozwój technologii i jej roli w naszym życiu, to musi się szybko zmienić – mówi Mateusz Bartoszcze z EIB SA.
Źródło: brandscope.pl; EIB SA.
Niestety cyberoszustwa przestały być problemem pojedynczych grup. Dotykają zarówno seniorów, jak i młodszych użytkowników bankowości. Przestępcy zwykle wykorzystują pośpiech i emocje sięgając po coraz…
PZU udostępniło obowiązkowe ubezpieczenie OC operatorów dronów na platformie mojaFirma.pzu.pl. Z rozwiązania mogą korzystać klienci…
Rynek ubezpieczeń dla firm zmienia się wraz z oczekiwaniami przedsiębiorców. Coraz większą rolę odgrywa elastyczność,…
Vienna Life dołączyła do grona firm, które stawiają ludzi w centrum strategii biznesowej. Ubezpieczyciel otrzymał prestiżowy certyfikat Friendly Workplace 2025.Kapituła doceniła…
W 2025 roku UNIQA po raz kolejny zrealizowała program Akcelerator Wiedzy Brokera, wspierający rozwój kompetencji…
Niestety coraz częstsze próby wyłudzeń polis komunikacyjnych zmuszają właścicieli pojazdów do większej czujności. Dlatego InterRisk apeluje, by…