Страховые компании ограничивают ответственность за убытки от искусственного интеллекта
Крупные страховые компании начинают ограничивать свою ответственность за убытки, связанные с искусственным интеллектом. Это происходит на фоне серии дорогостоящих и громких инцидентов, которые выдвинули проблему системных рисков на первое место в отраслевых моделях оценки.
Как сообщает Financial Times, компании AIG, WR Berkley и Great American обратились к регуляторам за разрешением на введение новых исключений из полисов. Эти исключения позволят им отказывать в выплатах по претензиям, связанным с использованием или интеграцией систем ИИ, включая чат-ботов и автономных агентов.
Эти запросы поступают в то время, когда компании практически из всех секторов экономики ускоряют внедрение генеративных инструментов. Этот переход уже привёл к дорогостоящим ошибкам. Например, Google столкнулся с иском о клевете на 110 миллионов долларов (~9 млрд рублей) после того, как её функция AI Overview ошибочно заявила, что на солнечную энергетическую компанию подал в суд генеральный прокурор штата. Тем временем, авиакомпания Air Canada была вынуждена выполнить скидку, придуманную её чат-ботом службы поддержки, а британская инжиниринговая фирма Arup потеряла 20 миллионов фунтов стерлингов после того, как сотрудники стали жертвами мошенничества с цифровым клоном руководителя во время видеозвонка.
Эти инциденты затрудняют для страховщиков оценку того, где начинается и заканчивается ответственность. Компания Mosaic Insurance заявила FT, что результаты работы больших языковых моделей остаются слишком непредсказуемыми для традиционного андеррайтинга, описав их как «чёрный ящик». Даже Mosaic, которая предлагает специализированное покрытие для ПО, улучшенного ИИ, отказалась страховать риски, связанные с такими моделями, как ChatGPT.
В качестве обходного пути потенциальное исключение от WR Berkley будет запрещать претензии, связанные с «любым фактическим или предполагаемым использованием» ИИ, даже если технология составляет лишь незначительную часть продукта или рабочего процесса. AIG сообщила регуляторам, что «не планирует немедленно внедрять» предлагаемые исключения, но хочет иметь такую опцию на случай увеличения частоты и масштабов претензий.
Проблема заключается не только в серьёзности отдельных убытков, но и в угрозе широкомасштабного одновременного ущерба, вызванного одной базовой моделью или поставщиком. Кевин Калинич, руководитель направления по киберрискам в Aon, заявил, что отрасль может поглотить удар в 400 или 500 миллионов долларов от некорректно работающего агента, используемого одной компанией. Но она не может поглотить сбой на уровне поставщика, который одновременно вызывает тысячи убытков, что он охарактеризовал как «системный, коррелированный, агрегированный риск».
Некоторые страховщики движутся к частичной ясности через одобрения к полисам. QBE ввела одобрение, расширяющее ограниченное покрытие для штрафов в соответствии с Законом ЕС об ИИ, с лимитом в 2,5% от застрахованной суммы. Chubb согласилась покрывать определённые инциденты, связанные с ИИ, исключая при этом любые события, способные одновременно повлиять на «широкомасштабные» инциденты. Брокеры отмечают, что эти одобрения необходимо читать внимательно, так как некоторые из них снижают защиту, создавая видимость новых гарантий.
Результаты работы больших языковых моделей остаются слишком непредсказуемыми для традиционного андеррайтинга, их можно описать как «чёрный ящик».
Пока регуляторы и страховщики пересматривают свои позиции, бизнесы могут обнаружить, что риски внедрения ИИ теперь в большей степени ложатся на их собственные балансы, чем они ожидали.

0 комментариев