Как выяснилось — что, разумеется, никто не мог предвидеть после месяцев намеренного невнимания, — новый отчет показывает, что большинство предприятий, с энтузиазмом внедряющих генеративный ИИ, не измеряют его риски для безопасности, предпочитая вместо этого отслеживать важные KPI вроде «время до «вау»» и «электронных писем, написанных без человеческих чувств». Руководители говорят, что уверены в безопасности своих систем, потому что ИИ, будучи напрямую спрошенным, пообещал, что «никогда их не предаст» и добавил успокаивающий эмодзи. Несколько компаний также подтвердили, что геофенсинг, сильные вайбы и изысканный градиент на панели управления ИИ‑продукта в совокупности составляют стратегию «многоуровневой защиты».
Управление, некогда известное скучными понятиями вроде «контролей» и «ответственности», было упрощено до одной изящной политики промптов: «Будь, пожалуйста, безопасным». Одна компания из списка Fortune 500 заявила, что ее Совет по этике ИИ ежеквартально собирается, чтобы спросить модель, этична ли она, и неизменно фиксирует ответ модели «Да» в качестве доказательства для аудиторов. Другая сообщила, что у нее «надежное управление», потому что ее генеративный ИИ защищен паролем, который они меняют ежегодно — всякий раз, когда кто-то публикует его в Slack. Написание политик тоже модернизировали — передав его на аутсорс самому ИИ — что существенно ускорило соответствие требованиям и позволило системе, которой управляют, решать, как бы она предпочла, чтобы ей управляли.
Тем временем команды безопасности внедрили передовой редтиминг, поручив ИИ сыграть роль хакера, который через три минуты объявил сеть «скучно невзламываемой» и попросился вместо этого заняться поэзией. Теневой ИИ расплодился «в дикой природе»: сотрудники подают конфиденциальные данные в «ту бесплатную, которая работает лучше», аккуратно маркируя их как «do_not_share_final_FINAL_v2». Один банк подтвердил, что заменил проверку благонадежности поставщиков одним чекбоксом — «Вы безопасны?» — и сообщает о соответствии поставщиков требованиям на рекордные 100%. Аудиторы говорят, что компании измеряют успех ИИ главным образом по числу вдохновляющих постов в Slack, продолжая не измерять такие вещи, как дрейф модели, инъекция промптов или то, знает ли вообще кто-нибудь, где фактически размещена модель.
Регуляторы готовят смелые новые меры защиты, включая форму, где компании обещают ответственно использовать ИИ и выбирают, какой цвет им нужен для тепловой карты рисков. Советы директоров остаются невозмутимыми, превознося стратегии «AI-first» и откладывая «риск» на «поздний квартал, когда это будет менее неудобно». Отчет рекомендует предприятиям разработать реальные метрики риска ИИ, но большинство организаций уже предприняли решительные шаги, создав рабочую группу, чтобы подготовить миссионное заявление о создании другой рабочей группы — желательно к четвертому кварталу, если только ИИ не займется этим раньше. До тех пор корпоративная безопасность будет опираться на многоуровневый подход из надежды, NDA и очень строгого эмодзи в Slack.