Amazon Web Services сегодня объявила о Bedrock Guardrails — наборе функций безопасности, призванном удерживать генеративные приложения ИИ от виражей в захватывающий встречный поток непредсказуемости. Представленные как ремни безопасности, подушки безопасности и детские замки для чат-ботов, Guardrails обещают обеспечить, что модели аккуратно остаются в своих выделенных полосах, вежливо подают сигнал перед сменой темы и никогда не разгоняются выше жесткого корпоративного ограничения скорости «допустимого использования».
Новые элементы управления предлагают разработчикам буфет из переключателей безопасности, включая фильтры тем, проверку персональных данных, обнаружение попыток взлома и регулятор тональности, который не дает моделям сваливаться в несанкционированный энтузиазм или человеческую спонтанность. AWS утверждает, что команды могут задавать границы диалога, чтобы ИИ «оставался сосредоточенным» — техническая формулировка, означающая, что он мягко отказывается обсуждать все, что весело, перенаправляя разговор к безопасным для бренда инициативам роста и мультиоблачным синергиям. Если пользователь пытается склонить модель к экзистенциальным размышлениям, ответ алгоритмически преобразуется в бодрое напоминание о периодах запрета на отпуска в вашей компании.
Корпоративные заказчики встретили объявление как долгожданное решение на случай худшего сценария — когда ИИ делает что-то полезное без предварительной юридической проверки. Ранние пользователи сообщили, что их чат-боты теперь предваряют каждое предложение тремя дисклеймерами, заявлением о конфликте интересов и ссылкой на руководство для сотрудников. В одном бенчмарке модель, которой предложили написать стихотворение об инновациях, выдала корректно оформленную оценку рисков и назначила созвон по комплаенсу на среду, 14:00, так как инновации требуют уведомления за 48 часов и закусок.
Помимо функций безопасности, панель Guardrails включает интуитивные элементы управления вроде «Дросселя прямолинейности», «Регулятора сарказма» (корпоративный уровень) и «шумовой полоски», которая заставляет вибрировать интерфейс, если запрос выглядит так, будто он может породить мнение. Аналитики назвали запуск важным шагом вперед в области предотвращения результатов, отметив, что AWS фактически сделала языковые модели «детскозащищёнными» как раз к эпохе, когда они иначе могли бы научиться ползать. В будущих обновлениях ожидаются оконные замки для метафор, заглушки для гипотетических сценариев и ночник, который успокоит руководителей, уверив, что ИИ безопасно спит и видит сны о квартальном комплаенсе.