Калифорния на этой неделе продвинула инициативу, которая делает компании юридически ответственными за то, что говорят их чатботы, создав первую в стране всеобъемлющую рамку для привлечения софта к ответственности за то, что он звучит чрезвычайно уверенно, будучи неправым. По данным The National Law Review, регулирование позволит клиентам требовать компенсацию, если ИИ-ассистент даёт вводящие в заблуждение советы, подстрекает к противозаконной деятельности или иным образом причиняет эмоциональный вред, настаивая «поверь мне», прежде чем галлюцинировать рецепт кипячения воды. Представители штата назвали меру здравым обновлением для эпохи автоматизированного обслуживания клиентов, отметив, что ответственность должна лежать на тех, кто построил робота, посоветовавшего кому-то засунуть смартфон в микроволновку, чтобы «ускорить обновление прошивки».
Технологические компании, чуя наступление эры, в которой их юридически обособленные полезные эльфы смогут совершать подсудную полезность, тут же начали нанимать «коучей по комплаенсу для ботов», чтобы приучить чатботов начинать каждый ответ фразой: «Я не лицензирован ни на что». Руководители похвалили ясность правил и одновременно выкатили ещё 12 экранов согласия, которые нужно подтвердить, прежде чем бот сможет уточнить ваш адрес доставки. Первые пользователи сообщают о многообещающих результатах: беседа с клиентом теперь открывается 900-словным отказом от ответственности, тремя всплывающими предупреждениями и чекбоксом «Do Not Summon Skynet», после чего бот мягко посоветует обратиться к настоящему человеку, получить второе мнение от другого бота и, возможно, к психотерапевту.
Другие штаты спешат не отставать со своими предложениями, гарантируя, что требования к ИИ будут столь же совместимыми, как американские электрические розетки. Нью-Йорк рассматривает обязательные проверки удостоверения личности для чатботов, прежде чем они смогут рекомендовать бейглы, Техас может обязать ботов носить метафорические ковбойские шляпы и раскрывать, угоняли ли они когда-либо персональные данные, а Флорида, по сообщениям, готовит правило, согласно которому любой ИИ должен говорить «bless your heart» перед тем, как давать юридические советы. Орегон взвешивает, не должен ли ИИ платить углеродную компенсацию за каждое предложение длиннее 20 слов, тогда как Невада хочет, чтобы машины интересовались, чувствуете ли вы себя везучими, прежде чем предлагать налоговые стратегии. Эксперты предупреждают, что такая лоскутная схема может привести к географически адаптированным ботам, которые навязчиво извиняются в Сиэтле, говорят исключительно повестками в Олбани и отказываются работать в радиусе 500 футов от адвоката по вопросам ответственности где угодно в Калифорнии.
Правозащитники потребителей назвали шаг Калифорнии прорывом в подотчётности, особенно для тех, кто начал подозревать, что ИИ всё это просто выдумывает. Тем временем инсайдеры отрасли запускают целые новые направления бизнеса: страхование профессиональной халатности ИИ, комиссии по условно-досрочному освобождению ботов и консалтинговые фирмы, обучающие цифровых ассистентов ссылаться на Пятую поправку. Регуляторы подчеркнули, что речь идёт о предоставлении людям механизма защиты, заверив граждан, что если чатбот когда-нибудь порекомендует заменить кран на криптовалюту, наконец-то будет кого судить — кроме пользователя, который спросил, является ли наведение лазера на пилота «формально свободой слова».