Anthropic заявила, что ее агенты искусственного интеллекта выявили эксплуатируемые уязвимости в смарт-контрактах блокчейна на сумму 4,6 млн долларов, что знаменует заметный шаг вперед в автоматизированном тестировании безопасности ончейн-систем. Компания охарактеризовала результаты как доказательство того, что автономные инструменты способны быстро выявлять сложные сценарии отказов, которые традиционные аудиты могут упустить.
Агенты определили пути атаки и оценили потенциальный финансовый ущерб от изъянов в логике контрактов, допущениях при исполнении и управлении состоянием. Моделируя, как при определенных условиях могут быть выведены средства или обойдены правила, анализ выявил слабые места, которые при отсутствии устранения могут быть использованы для компрометации децентрализованных приложений.
Открытие подчеркивает как растущую сложность угроз для смарт-контрактов, так и двойственную природу ИИ, который способен ускорять как поиск возможностей для атак, так и укрепление защиты. Оно придает импульс усилиям криптоэкосистемы по расширению непрерывного, автоматизированного аудита в дополнение к человеческой проверке.
Anthropic представила работу как часть продолжающихся исследований более безопасных систем ИИ и ответственного применения в сфере безопасности. По словам компании, результаты указывают на срочную необходимость внедрения устойчивых практик тестирования и более жестких предохранительных мер, поскольку разработчики все чаще полагаются на автономных агентов для проверки и защиты критической блокчейн-инфраструктуры.