Cloudflare представил новый инструмент — AI Labyrinth, который использует генеративный ИИ как «оборонительное оружие» против веб-ботов. Система заманивает ботов в лабиринт из фальшивых страниц, созданных ИИ, чтобы те тратили время и ресурсы на бесполезный контент. Идея проста:
Ни один настоящий человек не полезет на четыре ссылки вглубь этого ИИ-бреда
Каждый день сеть Cloudflare обрабатывает более 50 миллиардов запросов от ботов, которые собирают данные для обучения разных генеративных моделей. Обычные блокировки выдают ботам, что их заметили, и те меняют тактику. AI Labyrinth действует хитрее: подозрительным посетителям подсовывают скрытые ссылки на страницы с убедительным, но бессмысленным контентом. Боты увязают в этом «ИИ-корме», а Cloudflare тем временем обновляет список нарушителей. Настоящие пользователи этих ссылок не видят — они появляются только для тех, кто попал под подозрение.
Кроме защиты данных, AI Labyrinth служит «мёдом» для ловли ботов. Если кто-то углубился в лабиринт, это верный признак автоматики. Инструмент уже доступен всем пользователям Cloudflare — достаточно включить его галочкой в настройках. Компания называет это первой версией и просит обратной связи для доработки. Пользователи новую тактику приветствуют с восторгом:
Бесконечный цикл ИИ против ИИ — гениально!
Есть и нюанс: если боты накормятся «отравленным» контентом, не ухудшит ли это качество будущих ИИ-моделей? Возможно, но большинство сходится на том, что бороться с бесконтрольным сбором данных все-таки стоит.