AI-детекция бот-трафика
Боты в 2025 году — не примитивные скрипты с одним IP. Это headless Chrome через Puppeteer с рандомизированным fingerprint, с human-like задержками между кликами, с ротацией residential proxy. Rule-based WAF на такой трафик не реагирует. ML-подход нужен не потому что это модно, а потому что сигнатурная детекция физически не успевает за эволюцией ботов.
Типы ботов и их цели
Credential stuffing. Массовая проверка утёкших пар логин/пароль. Характерен burst-паттерн с перебором по user list, часто с одного ASN через residential proxies.
Scraping. Систематический сбор данных: цены, товарные каталоги, контакты. Поведение: строгий паттерн обхода, игнорирование элементов UX, нетипичные user agents или слишком «правильные».
Account creation abuse. Массовое создание fake-аккаунтов для спама, бонус-фрода, астротурфинга.
Carding. Проверка украденных карточных данных через небольшие тестовые транзакции.
Inventory hoarding. Боты выкупают дефицитный товар (кроссовки, билеты) для перепродажи.
Сигналы для ML-модели
Browser fingerprint. Canvas fingerprint, WebGL renderer, audio context, installed fonts, screen resolution, timezone. Боты с headless Chrome дают специфические значения (например, WebGL renderer = "SwiftShader" в старых версиях Puppeteer). Энтропия fingerprint у ботов ниже — они клонируют один и тот же профиль.
Поведенческие паттерны. Mouse movement (реальный человек — кривые линии с ускорениями, бот — прямые линии или отсутствие движения), keyboard timing (человек — вариативность IAT, бот — равномерный ввод), scroll patterns, hover time на элементах.
Сетевые сигналы. IP reputation (Tor, datacenter ASN, known proxy providers), TLS fingerprint (JA3 hash), HTTP header ordering (боты часто нарушают canonical order), request timing distribution (слишком равномерная — бот, слишком хаотичная — тоже подозрительно).
Session-level аномалии. Скорость обхода страниц выше human-possible (100 страниц за 30 секунд), отсутствие идлинга, нетипичный порядок посещения URL.
Архитектура детектора
Двухуровневый подход:
Уровень 1: Real-time scoring. JavaScript-агент в браузере собирает fingerprint и поведенческие сигналы, отправляет при каждом критическом действии (login, checkout, form submit). Backend классифицирует за <50ms. Модель: LightGBM на 40–80 признаках, ONNX Runtime инференс.
Уровень 2: Session-level analysis. Асинхронный анализ всей сессии и истории IP/fingerprint через 5–15 минут после начала активности. Более богатый feature set, включая graph features (этот fingerprint связан с другими подозрительными аккаунтами?). Обновляет риск-профиль сессии, может инициировать блокировку с задержкой.
class BotScorer:
def __init__(self):
self.realtime_model = ort.InferenceSession("bot_detector.onnx")
self.feature_extractor = FeatureExtractor()
def score_request(self, request_data: dict) -> BotScore:
features = self.feature_extractor.extract(request_data)
score = self.realtime_model.run(None, {"input": features})[0][0]
return BotScore(
score=float(score),
is_bot=score > 0.72,
confidence_level=self._get_confidence_level(score)
)
Проблема adversarial evolution
Продвинутые боты адаптируются под детектор. Стратегия противодействия:
- Разнообразие сигналов. Не полагаться на один тип признаков. Если бот научился генерировать human-like mouse movement — другие сигналы всё ещё работают.
- Honeypot elements. Невидимые для человека элементы (display:none), на которые только бот может кликнуть или с которыми может взаимодействовать.
- Challenge-response. При среднем score (0.4–0.7) — CAPTCHA или proof-of-work. Не блокировать, но затруднить.
- Rate limiting с jitter. Не детерминированный rate limit — бот не может откалибровать скорость запросов.
Практический кейс
E-commerce платформа, проблема: 35% трафика на страницах товаров — боты-скреперы конкурентов. Нагрузка на сервер, утечка ценовой информации, искажение аналитики.
После внедрения ML-детектора:
- Bot detection rate: 94% (оценка по honeypot + manual analysis)
- FPR на реальных пользователях: 0.3% (challenged CAPTCHA)
- Scraping-трафик снизился на 87% — боты перестали получать ROI и переключились
- Экономия на серверных ресурсах: ~$2 300/месяц
Бонус: очищенная аналитика показала реальную конверсию на 12% выше, чем предполагалось (боты раньше занижали conversion rate).
Сроки: 3–6 недель для базового детектора, 8–14 недель для production-системы с поведенческим анализом и adversarial adaptation.







