ИИ-анализ спутниковых данных для аэрокосмической отрасли
Sentinel-2 генерирует 1.6 TB данных в день. Landsat-8 — ещё 400 GB. WorldView-3 — до 680 000 км² снимков в сутки. Физически просмотреть и проанализировать эти объёмы вручную невозможно. Автоматизированный анализ спутниковых снимков на основе CV и ML — не опция, а единственный способ работать с таким потоком.
Специфика спутниковых данных: чем они отличаются от обычных фото
Многоспектральность. Sentinel-2 — 13 каналов (443–2190 нм). WorldView-3 — 8 мультиспектральных + 8 SWIR каналов. Стандартные CNN, обученные на RGB ImageNet, не адаптированы к такому числу каналов. Решение: заменить первый свёрточный слой на conv с числом входных каналов под конкретный сенсор, или извлекать физически значимые индексы (NDVI, NDWI, NBR и т.д.) и использовать их как дополнительные каналы.
Пространственное разрешение как переменная. Sentinel-2 — 10 м/пикс, WorldView-3 — 0.31 м/пикс, MODIS — 250 м/пикс. Один объект (здание, корабль, самолёт) занимает 1–2 пикселя на низком разрешении и 100+ на высоком. Алгоритмы должны работать с разными масштабами или быть специализированными.
Радиометрические артефакты. Облачность, тени от облаков, атмосферное рассеяние, BRDF (bidirectional reflectance distribution function) — угловые эффекты. Перед анализом: атмосферная коррекция (Sen2Cor для Sentinel-2, FLAASH для прочих) и облачная маска (s2cloudless, Sen2Cor SCL слой).
Типовые задачи и методы
Детекция объектов на высоком разрешении
Корабли, самолёты, автомобили на парковках, здания — объекты на VHR (Very High Resolution) снимках < 1 м/пикс. Стандарт: YOLOv8 или Oriented YOLO (YOLOv8-OBB) для ориентированных bounding box — важно для самолётов и кораблей, которые не выравнены по осям изображения.
Датасеты: DOTA (2 806 снимков, 15 классов), HRSC2016 (кораблеобнаружение), FGSC-23 (самолёты), xView (1M+ аннотированных объектов, 60 классов).
На задаче детекции судов WorldView-2 (0.5 м/пикс), 6 000 снимков портовых зон: YOLOv8-OBB дал mAP50 = 0.86 против 0.79 у стандартного YOLOv8 с axis-aligned bbox.
Семантическая сегментация территорий
Классификация каждого пикселя на классы: здания, дороги, вода, растительность, пашня, промзона. Applications: мониторинг землепользования, оценка изменений, урбанистические исследования.
Датасеты: ISPRS Potsdam/Vaihingen (классика бенчмарков), OpenEarthMap, SpaceNet серия (1–8). Архитектуры: U-Net + ResNet-50, SegFormer-B5, Swin-Transformer.
Change detection
Сравнение двух снимков одной территории в разные даты для выявления изменений. Сложнее, чем кажется: нужно различить реальные изменения объектов от разницы условий съёмки (угол солнца, влажность почвы).
Архитектуры: Siamese U-Net, ChangeFormer (специализированный transformer для CD), AFCD. Датасеты: LEVIR-CD (637 пар снимков городской застройки), WHU-CD, SECOND (multi-class CD).
Глубокий разбор: SAR-данные и fusion с оптическими снимками
Synthetic Aperture Radar (Sentinel-1, TerraSAR-X, COSMO-SkyMed) — снимает в любых погодных условиях и ночью. Незаменим для мониторинга затоплений, деформаций поверхности (InSAR), ледовой обстановки.
SAR-данные принципиально отличаются от оптических: пиксели содержат backscatter intensity и phase, а не яркость отражения. Природа шума другая (speckle — зернистость), визуальная интерпретация неинтуитивна.
Для мониторинга затоплений: бинарная сегментация вода/не-вода на Sentinel-1 GRD. UNet на SAR VV+VH каналах даёт F1 = 0.89 на датасете Sen1Floods11. Скорость обработки позволяет запускать анализ каждые 6–12 часов при паводке.
Fusion оптика + SAR: объединение усиливает достоинства обоих сенсоров. Стратегии fusion:
- Feature-level fusion: конкатенация feature maps из параллельных ветвей encoders
- Decision-level fusion: взвешенная комбинация предсказаний отдельных моделей
- Attention-based fusion: cross-modal attention для динамического взвешивания
На задаче картографирования застройки: optical-only U-Net IoU = 0.76, SAR-only = 0.71, fusion = 0.83.
Инфраструктура обработки
Объёмы данных требуют масштабируемой инфраструктуры:
- STAC (SpatioTemporal Asset Catalog) — стандарт каталогизации спутниковых данных
- Google Earth Engine / Microsoft Planetary Computer — managed среды с петабайтными архивами и распределённой обработкой
- GDAL / Rasterio / Xarray — стандартный стек Python для геопространственных растров
- Dask — распределённые вычисления для объёмов > RAM
- COG (Cloud Optimized GeoTIFF) — формат для стримингового доступа к растрам
Сроки
Анализ конкретного типа объектов на готовых данных: 3–6 недель. Полная система мониторинга с автоматической обработкой новых снимков и геопространственным API: 3–5 месяцев.







