Автоматизация цветокоррекции с помощью ИИ
Цветокоррекция 90-минутного фильма в DaVinci Resolve — это 2–4 недели работы колориста. Типовая проблема: смена объектива в середине съёмочного дня даёт 15% расхождение в цветовом балансе между планами одной сцены. ИИ-автоматизация не заменяет колориста, но убирает механическую работу — первичный грейд, нормализацию экспозиции и shot matching между камерами.
Что автоматизируется надёжно
Shot matching — привести все планы сцены к единому цветовому стилю эталонного кадра. Нейронные сети для color transfer работают через перенос statistics из Lab-пространства или через AdaIN (Adaptive Instance Normalization). WCT2 (Whitening and Coloring Transform) даёт shot matching без артефактов на краях объектов.
Автоматическая экспозиция и баланс белого — детектирование нейтральных зон в кадре (кожа, серые поверхности) и нормализация. Models работают на патчах 64×64 из нескольких зон кадра, медианный вектор уходит в корректор.
Temporal consistency в сценах — предотвращение «мигания» экспозиции при обработке кадр за кадром. Решение аналогично video matting: оптический поток + weighted blending цветовых трансформаций между кадрами.
Стилизация под референс — neural style transfer для перевода raw-материала в конкретный look (teal & orange, bleach bypass, cross-process). Используется как стартовая точка для колориста.
Architecture системы автоматического грейда
# Пример shot matching через histogram matching + neural refinement
import cv2
import numpy as np
from skimage.exposure import match_histograms
def neural_shot_match(source_frame, reference_frame, model):
# Базовое histogram matching
matched = match_histograms(source_frame, reference_frame,
channel_axis=-1)
# Neural refinement через CNN для устранения артефактов
input_tensor = preprocess(source_frame, matched, reference_frame)
with torch.no_grad():
refined = model(input_tensor) # UNet-архитектура
return postprocess(refined)
Полноценный пайплайн для episodic контента: DaVinci Resolve API + Python automation для экспорта кадров → inference на GPU кластере → импорт LUT или цветовых кривых обратно в проект.
Генерация LUT из референса
Результат ИИ-грейда упаковывается в 3D LUT (33×33×33 или 65×65×65 точек) — стандартный формат, который принимает любой NLE и цветовая консоль. Это позволяет колористу применить ИИ-грейд как отправную точку и дальше работать с ним вручную.
Библиотека colour-science + pylut покрывают весь цикл: создание LUT, применение, экспорт в .cube или .3dl.
Ограничения автоматизации
ИИ плохо справляется с:
- Creative intent — художественный выбор «сделать сцену холоднее для передачи тревоги» не формализуется без референса
- Локальные корректировки — окно должно быть светлее, а лицо актёра — нет: нужна маска + power window
- Skin tone protection — автоматика часто «ломает» телесный тон при агрессивном грейде. Решение: детектор лиц + отдельная обработка skin zone
На практике выходит гибридный workflow: 70% автоматика (нормализация, shot matching, temporal stability) + 30% ручная работа колориста по creative решениям.
Сроки
| Объём материала | Автоматический этап | Полный цикл с колористом |
|---|---|---|
| Короткий метр (15–30 мин) | 1–2 дня | 1–2 недели |
| Сериал 8 серий × 45 мин | 3–5 дней | 3–6 недель |
| Полный метр 90 мин | 2–4 дня | 2–4 недели |
Стоимость зависит от объёма, формата материала (SDR/HDR) и требуемого уровня контроля.







