В докладе расскажем, как мы делали систему управления остатками и ценами:
* какие технические сложности возникают при больших объемах данных (~30к магазинов, ~10-20к SKU, ~ 500 млн строк, 150к/рпс на запись);
* монолит vs микросервисы. Что выбрали и с каким сложностями столкнулись;
* Postgres vs Tarantool. Не самый очевидный выбор;
* работа с Kafka: конфигурация, графики, семантика «exactly-once», драйвер kafka-go от segmentio;
* согласованность в конечном счете — когда и зачем ее можно применять, как достичь;
* извечный вопрос: предподготовить данные или рассчитать на лету? Мы выбрали гибридный подход;
* на какие метрики ориентировались: технические и бизнесовые;
* покажем наши дашборды, расскажем, как мы мониторим асинхронную систему и проводим нагрузочное тестирование, графики ТТХ, нагрузки, таймингов.