Привет! Мы — аккредитованная IT-компания Maxim Technology. Занимаемся разработкой платформы для пассажирских и грузовых поездок. Самый крупный из наших заказчиков — сервис Maxim. Мы первыми начали менять рынок поездок, создав для Maxim цифровую платформу для связи пассажира и водителя раньше Uber и Gett.
Сегодня наша команда работает над высоконагруженными сервисами — в сутки платформа обрабатывает более миллиона заказов. Наше ПО — лидер рынка в регионах России, и мы не собираемся останавливаться на достигнутом!
Наша команда растёт быстрыми темпами, и сейчас в штате более 450 IT-специалистов. Офисы компании располагаются в Кургане, Тюмени, Набережных Челнах, Казани, Екатеринбурге и Санкт-Петербурге, но у нас можно работать и удалённо.
Сейчас мы в поиске Аналитика DWH уровня Middle, которого ждут следующие задачи:
- Проектировать и документировать логическую модель данных в хранилище, требования к историчности и очистке;
- Проектировать структуры как общих витрин, так и срезов под конкретные дашборды\отчеты;
- Готовить задания для инженеров на разработку ETL-процессов в Airflow (схемы, SQL-прототипы, правила);
- Развивать качество данных и внедрять Data Quality процессы — определять, какие проверки нужны и где их запускать;
- Участвовать во внедрении каталога метаданных и поддерживать его актуальность.
От будущего коллеги мы ожидаем:
- Понимание и опыт применения методологий моделирования данных: Dimensional Modeling, концепции SCD (Slowly Changing Dimensions), базовые принципы Data Vault 2.0;
- Умение анализировать источники данных (SQL-запросы, API, логи, сырые файлы), выявлять бизнес-сущности, связи, аномалии и правила трансформации;
- Опыт прототипирования структур витрин (датасетов) для аналитики и дашбордов;
- Продвинутый SQL (оконные функции, CTE, сложные JOIN). Опыт работы с PostgreSQL (как основой для Greenplum) обязателен.
Будет плюсом:
-
Понимание работы Airflow (что такое DAG, задача, как оркестрируются пайплайны) для адекватной постановки задач инженерам;
-
Понимание особенностей Greenplum (MPP, распределенные таблицы) и ClickHouse (колоночное хранение, движки таблиц) для осознанного проектирования под конкретную СУБД;
-
Опыт работы с метаданными (каталогизация данных, поиск по lineage). Знакомство с OpenMetadata и опыт внедрения будет огромным плюсом;
-
Опыт внедрения Data Quality.
Что дальше?
У нас простой процесс подбора. Тебя ждет интервью с HR и руководителем команды, и после этого мы выходим с оффером.
Отправляй свой отклик! Мы тебя ждем.