В нашей команде вам предстоит:
- Развитие и поддержка существующего хранилища данных;
- Поиск, извлечение и исследование данных в автоматизированных системах;
- Создание и доработка ETL процессов загрузки, трансформации данных и формирования витрин;
- Поддержка бизнес-пользователей в различных процессах работы с отчетностью;
- Активно участвовать во всём процессе разработки, начиная с проектирования и заканчивая запуском и поддержкой;
- Предлагать и внедрять высокотехнологичные, инновационные решения.
Важно, чтобы у вас были:
- Опыт работы: 2–5 лет в области обработки и анализа данных, построения ETL-процессов и разработки data pipelines;
- Знание SQL: Уверенное владение SQL и опыт работы с реляционными СУБД (PostgreSQL, MySQL, Oracle, Greenplum и др.);
- ETL и Data Warehousing: Практический опыт создания и оптимизации ETL-процессов; понимание принципов построения хранилищ данных, схем «звезда» и «снежинка»;
- Уверенное владение Python (для автоматизации, обработки данных, написания скриптов) и/или знание других языков (Java, Scala) будет преимуществом;
- Big Data и потоковая обработка: Опыт работы с большими объёмами данных; понимание принципов распределённых систем и, желательно, опыт работы с инструментами потоковой обработки (например, Apache Kafka, Spark, Flink).
Это будет плюсом!
-
Опыт работы с BI-инструментами (PowerBI, Tableau, Qlick или другими);
-
Опыт внедрения BI-систем в крупных компаниях.