Мы строим первый в Казахстане исламский цифровой банк, где технологии уважают традиции, а люди остаются в центре всего.
Сегодня Zaman Bank — это AI-ориентированный банк, в котором технологии помогают быть ближе к клиентам и создавать умные цифровые сервисы
Мы даём свободу инициативам, потому что именно так рождаются лучшие решения для сотрудников и клиентов.
Ищем Data-лида, который будет развивать команду и архитектуру данных, внедрять лучшие инженерные практики, обеспечивать качество и доступность данных, а также быть техническим лидером и ментором в области Data Engineering.
Чем предстоит заниматься:
-  Развивать компетенцию Data Engineering: формировать и развивать команду, проводить менторство, code review, организовывать обмен знаниями; 
-  Определять и внедрять инженерные стандарты и best practices (codestyle, DAGs, тестирование, документация); 
-  Проектировать и развивать архитектуру обработки данных на базе S3, Apache Iceberg, Spark/Flink/Trino, StarRocks/ClickHouse; 
-  Разрабатывать и оптимизировать ETL/ELT-пайплайны (Airflow, Airbyte, PySpark, Flink); 
-  Организовывать хранилища данных и витрины по подходам Kimball, Data Vault, Medallion; 
-  Развивать Data Quality-контроли при загрузке и публикации данных (целостность, полнота, актуальность); 
-  Участвовать в проектировании интеграций и API для безопасного и эффективного доступа к данным; 
-  Вовлекаться в ключевые продуктовые направления — Data Platform, AI Platform, Scoring, обеспечивая инженерное качество и совместимость решений. 
- 3+ лет опыта в Data Engineering (DWH, Data Lake, Data Lakehouse);
- Опыт лидерства и технического менторства (планирование/декомпозиция/оценка задач, развитие инженеров, code review);
- Отличное знание SQL (CTE, оконные функции, оптимизация запросов);
- Владение Python и PySpark (будет плюсом Scala/Java);
- Опыт работы с ClickHouse, PostgreSQL, S3-совместимыми хранилищами (MinIO, Ceph, Apache Ozone);
- Опыт использования Airflow, Airbyte и интеграции данных из различных источников;
- Опыт работы с CDC и near-realtime-потоками (Debezium, Kafka, Flink, Spark Streaming);
- Опыт работы Data Catalog (OpenMetadata, DataHub и др.);
- Понимание подходов моделирования данных (Kimball, Data Vault, Medallion);
- Знание и опыт работы с открытыми форматами таблиц (Apache Iceberg, Delta Lake, Apache Hudi);
- Понимание принципов Kubernetes, Docker, CI/CD;
- Опыт внедрения и эксплуатации платформенных решений в продакшене.
-  Команда профессионалов, где ценят инициативу, взаимное уважение и живую коммуникацию; 
-  Свобода для идей — мы верим, что лучшие решения рождаются, когда людям дают пространство для творчества; 
-  Современный стек технологий, включая AI решения. А еще проекты, в которых вы сможете влиять на архитектуру, процессы и развитие продукта; 
-  Выбор формата работы по согласованию с руководителем ( офис Алматы/Астана или удаленка/гибрид); 
-  Стабильность и прозрачность — оформление по ТК РК с первого дня, «белая» зарплата и понятная зона ответственности; 
-  ДМС после испытательного срока и современная техника для работы. 
