Senior Data Engineer
Занятость | Полная занятость |
Полная занятость | |
Адрес | Казахстан, Астана |
Казахтелеком — крупнейший оператор телекоммуникаций Казахстана, лидер в сфере цифровых решений и инфокоммуникаций.
Работа в Казахтелеком — это не просто стабильность и надежность, а возможность внести вклад в развитие цифрового будущего страны и раскрыть свой профессиональный потенциал.
-
Разработка и поддержка масштабируемых ETL/ELT-конвейеров для интеграции структурированных и неструктурированных данных.
-
Проектирование и сопровождение хранилищ данных (Data Warehouse, Data Lake) с использованием SQL и NoSQL-технологий.
-
Оптимизация производительности запросов и пайплайнов (Spark, Dask и аналогичные фреймворки).
-
Настройка и сопровождение оркестрации данных (Airflow, Prefect), обеспечение отказоустойчивости и auto-recovery процессов.
-
Реализация DataOps-практик: профилирование, валидация (Great Expectations), мониторинг качества данных.
-
Развёртывание и эксплуатация контейнеризованных data-сервисов (Docker, Kubernetes), использование Terraform/Ansible для IaC.
-
Настройка мониторинга метрик и логирования (Prometheus, Grafana, ELK), организация оповещений об инцидентах.
-
Взаимодействие с Data Scientists и ML Engineers для предоставления качественных и доступных данных.
-
Менторство middle и junior Data Engineer-ов: проведение код-ревью, воркшопов и обмена знаниями.
-
Опыт работы от 3 лет в роли Data Engineer или аналогичной с акцентом на продакшн-инженерию данных.
-
Уверенное владение Python и/или Scala, опыт работы с Pandas, PySpark или аналогами.
-
Глубокие знания SQL, опыт проектирования схем star/snowflake, работа с PostgreSQL, MySQL, ClickHouse или аналогичными СУБД.
-
Опыт разработки и оптимизации job-ов на Apache Spark, Dask или Hadoop.
-
Навыки оркестрации ETL/ELT в Airflow или Prefect, реализация retry-механизмов и SLA.
-
Опыт внедрения инструментов обеспечения качества данных (Great Expectations или аналоги).
-
Навыки работы с Docker, Kubernetes, инфраструктурой как код (Terraform, Ansible).
-
Опыт настройки мониторинга и логирования (Prometheus, Grafana, ELK).
-
Развитые soft skills: умение четко коммуницировать технические решения, критически анализировать процессы, опыт наставничества.
-
Опыт работы с облачными платформами (AWS, GCP, Azure: S3/GCS, EMR, BigQuery, Dataflow и др.).
-
Сертификаты Databricks, Cloudera (CDP) или Google Cloud Professional в области Big Data.
-
Опыт внедрения GitOps и policy-as-code для DataOps.
-
Знание инструментов stream-processing: Kafka, Kinesis, Pulsar.
-
Участие в open-source проектах или публикации технических статей.
Условия:
-
Работа в национальном лидере телекоммуникаций
-
Своевременная и конкурентная заработная плата;
-
Премии, бонусы, корпоративные льготы;
-
Официальное трудоустройство согласно Трудовому кодексу РК;
-
Дополнительное медицинское страхование, 30 календарных дней отпуска.
Опыт | От 3 до 6 лет |
График работы | Полный день |