Data Engineer (Lakehouse/Data Platform)

~3K $–4K $/мес
Опубликовано 13.03.2026

О позиции

Мы ищем Data Engineer для работы на удалёнке в Узбекистане, который поможет построить современную Lakehouse/Data Platform для миллионов пользователей. Эта позиция Data Engineer удалённо предлагает вам возможность работать с передовыми технологиями и участвовать в создании высококачественных данных и аналитических решений.

Чем вы будете заниматься

  • Разрабатывать ingestion/CDC пайплайны (Debezium/Flink CDC) и доводить их до production-качества: ретраи, дедупликация, DLQ, мониторинг lag’ов.
  • Строить batch-пайплайны на Spark и выкладывать данные в Iceberg (Bronze/Silver/Gold), поддерживать schema evolution и бороться с мелкими файлами.
  • Разрабатывать и поддерживать трансформации в dbt: staging/intermediate/marts, инкрементальные модели, тесты, документация и lineage.
  • Оптимизировать запросы/витрины под Trino (партиционирование, статистики, cost-based оптимизации), при необходимости — выносить агрегаты.
  • Прорабатывать модель данных и контракты с продуктами (Clickstream / Search / RecSys) и прикладными командами.
  • Встраивать качество, каталогизацию и доступы: DataHub, правила OPA, ожидания Great Expectations.
  • Участвовать в эксплуатации: алерты, метрики, SLO/SLA, разбор инцидентов, runbooks.

Требования

  • Сильный Python.
  • Опыт со Spark (PySpark; Scala/Java — большой плюс).
  • Понимание lakehouse подхода и работы табличных форматов.
  • Опыт с Kafka, понимание CDC.
  • Практика Airflow и/или dbt в реальных проектах.
  • Умение думать про надежность: идемпотентность, exactly-once/at-least-once, обработка ошибок, backfill.
  • Опыт с Trino/Presto, настройкой и оптимизацией аналитических запросов.
  • Опыт со Flink/Spark (stream processing, event time, state, checkpoints).
  • Понимание DataHub/lineage и Data Quality фреймворков.
  • Опыт Kubernetes/Helm и взаимодействия с DevOps.

Стек

  • Storage: S3 + Apache Iceberg.
  • Batch processing: Spark/Trino/Flink.
  • Streaming: Apache Kafka + Apache Flink + Apache Spark.
  • CDC/ingestion: Debezium, Flink CDC.
  • Orchestration: Apache Airflow (Kubernetes Executor).
  • Transformations / marts: dbt Core.
  • Query layer: Trino.
  • Data Quality: dbt tests, Great Expectations.
  • Infra: Kubernetes, Helm, ArgoCD, облако.

Что мы предлагаем

  • Конкурентная зарплата и возможность работать удалённо.
  • Участие в проекте, который будет обслуживать миллионы пользователей.
  • Работа с современными технологиями и инструментами.
  • Возможности для профессионального роста и развития.
  • Гибкий график работы и поддержка командного духа.
Диапазон зарплаты
Почему эта вакансия
7.5
7.5 из 10
оценка совпадения

Вакансия предлагает интересные задачи и возможность работы с современными технологиями. Однако, отсутствует информация о компании, что может вызвать некоторые сомнения у кандидатов.

Обязательные
0/1
Желательные
0/1
Бонус
0/1
Требования к языку
RussianC1
English(опционально)B2
БазовыйСреднийПродвинутыйРодной

Формируем профиль успеха...

Анализируем требования вакансии и данные рынка

Обзор рынка

Объём рынка 2026
$5B
Годовой рост
15.2%
Внедрение AI
45%
Инвестиции
+120%
Спрос на кадры
+30%
Средняя ЗП
150K ₽

Навыки и требования

Обязательные
PythonSparkKafka
Растущий спрос
Machine LearningData VisualizationCloud Computing
Снижающийся спрос
HadoopRDBMS (MySQL, PostgreSQL)

Тренды отрасли

Рост популярности Lakehouse архитектуры
Согласно исследованиям, более 60% компаний в Узбекистане переходят на Lakehouse архитектуры для оптимизации обработки данных.
Увеличение использования Kubernetes
Использование Kubernetes для управления контейнерами возросло на 35% за последний год, что отражает тренд на автоматизацию процессов развертывания.

Новости отрасли

Загружаем новости отрасли...

Ищем релевантные статьи за последние 6 месяцев