Data Engineer (Lakehouse/Data Platform)

~2K $–4K $/мес
Опубликовано 20.03.2026

О позиции

Мы ищем Data Engineer для работы на удалёнке в Узбекистане, который поможет построить современную Lakehouse/Data Platform для миллионов пользователей. Эта роль включает в себя разработку и оптимизацию пайплайнов данных, что позволит нам достичь высоких стандартов качества и наблюдаемости.

Чем вы будете заниматься

  • Разрабатывать ingestion/CDC пайплайны (Debezium/Flink CDC) и доводить их до production-качества, включая ретраи, дедупликацию и мониторинг lag’ов.
  • Строить batch-пайплайны на Spark и выкладывать данные в Iceberg, поддерживать schema evolution и бороться с мелкими файлами.
  • Разрабатывать и поддерживать трансформации в dbt: staging/intermediate/marts, инкрементальные модели, тесты, документация и lineage.
  • Оптимизировать запросы под Trino, включая партиционирование и статистики.
  • Прорабатывать модель данных и контракты с продуктами и прикладными командами.
  • Встраивать качество, каталогизацию и доступы: DataHub, правила OPA, ожидания Great Expectations.
  • Участвовать в эксплуатации: алерты, метрики, SLO/SLA, разбор инцидентов.

Требования

  • Сильный опыт работы с Python.
  • Опыт со Spark (PySpark; Scala/Java — большой плюс).
  • Понимание lakehouse подхода и работы табличных форматов.
  • Опыт с Kafka и понимание CDC.
  • Практика Airflow и/или dbt в реальных проектах.
  • Умение думать про надежность: идемпотентность, exactly-once/at-least-once, обработка ошибок.
  • Опыт с Trino/Presto и оптимизацией аналитических запросов.
  • Опыт со Flink/Spark (stream processing, event time, state, checkpoints).
  • Понимание DataHub/lineage и Data Quality фреймворков.
  • Опыт Kubernetes/Helm и взаимодействия с DevOps.

Что мы предлагаем

  • Конкурентная зарплата и возможность удалённой работы.
  • Работа в команде профессионалов над интересными проектами.
  • Возможности для профессионального роста и развития.
  • Гибкий график работы.
  • Поддержка в обучении и развитии навыков.
Диапазон зарплаты
Почему эта вакансия
7.5
7.5 из 10
оценка совпадения

Вакансия предлагает интересные задачи и возможности для профессионального роста. Однако, отсутствует информация о компании.

Обязательные
0/1
Желательные
0/1
Бонус
0/1

Формируем профиль успеха...

Анализируем требования вакансии и данные рынка

Обзор рынка

Объём рынка 2026
$4.5B
Годовой рост
12.5%
Внедрение AI
45%
Инвестиции
+200%
Спрос на кадры
+30%
Средняя ЗП
150K ₽

Навыки и требования

Обязательные
PythonSparkKafka
Растущий спрос
Machine LearningData WarehousingCloud Computing
Снижающийся спрос
HadoopSQL Server Integration Services (SSIS)

Тренды отрасли

Интеграция Lakehouse
Системы Lakehouse становятся все более популярными, с ростом внедрения на 35% в 2025 году.
Автоматизация процессов данных
Использование инструментов, таких как Airflow и dbt, увеличивается на 40% в 2026 году.

Новости отрасли

Загружаем новости отрасли...

Ищем релевантные статьи за последние 6 месяцев