Senior Data Engineer (CDC и пайплайны)

~2K $–4K $/мес
Опубликовано 12.04.2026

О позиции

Мы ищем Senior Data Engineer для работы с ingestion и CDC пайплайнами в удалённом формате. Ваша задача будет заключаться в разработке и оптимизации пайплайнов, а также в обеспечении их качества и надежности. Вы будете работать с современными технологиями, такими как Spark, Flink и Trino, и принимать участие в эксплуатации систем.

Чем вы будете заниматься

  • Разрабатывать ingestion/CDC пайплайны и доводить их до production-качества.
  • Строить batch-пайплайны на Spark/Flink/Trino.
  • Разрабатывать и поддерживать трансформации в dbt: staging/intermediate/marts, инкрементальные модели, тесты, документация и lineage.
  • Оптимизировать запросы и витрины под Trino.
  • Прорабатывать модель данных и контракты с продуктами.
  • Встраивать качество, каталогизацию и доступы.
  • Участвовать в эксплуатации: алерты, метрики, SLO/SLA, разбор инцидентов, runbooks.

Требования

  • Сильный опыт работы с Python.
  • Опыт со Spark (PySpark; Scala/Java — большой плюс).
  • Понимание lakehouse подхода и работы табличных форматов.
  • Опыт с Kafka и понимание CDC.
  • Практика Airflow и/или dbt в реальных проектах.
  • Умение думать про надежность систем.
  • Опыт с Trino/Presto, настройкой и оптимизацией аналитических запросов.
  • Опыт со Flink/Spark.
  • Опыт работы с Kubernetes/Helm и взаимодействия с DevOps.

Будет плюсом

  • Знания в области облачных технологий.
  • Опыт работы в стартапах или быстрорастущих компаниях.
  • Умение работать в команде и делиться знаниями.

Что мы предлагаем

  • Конкурентоспособная зарплата.
  • Гибкий график работы.
  • Удалённая работа без привязки к офису.
  • Возможности для профессионального роста и развития.
  • Доступ к современным инструментам и технологиям.
  • Команда профессионалов, готовая делиться опытом.
Диапазон зарплаты
Почему эта вакансия
7.5
7.5 из 10
оценка совпадения

Вакансия предлагает интересные задачи и возможность работы с современными технологиями. Однако, отсутствует информация о компании и условиях работы.

Обязательные
0/1
Желательные
0/1
Бонус
0/1
Требования к языку
RussianC1
English(опционально)B2
БазовыйСреднийПродвинутыйРодной

Формируем профиль успеха...

Анализируем требования вакансии и данные рынка

Обзор рынка

Объём рынка 2026
$5.2B
Годовой рост
12.5%
Внедрение AI
45%
Инвестиции
+60%
Спрос на кадры
+30%
Средняя ЗП
180K ₽

Навыки и требования

Обязательные
PythonSparkFlink
Растущий спрос
Machine LearningData WarehousingStream Processing
Снижающийся спрос
HadoopMapReduce

Тренды отрасли

Рост популярности потоковой обработки данных
Согласно исследованиям, использование технологий потоковой обработки, таких как Apache Flink и Kafka, увеличилось на 35% в последние два года.
Интеграция AI в пайплайны обработки данных
Примерно 45% компаний в Узбекистане уже внедрили AI в свои пайплайны данных для улучшения аналитики и автоматизации процессов.

Новости отрасли

Загружаем новости отрасли...

Ищем релевантные статьи за последние 6 месяцев