О позиции
Мы ищем Data Engineer для работы над облачными решениями. Эта роль предлагает возможность работать с современными инструментами и технологиями в области обработки данных. Вы будете заниматься проектированием и реализацией ETL/ELT процессов, а также взаимодействовать с командами AI и BI.
Чем вы будете заниматься
- Разработка и поддержка ETL/ELT пайплайнов для обработки данных.
- Работа с SQL Server и Azure SQL для управления данными.
- Использование облачных платформ, предпочтительно Microsoft Azure.
- Внедрение современных инструментов для обработки данных, таких как dbt, Airflow и Dagster.
- Участие в проектировании архитектуры данных и моделировании данных.
- Работа с потоковыми технологиями, такими как Kafka.
- Использование Docker и Kubernetes для контейнеризации приложений.
- Управление жизненным циклом данных и применение практик DataOps.
Требования
- Глубокие знания Python и SQL (DML, DDL).
- Опыт работы с SQL Server и Azure SQL.
- Знания в области облачных технологий, предпочтительно Microsoft Azure.
- Опыт разработки ETL/ELT пайплайнов (пакетная и потоковая обработка).
- Знание современных инструментов обработки данных (dbt, Airflow, Dagster).
- Опыт работы с потоковыми технологиями (Kafka или аналогичными).
- Опыт работы с Docker и Kubernetes.
- Способность брать на себя ответственность за проекты от начала до конца.
Будет плюсом
- Опыт работы в команде с AI и BI.
- Знание практик DataOps.
Что мы предлагаем
- Гибкий график работы и возможность удалённой работы.
- Конкурентная зарплата в диапазоне $5000-$8000.
- Возможность работать с передовыми технологиями в области обработки данных.
- Поддержка профессионального роста и обучения.
Вакансия предлагает интересные возможности для Data Engineer с хорошими условиями работы. Однако, описание вакансии могло бы быть более детальным.
Кто здесь добьётся успеха
Глубокие знания Python и SQL, с опытом разработки ETL/ELT процессов на Azure, что позволяет эффективно обрабатывать и управлять большими объемами данных.
Способность работать в удаленном режиме, проявляя высокую степень самодисциплины и организованности, чтобы успешно справляться с задачами в условиях гибкого графика.
Опыт работы с контейнеризацией (Docker) и оркестрацией (Kubernetes), а также знания Kafka для интеграции потоковых данных, что позволяет эффективно взаимодействовать с командами AI и BI.
Ресурсы для обучения
Карьерный путь
Обзор рынка
Навыки и требования
Тренды отрасли
Новости отрасли
Загружаем новости отрасли...
Ищем релевантные статьи за последние 6 месяцев