Зараз ми шукаємо ініціативного та вмотивованого Data Engineer.
У цій ролі ти не просто будеш писати пайплайни, а відіграватимеш ключову роль у побудові масштабованої дата інфраструктури.
Ми будуємо дата-інфру не тільки для внутрішніх користувачів, а й розробляємо продуктові фічі, працюючи в тісній звʼязці з backend-інженерами, тож зможеш поглибити експертизу в розробці та впровадити best practices не тільки з data engineering світу.
Челенджі, які на тебе чекають:
💻 розробка та підтримка масштабованої data infrastructure для безперебійної доставки даних;
📐 проєктування data pipelines від third-party провайдерів, включно з валідацією даних у production середовищі;
📊 участь у розвитку клієнтського сервісу репортингу, що забезпечує користувачів важливою інформацією для прийняття рішень;
🚀 оптимізація продуктивності дата платформи, зокрема аналітичного сховища (DWH);
🛠️ побудова інженерної культури разом з тестуванням data пайплайнів, забезпеченням data quality та fault tolerance на всіх етапах обробки даних.
Що потрібно, щоб приєднатися до нас:
— щонайменше 1.5 роки досвіду роботи в ролі Data Engineer;
— широкий досвід реалізації задач на Python;
— високий рівень знань SQL;
— досвід роботи з Airflow;
— глибоке розуміння ETL/ELT процесів.
Круто, якщо ти маєш досвід:
— роботи в ролі аналітика або Python розробника:
— реалізації задач з використанням Amazon Redshift, DBT, Grafana, Docker;
— написання unit-тестів.