
Ringier
Job title:
DevOps Engineer @ Ringier Axel Springer Tech
Company:
Ringier
Job description
- Znajomość konteneryzacji i podejścia mikroserwisowego (np.: Kubernetes, AWS EKS), bo wspomniane wyżej klocki uruchamiane są w dużej liczbie współpracujących ze sobą kontenerów
- Doświadczenie w przetwarzaniu dużych wolumenów danych – a przynajmniej rozsądny brak obawy przed takimi działaniami
- Znajomość programowania w Python, bo w pracy inżyniera trzeba znać i korzystać z narzędzi
Mile widziane:
- Praktyka w używaniu rozwiązań chmurowych (np.: AWS lub GCP) bo budowanie Big Data na on-premise to dla nas przeszłość
- Znajomość “klocków” współczesnego Big Data (np. Flink, Druid, AirFlow)
- Znajomość narzędzi do zarządzania infrastrukturą w modelu infrastruktura jako kod (Terraform, Flux CD, CloudFormation) bo “klikanie” po interface nie jest powtarzalne a na pewno nie jest wyzwaniem inżynierskim
- Znajomość rozwiązań Machine Learning będzie Twoim atutem
“Klasyczne” Big Data to za mało, gdy należy dostarczyć pełny ekosystem zapewniający zbieranie, przetwarzanie i prezentację dużej ilości danych z ich zabezpieczeniem oraz pełną rozliczalnością. A to wszystko w oparciu o chmurę Amazon Web Services. Setki tysięcy zdarzeń na sekundę, petabajty danych, dziesiątki tysięcy zapytań obsługiwanych każdego dnia dotyczących 30 milionów użytkowników odwiedzających portale Ringer Axel Springer Polska (m.in. Onet, Noizz, Przegląd Sportowy, Forbes, Newsweek) oraz korzystających z czołowych serwisów i aplikacji grupy to już realne wyzwanie.Wyzwanie, które przed Tobą stawiamy to projekt, zapewniający ogromną możliwość rozwoju w obszarze zarządzania danymi, który jest nieustanie w technologicznej awangardzie IT.Profil zespołu to:
- 4 inżynierów na poziomie Senior/Super Senior (+10 lat doświadczenia zawodowego)
- techniczny Solution Product Manager (+20 lat doświadczenia w IT)
- Miejsce dla Ciebie
Pracujemy z dużą autonomią w modelu scrumowym wykorzystując na co dzień podejście GitOps. ,[Współtworzenie i wdrażanie ustalonej wizji rozwoju platformy Data Mesh zbierającej i udostępniającej dane niezbędne dla analityki serwisów, aplikacji, monitoringu, sprzedaży etc – podejścia “Be Data Driven”, Praca przy dostarczaniu narzędzi wspierających Machine Learning (m.in. AWS SageMaker), Testowanie oraz dobieranie odpowiednich narzędzi z ciągle rozwijającego się portfolio AWS zgodnie z potrzebami naszych wewnętrznych I zewnętrznych klientów, Praca w autonomicznym środowisku z ludźmi, w którym będziesz rozwijał swoje umiejętności, Rozwój swoich kompetencji w trakcie wspólnej realizacji projektów – w tym ML Ops oraz wiedzy w zakresie narzędzi do budowania i użycia modeli AI w świecie mediów, Posłuchaj czym się zajmujemy w webinarze z Product Ownerem Marcinem Kapturem – https://www.youtube.com/live/MOYXdwrQShE] Requirements: Kubernetes, Python, AWS EKS, AWS SageMaker, Machine learning, GCP, Big data, Flink, Druid, Airflow, Terraform, f.lux, CloudFormation, cloud formation Tools: Confluence, GitHub, GIT, Bitbucket, Sonar, Agile, Scrum. Additionally: Sport subscription, Training budget, Private healthcare, Flat structure, Small teams, Free coffee, Gym, Canteen, Bike parking, Playroom, Shower, In-house trainings, In-house hack days, Modern office, No dress code, Free parking, Free beverages.
Expected salary
Location
Kraków, małopolskie
Job date
Tue, 01 Apr 2025 22:16:59 GMT
To help us track our recruitment effort, please indicate in your email/cover letter where (vacanciesineu.com) you saw this job posting.