Opis:

Naszym klientem jest czołowy producent urządzeń medycznych z USA i Europy, którego celem jest wprowadzanie innowacji i podbijanie rynku. Projekt reprezentuje duży system obejmujący integrację urządzenia wbudowanego, aplikacji mobilnej i usług sieciowych, dlatego też dużo uwagi poświęcamy aspektom bezpieczeństwa systemu wbudowanego. Projekt jest bardzo zorganizowany i oparty na procesach i jest uważany za doskonałość techniczną, dlatego przywiązujemy ogromną wagę do motywacji członków naszego zespołu do wyzwań technicznych.

Wymagania:

• Wykształcenie z informatyki, matematyki, nauki o danych lub pokrewnej dziedziny.
• 3-5 lat udokumentowanego doświadczenia jako inżynier danych, z doświadczeniem w walidacji danych, zapewnianiu jakości, testowaniu i produkcyjnej platformie danych.
• Snowflake lub podobny magazyn analityczny
• Relacyjne bazy danych, takie jak MS SQL
• Apache Spark/Databricks
• Cloud ETL i orkiestracja (Azure Data Factory)
• Usługi Cloud PaaS na platformie Azure
• SQL
• Python
• Typy i formaty plików, np. Delta, Parquet , ORC
• Systemy kontroli źródła i CI/CD, takie jak Git
• Praktyki inżynieryjne, takie jak TDD i ciągła integracja
• Znajomość przepisów HIPAA i RODO
• Jira i Confluence
• Dokumentacja techniczna, np. style kodowania, strategie rozgałęzień i specyfikacje funkcjonalne
• Automatyczne egzekwowanie zasad (np. linting, analiza kodu statycznego, stylecop)
• Zwinne praktyki programistyczne i ciągłe doskonalenie

Przydatne umiejętności i doświadczenie:
Struktury przetwarzania danych strumieniowych (np. Strumieniowe przesyłanie strumieniowe Spark, Flink, Beam)
Znajomość usług Azure Big Data, takich jak Data Factory i Databricks

Odpowiedzialność zawodowa:

• Twórz i utrzymuj skalowalne potoki danych i hurtownie danych, korzystając z różnych usług Azure Big Data, takich jak Data Factory i Databricks.
• Opracowywanie procesów i potoków ETL przy użyciu SQL i PySpark.
• Przeprowadzaj weryfikację danych, testowanie obciążenia i upewnij się, że standardy jakości platformy są spełnione.
• Konstruuj potoki danych i przeprowadzaj transformacje danych, które są niezawodne, skalowalne i wydajne.
• Współpracuj z zespołami zajmującymi się infrastrukturą i niezawodnością lokalizacji nad elementami Runbook wdrożenia i przedstawiaj zalecenia dotyczące monitorowania produkcji.
• Współpracuj z interesariuszami w celu identyfikacji źródeł danych, tworzenia modeli danych i utrzymywania słowników danych.
• Twórz i utrzymuj potoki strumieniowego przesyłania danych przy użyciu narzędzi takich jak Kafka.

Co oferujemy

Ekscytujące projekty: Klientom ze wszystkich branż i sektorów oferujemy możliwość pracy nad produktami definiującymi rynek przy użyciu najnowszych technologii.

Środowisko współpracy: możesz poszerzać swoje umiejętności, współpracując z różnorodnym zespołem niezwykle utalentowanych ludzi w otwartym, wyluzowanym środowisku — lub nawet za granicą, w jednym z naszych globalnych centrów lub obiektów u klientów!

Równowaga między życiem zawodowym a prywatnym: GlobalLogic priorytetowo traktuje równowagę między życiem zawodowym a prywatnym, dlatego oferujemy elastyczne harmonogramy pracy.

Rozwój zawodowy: Rozwijamy ścieżki dostosowane do Twoich indywidualnych talentów poprzez międzynarodową wymianę wiedzy i możliwości certyfikacji zawodowej.

Doskonałe Benefity: Naszym pracownikom zapewniamy prywatną opiekę medyczną, karty sportowe, grupowe ubezpieczenie na życie, ubezpieczenie podróżne, pakiet relokacyjny, dopłaty do żywności oraz zajęcia kulturalne.

Dodatkowe korzyści: Chcemy, abyś czuł się komfortowo w swojej pracy, dlatego tworzymy dobre środowisko pracy ze strefami relaksu, organizujemy zajęcia towarzyskie i integracyjne oraz zaopatrujemy naszą kuchnię w pyszne herbaty i kawy!

APLIKUJ > >