Data Engineer (w/m/d) Cloud/Big Data
Verstärke als Data Engineer (w/m/d) Cloud/Big Data unsere Data & Analytics Kolleg*innen in Köln oder Frankfurt! Mit deiner Expertise baust du für unsere Kunden Data Pipelines für Data Lakes sowie moderne DWHs.
Das werden deine Aufgaben sein
- Du stehst in direktem Austausch mit der Fachabteilung oder Business Analyst*innen und setzt deren Anforderungen in passende Lösungen um
- Du unterstützt bei der Konzeption und Implementierung von modernen Datenstrecken und -Plattformen
- Du sorgst für das reibungslose Deployment und die Weiterentwicklung der (Cloud)Infrastruktur
- Du bist Teamplayer im Data Engineering-Team und glänzt in der engen Zusammenarbeit mit dem BI- und Data Science-Team
Das haben wir zu bieten
- Ein aufgeschlossenes Team, das dir den Einstieg in die Welt von Cologne Intelligence erleichtert
- Unsere Überzeugung, dass dein Wissenshunger gestillt werden sollte: Du willst Bücher? Bestellen wir dir! Du möchtest auf eine Konferenz oder Weiterbildung? Dann fährst du hin! Du bist Autodidakt*in und lernst mit Udemy? Dein Business-Account ist dir sicher!
- Den Grundsatz, dass uns deine Zeit kostbar ist: Wir arbeiten zu vernünftigen Zeiten, Meetups sind Arbeitszeit und mit einem Sabbatical nimmst du dir bei Bedarf eine Auszeit
- Spannende Projekte OHNE dabei den Koffer packen zu müssen. Wir arbeiten regional, geschlafen wird also zu Hause und Homeoffice gehört nicht erst seit 2020 zu unserer Arbeitsweise
- Tolle Events mit deinen Kolleg*innen: Food Days, Hackathons, Open Fridays, Sport Events und unseren Social Day
- Die Möglichkeit, als Mitglied unserer CI One Mitarbeitergenossenschaft aktiv das Unternehmen mitzugestalten
Darauf freuen wir uns bei dir
- Du hast mehrere Jahre praktische Erfahrung im Data Engineering
- Deine Sprache der Wahl sollte Python oder Scala sein und darüber hinaus freust du dich, weitere zu lernen
- Praktische Kenntnisse mit Cloud-Umgebungen, vorzugsweise in Azure oder AWS
- Erfahrung mit IaC und CI/CD
- Fundiertes Know-how zur Datenintegration (ETL/ELT Data Pipelines) für Data Lakes oder moderne DWHs
- Du kennst dich mit einer Schnittmenge folgender Technologien und Tools aus: Data Factory, Synapse, Databricks, Airflow, Spark, Kafka, Docker, Kubernetes, Terraform, Azure Devops
- Fließende Deutschkenntnisse (≥ C1) für unsere auf Deutsch stattfindenden Kundensituationen und wenn auch mal Englisch gesprochen wird, kommst du damit zurecht
Und jetzt kommst du (zu uns)
Das klingt nach dem richtigen Job in der richtigen Company für dich? Großartig, dann freuen wir uns, etwas mehr von dir zu erfahren. Du kannst uns deine Unterlagen entweder klassisch per E-Mail zukommen lassen oder du nutzt die komfortable Variante mit Lebenslauf-Upload über den „Jetzt bewerben“-Button.
Bei Fragen kannst du dich auch gerne an Antoine wenden oder du schaust bei unserem nächsten Open Friday vorbei.
Übrigens, passend zu unserer Unternehmenskultur sind wir direkt ins „Du“ geswitcht. Also darfst auch du gerne alle Ansprechpartner*innen bei uns im Unternehmen duzen. It’s up to you : )
Jetzt Bewerben