Data Integration Framework
Data integration framework je produkt, ktorý štandardizuje vytváranie dátových pipelines. Framework tak poskytuje set prepoužiteľných SW komponentov, konfiguračný manažment, deployment management a odporúča, ako vybudovať dátovú pipeline. Užívateľ poskytne ako vstup konfiguračný súbor, kde definuje, ako majú byť dáta spracované, a framework zaistí vlastné spracovanie dát spolu s nasadením a orchestráciou úloh.

Späť na zoznam projektov
- Miesto pracoviska
- Bratislava / Praha / Hybridný režim
- Odvetvie
- Farmácia
- Veľkosť tímu
- 11-20 ľudí
- Cieľový trh
- Global
- Jazyk
- Angličtina
- Technológie
- AWS, Databricks, Groovy, Jenkins pipeline, Python, Spark
- Kompetencie
- Data & Analytics platforms
Garant projektu

Radek Bohata
Project Manager
Radek oslávil v Profinite 20 rokov. Má za sebou dlhoročné skúsenosti ako business analytik, delivery a projektový manažér. Orientuje sa skvele v bankovom prostredí aj vo farmácii, kde riadi projekty s globálnym dopadom.