Data Engineer

This job is no longer active!

View all jobs Renault Group Romania active


View all jobs Data Engineer active on Hipo.ro

View all jobs IT Software active on Hipo.ro


Employer: Renault Group Romania
Domain:
  • IT Software
  • Job type: full-time
    Job level: peste 5 years of experience
    Location:
  • BUCHAREST
  • Updated at: 25.06.2020
    Remote work: On-site
    Short company description

    Spiritul nostru de inovare duce mobilitatea și mai departe, pentru a aduce oamenii mai aproape unii de ceilalți.



    Renault Group se află în avangarda unei mobilități care se reinventează. Având o expertiză unică în domeniul electrificării, Renault Group se bazează pe complementaritatea celor patru mărci ale sale – Renault, Dacia, Alpine și Mobilize, și propune clienților săi soluții de mobilitate durabile și inovatoare. Prezent în peste 130 de țări și având peste 111.000 de salariați, Grupul a vândut 2,1 milioane de vehicule în 2022. Obiectivul nostru este să dezvoltăm soluțiile de mobilitate care să îi apropie pe oameni. Pregătit oricând să facă față provocărilor, atât pe șosea, cât și în competiție, Grupul este angajat într-o transformare ambițioasă și generatoare de valoare. Aceasta este centrată asupra dezvoltării de tehnologii și de servicii inedite, precum și a unei game de autovehicule competitive, echilibrate si electrificate. Preocupat de protejarea mediului înconjurător, Renault Group are ambiția de a ajunge la emisii zero de CO2 în Europa în 2040.



    În România, Renault Group integrează toate activitățile specifice construcției automobilului, ceea ce a condus la o performanță economică susținută și la o varietate de oferte de recrutare pentru specializări diferite: studii client, design, inginerie, testare, fabricație, logistică, comercializare, servicii de business, post-vânzare, finanțare. Grupul e lider pe piața locală cu mărcile Dacia și Renault. Cei peste 15.000 de profesioniști inovează și mențin standarde ridicate de profesionalism în birourile situate în București, Mioveni, Titu, Pitești și Oarja. În timp ce fiecare loc de muncă din cadrul echipei este unic, cu toții împărtășim o pasiune comună pentru mașini și provocările interesante pe care le prezintă această industrie.

    Requirements

    • Mastery in SQL
    • Mastery of Scala and/ or Python
    • Knowledge of Elastic Search
    • Knowledge of Hadoop, Kafka, Nifi, Flume, scikit-learn, Jupyter/ Zeppelin, R
    • Knowledge of Spotfire, ggplots, matplotlib, bokeh
    • Knowledge of Tensorflow, Keras, Theano
    • Expertise in the implementation of end-to-end data processing chains
    • Mastery of distributed development
    • Basic knowledge and interest in the development of ML algorithms
    • Knowledge of the ingestion framework
    • Knowledge of Spark and its different modules
    • Knowledge of the AWS or GCP ecosystem (Cloud or Google Cloud Platform)
    • Knowledge of the ecosystem of NOSQL databases
    • Knowledge in the construction of APIs of data products
    • Knowledge of Dataviz tools and libraries
    • Ability to debug Spark and distributed systems
    • Popularization of complex systems
    • Knowledge of algorithm complexity
    • Mastering the use of notebooks data
    • Expertise in data testing strategies
    • Strong problem solving, intelligence, initiative and ability to withstand pressure
    • Excellent interpersonal skills and a great sense of communication (ability to go into detail)
    • Fluent in English (verbal and written)

    Responsibilities

    During project definition:
    • Design of data ingestion chains
    • Design of data preparation chains
    • Basic ML algorithm design
    • Data product design
    • Design of NOSQL data models
    • Design of data visualizations (Spotfire, Qlikview, Power BI)
    • Participation in the selection of services / solutions to be used according to the uses
    • Participation in the development of a data toolbox

    During the iterative realization phase:
    • Implementation of data ingestion chains
    • Implementation of data preparation chains
    • Implementation of basic ML algorithms
    • Implementation of data visualizations
    • Using ML framework
    • Implementation of data products
    • Exposure of data products
    • Setting up NOSQL databases (Cassandra, Elasticsearch, MongoDB)
    • Implementation in distributed mode of treatments
    • Use of functional languages
    • Debugging distributed processes and algorithms
    • Identification and cataloging of reusable elements
    • Contribution to the evolution of labor standards
    • Contribution and opinion on data processing problems

    During integration and deployment:
    • Participation in problem solving

    Job-uri similare care te-ar putea interesa:

    Aplica fara CV
    Remote

    BUCURESTI,

    BUCURESTI,

    Vezi job-uri similare (477)