Figura professionale: Big Data Engineer
Nome Cognome | : L. M. | Età | : 36 |
---|---|---|---|
Cellulare/Telefono | : Riservato! | : Riservato! | |
CV Allegato | : Riservato! | Categoria CV | : Engineering |
Sede preferita | : Torino |
Accesso Full al database con 29.998 CV a partire da € 5,00 ABBONATI SUBITO!
Sommario
Esperienze
14/1/19–alla data attuale Machine Learning Engineer MCA Engineering, Torino (Italia) -Progetto Chatbot Creazione di una Chatbot nel campo della robotica utilizzando Python e librerie di Machine Learning al fine di aiutare i nuovi utenti ad apprendere il software AirCam 3iii, e supportare utenti esperti a risolvere eventuali problemi riscontrati durante l'utilizzo.
1/11/16–13/1/19 Big Data Engineer Value Partners s.p.a, Torino (Italia) -Progetto Telepass ▪ Analisi e ricostruzione dei viaggi degli utenti Telepass utilizzando Spark nel linguaggio Scala. ▪ Implementazione in JAVA di algoritmi di crittografia per la gestione della privacy. ▪ Implementazione in Java di una applicazione Spring Boot con API Rest per eseguire query su Phoenix, e integrazione sulla piattaforma WSO2. ▪ Sviluppo di un canale Apache Flume per trasportare dati su Kafka. ▪ Utilizzo di NIFI e sviluppo di script Python per costruire un sistema di caching usando HBase e HDFS. -Progetto Big Financial Data ▪ Consulente in Intesa San Paolo, incaricato di raccogliere e centralizzare i dati, utilizzando: Spark, Scala, Hive, HBase, Oozie, Hortonworks.
ISTRUZIONE E FORMAZIONE 15/3/18 Hortonworks Certified Associate (HCA) Hortonworks University ▪ HDFS, YARN, Spark, HBase, Pig, Hive, HCatalog, Tez, Storm, Solr, Sqoop, Flume, Kafka, HDF, ZooKeeper, Oozie, Ranger and Knox. Documenti collegati CertificazioneHortonworks.pdf 3/13–31/10/16 Laurea Magistrale in Ingegneria Informatica Università degli Studi di Napoli Federico II, Napoli (Italia) Tesi di laurea: "Piattaforma di gestione di Big Data" Realizzazione di una Piattaforma di Memorizzazione e Organizzazione di dati ospedalieri su cluster Hadoop e Cassandra, utilizzando HDFS, Apache Spark e Hive 9/02–7/07 Perito Tecnico Informatico Istituto Tecnico Industriale “E. Barsanti” di Pomigliano D'Arco, Napoli
COMPETENZE PERSONALI Lingue straniere inglese B1
Competenze professionali ▪ Ecosistema Hadoop: HDFS, Yarn, Apache Spark, HBase, Hive, Pig, Phoenix, Oozie su cluster Hortonworks. ▪ Linguaggi: Scala, Java, Python, C Sharp, SQL, NoSQL. ▪ Buona conoscenza delle principali librerie Python di Machine Learning, Data Analysis e Computer Vision, quali Numpy, Pandas, scikit-learn, OpenCV. ▪ Buona conoscenza di Database NoSql(MongoDB, Cassandra), MySql, Oracle. ▪ Conoscenza di tecniche di machine learning come K-means, PCA, Clustering, Regressione Lineare, Alberi di Decisione. ▪ Ottima conoscenza dei tool di sviluppo: SBT, Intellij, Maven, Eclipse, Visual Studio, Anaconda Python Distribution. ▪ Familiarità con lo sviluppo in ambiente Linux, Windows.
152 total views, 2 today