Il Gruppo Lynx è specializzato nella progettazione e realizzazione di soluzioni software presente in Italia, Spagna e America Latina con oltre 1.600 risorse ed è da anni partner di primarie realtà internazionali in molti settori di mercato, fra i quali Finance, Energy e Insurance.
Vuole saperne di più su questo lavoro? Scorra verso il basso per scoprire quali competenze, esperienze e titoli di studio sono necessari.
I contesti che ci vedono protagonisti sul mercato sono caratterizzati da una forte componente innovativa, come ad esempio l’uso di metodologie quali DevOps, Agile e tecnologie Microservizi, front-end web innovativi, Big Data, Machine Learning, Intelligenza Artificiale e Cyber Security.
Stiamo ricercando un Junior Data Engineer, da inserire all'interno dei nostri team.
Inizierà monitorando le pipeline esistenti e sviluppando script di integrazione, apprendendo sul campo come costruire architetture Cloud moderne.
Il ruolo prevede un forte focus operativo su l'ingegnerizzazione dell'acquisizione dati (scraping, API, streaming) e sul supporto al team nella creazione di software robusto e versionato.
La sua missione è diventare un esperto di sistemi distribuiti, con la prospettiva di imparare a progettare le architetture che supportano gli Agenti AI in ambito Enterprise, trasformando requisiti di business in flussi di dati efficienti e automatizzati sotto la guida di ingegneri senior.
Pipeline Maintenance & Monitoring: Monitorare l'esecuzione giornaliera delle pipeline dati (es. su Airflow o CloudWatch), gestire errori noti e supportare i Senior nel debugging di anomalie, garantendo la continuità dei flussi dati.
Scripting for Data Ingestion: Scrivere e manutenere script Python per l'acquisizione dati da diverse sorgenti (API, scraping web, file CSV/Excel), utilizzando correttamente le librerie standard (es. requests, pandas, boto3) e gestendo le eccezioni di base.
SQL Data Manipulation: Eseguire query SQL per estrazioni dati, verifiche di qualità e trasformazioni di base (Join, Aggregazioni, Filtri), supportando la creazione di viste per l'analisi.
Cloud Support & Learning: Supportare il team nel provisioning di risorse Cloud semplici (es. creazione bucket S3, utenti IAM) e apprendere i principi dell'Infrastructure as Code sotto la guida di figure Senior.
Data Cleansing: Implementare logiche di pulizia e normalizzazione dei dati grezzi (gestione duplicati, conversioni di tipo) per prepararli al caricamento nel Data Warehouse.
Software Maintenance – Occuparsi del mantenimento e della risoluzione problemi ( bug fixing ) su software esistenti, garantendo la continuità operativa.
Laurea (Triennale o Magistrale) in Ingegneria Informatica, Informatica o affini.
Python Basics: Buona conoscenza delle strutture dati fondamentali di Python (Liste, Dizionari, Set), della programmazione OOP (Object Oriented Programming), funzionale e procedurale. SQL Foundations: Version Control: Utilizzo quotidiano di strumenti di versionamento (es. Cloud Interest: Conoscenza base o accademica dei principali servizi Cloud (es. AWS/Azure) unita a una forte volontà di apprendimento.
esperienza teorica e pratica nel prompt engineering e nell’utilizzo di agenti AI per la codifica software e l’analisi dati
~1-2 anni di esperienza (stage o progetti accademici) con focus su database o sviluppo backend/scripting.
~ Esperienza pratica con librerie di browser automation e scraping.
~ Interesse attivo per le tecnologie di Intelligenza Artificiale Generativa e LLM.
Modalità di lavoro: ibrida su Cagliari
E’ prevista assunzione diretta con contratto a tempo indeterminato. xjrgpwk
Fra i benefit offerti sono annoverati accordi di smart working, welfare aziendale e assistenza sanitaria integrativa.