GSD Sistemi e Servizi

Back-end DevOps

GSD Sistemi e Servizi, che oggi conta più di 200 risorse, è la società consortile del Gruppo San Donato nata nel 2011, con l'obiettivo di erogare servizi trasversali a supporto, integrazione e coordinamento delle singole strutture ospedaliere.

Cerchiamo un/una Back-end DevOps da inserire a diretto riporto dell’Head of Software Factory, che si occuperà della gestione del ciclo di vita delle soluzioni backend e dei relativi ambienti di esecuzione, applicando pratiche DevOps. La risorsa contribuirà inoltre all’integrazione e alla gestione operativa di modelli di Intelligenza Artificiale all’interno dei sistemi software aziendali.

Principali attività

  • Sviluppare soluzioni software di back-end rispettando i requisiti
  • Gestire pipeline CI/CD per il deploy automatizzato delle applicazioni e dei modelli AI
  • Curare il monitoraggio e logging delle applicazioni e dei servizi di inferenza AI in produzione
  • Collaborare alla containerizzazione e orchestrazione di microservizi applicativi e modelli AI (Docker, Kubernetes)
  • Integrare modelli di Machine Learning (es. LLM, RL,NLP) all’interno di sistemi software esistenti
  • Supportare il ciclo di vita dei modelli AI in produzione secondo pratiche MLOps
  • Collaborare allo sviluppo e integrazione di agenti AI intelligenti tramite orchestratori e framework multipiattaforma
  • Collaborare con il team di sviluppo front-end, i designer e altri gruppi esterni per garantire una corretta integrazione tra il front-end e il back-end

Cosa non può mancare

  • Laurea in Ingegneria, Informatica o affini
  • Almeno 3 anni di esperienza come Back-end DevOps
  • Conoscenza delle metodologie di sviluppo (Agile, DevOps, CI/CD, GitOps)
  • Conoscenze delle architetture software (microservizi, API REST), OOP e design pattern
  • Sviluppo e integrazione software in ambienti Web, Mobile e Cloud
  • DevOps e automation practices (CI/CD, Infrastructure as Code, GitLab pipelines)
  • Monitoraggio e logging (Prometheus, Grafana, ELK, Datadog)
  • Containerizzazione e orchestrazione (Docker, Kubernetes)
  • Integrazione di modelli AI (LLM, RL, NLP) in sistemi backend tramite API e orchestratori (LangChain, Hugging Face, OpenAI API)
  • Conoscenza dei principi e strumenti di MLOps per la gestione del ciclo di vita dei modelli (MLflow, Weights & Biases)
  • Sviluppo e orchestrazione di agenti AI (CrewAI, LangGraph, AutoGen)
  • Reasoning e planning con tecniche avanzate (ReAct, Tree of Thoughts, LlamaIndex)
  • Esperienza con AI conversazione e piattaforme chatbot (Dialogflow, Rasa, Botpress)
  • Conoscenza di Java 11+ e Python per lo sviluppo API e integrazione modelli AI
  • Conoscenza di Spring Boot, RabbitMQ, SQL per microservizi e flussi asincroni AI-driven
  • Conoscenza database: PostgreSQL, Oracle
  • Conoscenza degli strumenti DevOps: GitLab, Docker, Kubernetes, Prometheus, Grafana
  • Conoscenza del cloud provider: AWS, GCP, Azure (conoscenza base)
  • Conoscenza di almeno uno tra questi sickit-learn, TensorFlow, Pytorch per Marchine Learning e AI
  • Conoscenza di NLP: applicazione di tecniche di natural language processing
  • Conoscenza di LangChain, CrewAI, AutoGen per orchestrazione di agenti AI integrati nei servizi backend

Dove?

Via Giovanni Spadolini, 4 - Milano (MI)

Dettagli lavorativi

  • Tipologia contrattuale: CCNL Commercio
  • Durata: tempo indeterminato
  • Modalità: possibilità di lavoro in smartworking

Entrare a far parte del nostro Gruppo significa intraprendere un percorso di sviluppo personale e professionale in cui Innovazione, Umanità e Sostenibilità sono i valori guida. Cerchiamo persone entusiaste, che abbiano un approccio proattivo al lavoro, sinceramente interessate al mondo della Sanità e pronte a mettersi in gioco in un contesto dinamico e stimolante.

Inoltra ora la candidatura

Compilare il form sottostante e inviare la candidatura.

Privacy policy ed Informativa sulla Privacy dei Dati dei Candidati.