Performance review tech-driven: rendere misurabili le soft skill
Questo articolo rappresenta il nuovo episodio della rubrica Human Stack, dedicata a esplorare il punto di incontro tra infrastrutture tecnologiche e infrastrutture umane. Se nel dominio IT la misurazione è un pilastro, dalle metriche di affidabilità dei sistemi (uptime, MTTR) a quelle di produttività del software delivery (DORA, SPACE), la valutazione delle competenze comportamentali rimane spesso un terreno meno strutturato.
Le soft skill costituiscono oggi un fattore abilitante per l’efficacia dei team: collaborazione, comunicazione, resilienza, leadership diffusa. In assenza di questi elementi, anche processi ben disegnati e strumenti avanzati rischiano di produrre inefficienze. Un conflitto mal gestito durante un incidente critico può dilatare i tempi di ripristino più di un errore tecnico; retrospettive prive di ascolto e feedback riducono l’impatto delle pratiche agile, vanificando il valore delle metodologie stesse.
Il paradosso è evidente: monitoriamo con grande precisione le prestazioni delle nostre architetture digitali, ma trascuriamo di misurare con la stessa accuratezza l’architettura sociale che ne sostiene la resilienza. Eppure la ricerca internazionale (DORA, GitHub Octoverse, World Economic Forum) conferma che collaborazione, benessere e cultura di feedback hanno un impatto diretto su velocità, qualità e capacità di innovazione.
Non si tratta quindi di chiedersi se valutare le soft skill, ma piuttosto come farlo con rigore metodologico, integrandole nei processi di performance review in modo oggettivo e comparabile alle competenze tecniche.
Perché le soft skill contano nei team tech
Nell’ingegneria del software moderna la complessità non riguarda soltanto i sistemi distribuiti, ma anche i team che li progettano e li mantengono. La diffusione del lavoro remoto e ibrido rende la comunicazione e la collaborazione punti di failure tanto critici quanto i colli di bottiglia tecnologici. Secondo l’Atlassian State of Teams Report 2022, la mancanza di chiarezza nella comunicazione è tra i primi tre fattori che incidono sulla produttività percepita dei team distribuiti.
Durante un’incident response o in situazioni di reperibilità (on-call), la dimensione tecnica è inseparabile da quella umana. La gestione dello stress, la leadership situazionale e la capacità di coordinare in modo chiaro e assertivo influiscono direttamente sul Mean Time to Recovery (MTTR). I dati del Google SRE Book mostrano come la qualità della comunicazione in un war room sia uno dei fattori determinanti nella riduzione dei tempi di ripristino dei servizi critici. Alcuni outage noti, come quelli di AWS e GitHub, hanno mostrato come la rapidità e trasparenza nella comunicazione interna ed esterna abbiano inciso in modo significativo sulla percezione della qualità del servizio e sulla fiducia degli utenti, oltre che sulla velocità di recupero.
Anche nei contesti di continuous delivery le soft skill sono abilitatori nascosti: l’empatia e la capacità di fornire feedback costruttivi incidono sulla qualità delle retrospettive e sulla velocità di apprendimento dei team. Uno studio pubblicato su ACM Queue evidenzia come le retrospettive efficaci riducano il tasso di regressione e migliorino la stabilità delle release successive.
Infine, non va trascurato l’impatto delle soft skill su retention e knowledge sharing. I dati del 2023 Developer Happiness Report (Stack Overflow) mostrano che la percezione di un ambiente collaborativo e supportivo è tra i principali driver di permanenza in azienda per i developer, più rilevante persino del pacchetto retributivo in alcuni casi. Un contesto privo di fiducia e scambio aperto di conoscenza porta invece a un aumento del turnover, con costi diretti su produttività e tempi di onboarding.
Le soft skill non sono quindi un complemento opzionale, ma un livello di astrazione critico nella resilienza organizzativa dei team IT: incidono sulla continuità operativa, sulla qualità del software e sulla sostenibilità del capitale umano.
Le difficoltà di misurazione
Misurare le soft skill nei team IT presenta sfide intrinseche molto diverse rispetto alla valutazione delle competenze tecniche.
- Metriche tecniche Vs metriche umane
Indicatori come numero di commit, righe di codice prodotte o ticket chiusi hanno un valore limitato quando si parla di collaborazione, mentoring o leadership diffusa. Anzi, rischiano di introdurre distorsioni: uno sviluppatore che produce molto codice non è necessariamente quello che contribuisce maggiormente al successo collettivo. Secondo il GitHub State of the Octoverse 2023, l’efficacia di un developer non può essere ridotta a output quantitativi, ma va analizzata in relazione al contesto del team e all’impatto sul ciclo di vita del software.
- Bias cognitivi nei processi di valutazione.
La misurazione delle soft skill è particolarmente vulnerabile a distorsioni soggettive. Tra i bias più frequenti:
- Halo effect: un’ottima competenza tecnica viene generalizzata ad altri ambiti, portando a sovrastimare capacità relazionali non dimostrate.
- Recency bias: il peso eccessivo dato agli ultimi eventi (es. performance nell’ultimo sprint) a discapito della continuità nel tempo.
- Affinità personale: la tendenza a valutare positivamente chi ha stili comunicativi simili ai nostri.
Studi pubblicati su Harvard Business Review e MIT Sloan Management Review mostrano come questi bias siano tra i principali fattori che minano l’affidabilità delle performance review tradizionali, soprattutto nei contesti knowledge-based come l’IT.
- Standard generici poco aderenti ai contesti agili.
Molti framework HR utilizzano checklist standardizzate (es. “spirito di squadra”, “capacità comunicativa”) che risultano troppo astratte e disallineate ai contesti agili e DevOps. In ambienti caratterizzati da continuous delivery, on-call rotation e incident response, le competenze relazionali devono essere valutate in termini di comportamenti osservabili e impatto misurabile sul flusso di lavoro. Atlassian, nel Team Playbook, sottolinea che le metriche di collaborazione devono essere contestualizzate al ciclo di vita del software, altrimenti rischiano di diventare rituali privi di reale valore operativo.
- Il limite della valutazione episodica.
Un ulteriore problema è che le soft skill vengono spesso misurate solo in occasione delle review semestrali o annuali, con il rischio di catturare una fotografia parziale e influenzata dal contesto immediato. Nei team IT, dove il lavoro si articola in cicli rapidi e iterativi, è più efficace adottare pratiche di misurazione continua e leggera, come check-in periodici o feedback a caldo dopo incidenti e retrospettive. Questo approccio, sperimentato da diverse organizzazioni agili, consente di ridurre i bias temporali e di trasformare la valutazione in un processo di apprendimento costante, piuttosto che in un giudizio episodico.
Valutare le soft skill senza cadere in metriche surrogate o bias richiede un cambio di paradigma: passare da giudizi soggettivi e checklist generiche a framework osservabili, multidimensionali e integrati con i processi tecnici, applicati in modo continuativo.
Collegare soft skill a outcome misurabili
Uno degli errori più diffusi nelle performance review è trattare le soft skill come elementi intangibili, difficilmente collegabili ai risultati concreti. In realtà, esistono connessioni chiare e osservabili tra comportamenti umani e outcome tecnici. Il punto non è ridurre queste competenze a semplici numeri, ma riconoscerne l’impatto diretto sulle metriche già utilizzate per misurare l’efficienza dei team.
Un esempio evidente è la comunicazione chiara. Durante la gestione di un incidente critico, la capacità di condividere aggiornamenti tempestivi e strutturati riduce sensibilmente il Mean Time to Recovery (MTTR). Non si tratta di un dettaglio: come documentato nel Google SRE Book, la qualità del flusso comunicativo in un war room può determinare la differenza tra un ripristino rapido e un’escalation costosa. Analogamente, la leadership situazionale, ovvero la capacità di mantenere la calma, distribuire compiti e guidare la squadra sotto pressione, incide direttamente sulla resilienza operativa, evitando il disallineamento che spesso prolunga i tempi di recupero.
Le pratiche di feedback costruttivo sono un altro esempio di come le soft skill generino outcome tangibili. Retrospettive efficaci e code review orientate all’apprendimento riducono il tasso di regressione e migliorano la stabilità delle release, come evidenziato da studi pubblicati su ACM Queue. In questo senso, empatia e capacità di ascolto non sono qualità astratte, ma strumenti concreti di prevenzione degli errori.
Anche la collaborazione strutturata si traduce in benefici misurabili: attività come pair programming o la documentazione condivisa su wiki e knowledge base accelerano il time-to-productivity dei nuovi assunti. Il GitHub Octoverse 2023 mostra come i team che adottano pratiche di knowledge sharing abbiano onboarding significativamente più rapidi e minori colli di bottiglia nelle fasi di crescita. La resilienza e la gestione dello stress, particolarmente importanti nei team on-call, consentono invece di mantenere livelli di performance costanti anche in situazioni di alta pressione, riducendo sia i rischi di burnout sia il turnover, come evidenziato dalle survey annuali di Stack Overflow. Infine, l’empatia e la capacità di ascolto attivo, soprattutto durante retrospettive o momenti di feedback, favoriscono engagement e retention, come sottolineato dal World Economic Forum Future of Jobs Report.
Questi esempi dimostrano che le soft skill non appartengono a una sfera separata dalle prestazioni tecniche: sono parte integrante della catena del valore del software. Non sempre la correlazione è immediata o lineare, ma l’osservazione costante dimostra che comunicazione, collaborazione, leadership e resilienza influenzano la velocità, la qualità e la sostenibilità dei risultati. In questo senso, tradurre le soft skill in comportamenti osservabili e collegarle agli indicatori già presenti nei processi DevOps permette di includerle nella telemetria organizzativa, trattandole con la stessa attenzione riservata alle metriche di affidabilità e delivery.
Best practice per performance review tech-driven
Integrare in modo credibile le soft skill nelle performance review richiede un approccio che unisca rigore metodologico e aderenza al contesto operativo dei team IT. Non basta inserire nuove voci nelle schede di valutazione: serve un disegno coerente che tenga conto di dinamiche agili, processi DevOps e cicli di delivery rapidi.
Un primo elemento chiave è la definizione chiara delle aspettative. Così come una Definition of Done stabilisce i criteri per considerare completata una user story, anche i comportamenti attesi devono essere esplicitati in anticipo. Chiedere che, durante una retrospettiva, ogni membro contribuisca con almeno un’osservazione costruttiva non è un dettaglio accessorio, ma un contratto operativo osservabile, che può essere monitorato con continuità.
Un secondo aspetto riguarda la formazione dei valutatori. Engineering manager e tech lead devono essere consapevoli dei bias cognitivi che influenzano inevitabilmente le valutazioni delle soft skill. Senza un processo di calibrazione, il rischio è che prevalgano percezioni personali o episodi isolati. Per questo alcune aziende tecnologiche adottano momenti periodici di allineamento tra manager, in cui si confrontano esempi concreti e si validano criteri comuni, riducendo la variabilità soggettiva.
Un ulteriore livello di maturità si raggiunge integrando people analytics con i dati provenienti dagli strumenti DevOps. Incrociare survey di engagement o collaborazione con indicatori operativi raccolti da piattaforme come GitHub, Jira o PagerDuty consente di evidenziare correlazioni utili. Ad esempio, un calo nella soddisfazione del team rilevato tramite survey può essere messo in relazione con un aumento del tempo medio di onboarding dei nuovi sviluppatori, rivelando potenziali criticità nei flussi di knowledge sharing. Questo approccio, se gestito con attenzione alla privacy e al contesto, trasforma i dati in insight pratici, utili a guidare interventi mirati.
Infine, una performance review efficace deve mantenere un equilibrio tra dati qualitativi e quantitativi. Gli insight derivanti da feedback narrativi, retrospettive o role play forniscono profondità e contesto, mentre gli indicatori numerici — come MTTR, frequenza dei deployment o regressioni in produzione — ancorano le valutazioni a evidenze oggettive. L’obiettivo non è accumulare metriche, ma creare un quadro coerente che consenta di prendere decisioni informate, senza cadere nel rischio di un “data overload” che confonde invece di chiarire.
Spostare le performance review verso un modello realmente tech-driven significa trattare le soft skill come veri e propri SLO umani: comportamenti espliciti, osservabili e collegati a outcome concreti. Solo in questo modo la valutazione diventa uno strumento di crescita continua, piuttosto che un esercizio episodico di giudizio.
Nelle organizzazioni IT di oggi le soft skill non sono un accessorio “intangibile”, ma un livello critico dell’architettura organizzativa, tanto quanto la resilienza delle piattaforme o l’efficienza delle pipeline di delivery. Riuscire a osservarle, descriverle e collegarle a outcome tecnici misurabili significa trasformarle da concetti astratti a driver strategici di performance.
In un contesto caratterizzato da sistemi distribuiti, team globali e cicli di rilascio sempre più rapidi, la vera differenza non la fanno soltanto le competenze tecniche, ma la capacità delle persone di comunicare con chiarezza, collaborare in modo efficace, guidare sotto pressione e adattarsi al cambiamento. Sono queste competenze a determinare la velocità di recupero dopo un failure, la qualità delle decisioni in condizioni di incertezza, la retention dei talenti e la continuità dell’innovazione.
Per CTO, engineering manager e leader HR la sfida è chiara: misurare le soft skill non è più opzionale, ma un requisito di sostenibilità organizzativa. Significa estendere la telemetria dai sistemi digitali ai sistemi umani, trattando collaborazione, fiducia e resilienza sociale con la stessa attenzione con cui monitoriamo la disponibilità di un cluster o la sicurezza di un servizio cloud.
È proprio questa la prospettiva che la rubrica Human Stack vuole promuovere: riconoscere che la vera infrastruttura critica non è soltanto quella tecnologica, ma quella umana che ne sostiene il funzionamento.
Bibliografia e fonti
- Forsgren, N., Humble, J., Kim, G. (2018). Accelerate: The Science of Lean Software and DevOps. IT Revolution.
- Microsoft Research (2021). The SPACE of Developer Productivity: There’s more to it than you think. Queue, ACM.
- Google SRE Team (2016). Site Reliability Engineering: How Google Runs Production Systems. O’Reilly Media.
- Atlassian (2022). State of Teams Report. Atlassian Research.
- GitHub (2023). State of the Octoverse. GitHub Research.
- Stack Overflow (2023). Developer Survey Results. Stack Overflow Insights.
- World Economic Forum (2023). Future of Jobs Report 2023. Geneva: WEF.
- Rigby, D.K., Sutherland, J., Takeuchi, H. (2016). Embracing Agile. Harvard Business Review.
- Edmondson, A. (2019). The Fearless Organization: Creating Psychological Safety in the Workplace for Learning, Innovation, and Growth. Wiley.
Autore: Martina Pegoraro





