Tecnologie critiche in Sanità Digitale: sovranità, sicurezza e innovazione sotto una nuova lente europea

Con l’entrata in vigore del Regolamento (UE) 2024/795, l’Unione Europea ha istituito una nuova piattaforma strategica – la STEP (Strategic Technologies for Europe Platform) – con l’obiettivo di sostenere le tecnologie considerate critiche per la sovranità e la resilienza dell’UE. Tra queste: l’intelligenza artificiale, le biotecnologie, il cloud computing avanzato, la cybersecurity e i semiconduttori.
Nel Work Programme 2025–2027 di Europa Digitale, oltre 1,3 miliardi di euro sono stati destinati al rafforzamento di questi settori. La sanità digitale è tra gli ambiti prioritari per l’implementazione e la sperimentazione di queste tecnologie, che richiedono ora criteri specifici di valutazione, sviluppo e protezione.

🔍 Che cosa sono le tecnologie critiche?

Le tecnologie critiche sono definite come “tecnologie digitali e industriali avanzate” che svolgono un ruolo strategico per la sicurezza economica, l’autonomia decisionale e la difesa dell’Unione Europea.
Nel dettaglio, il regolamento individua sei macro-aree:

  • AI e machine learning: incluso l’uso in medicina predittiva e supporto decisionale;
  • Cybersecurity: requisiti avanzati di resilienza, crittografia, controllo delle vulnerabilità;
  • Cloud ed edge computing: necessità di infrastrutture europee certificate, interoperabili e “privacy-preserving”;
  • Biotecnologie: tecnologie con impatto su salute pubblica e bio-monitoraggio;
  • Quantum computing e semiconduttori: fondamentali per elaborazione dati e imaging medico;
  • Advanced robotics: automazione intelligente in contesti ospedalieri e domiciliari.

Il punto chiave è che queste tecnologie, seppur già presenti, richiedono oggi una regolamentazione più attenta, una valutazione dell’impatto geopolitico e delle vulnerabilità, e soprattutto una gestione etica condivisa.

Perché sono centrali per la sanità digitale?

1. AI regolamentata e ad alto rischio
Dal 1° agosto 2024, con l’entrata in vigore dell’AI Act, i software medici che rientrano nella categoria di alto rischio – come quelli che supportano diagnosi, prognosi, o interventi clinici – sono soggetti a certificazioni specifiche, audit di trasparenza, obblighi di sorveglianza post-market.

Ad esempio: un sistema di triage automatizzato basato su IA che classifica i pazienti in pronto soccorso dovrà dimostrare accuratezza, spiegabilità e controllo umano continuo.

2. Cybersecurity per le piattaforme di telemedicina
Con il nuovo Cyber Resilience Act (CRA) e la Direttiva NIS2, le soluzioni digitali in ambito sanitario sono tenute a:

  • prevedere meccanismi di aggiornamento continuo delle vulnerabilità;
  • documentare incidenti di sicurezza;
  • garantire l’immunità by design da attacchi esterni.

Questo vale anche per dispositivi IoT sanitari, come sensori indossabili o concentratori dati domiciliari.

3. Cloud europeo e sovranità dei dati

L’obiettivo UE è ridurre la dipendenza da infrastrutture extraeuropee (es. AWS, Google Cloud) e incentivare il ricorso a cloud pubblici europei certificati (EUCS – schema di sicurezza cloud europeo).

Questo impatta direttamente le piattaforme sanitarie che archiviano o processano dati sensibili, ad esempio: Fascicolo Sanitario Elettronico, sistemi di prescrizione elettronica, cartelle cliniche condivise.

Cosa significa per noi

Il riconoscimento delle tecnologie critiche da parte dell’Unione Europea non è per noi solo una cornice regolatoria da rispettare, ma una leva concreta per rafforzare la qualità e la coerenza dei progetti che portiamo avanti ogni giorno nella sanità digitale.

Lo abbiamo sperimentato direttamente nello sviluppo del progetto KasoOfAI, candidato lo scorso mese a un bando regionale sulla salute mentale e l’innovazione. In fase di progettazione, abbiamo integrato i principi alla base della nuova politica europea sulle tecnologie critiche, valorizzando quegli elementi tecnologici e metodologici considerati ad alto impatto trasformativo.

✅ 1. Intelligenza Artificiale ad alto valore clinico

KasoOfAI impiega modelli di intelligenza artificiale avanzata, come i Foundation Models (LLM) per l’interazione psicologica e i modelli di deep learning per l’analisi sintomatica e la classificazione comportamentale. L’adozione di queste soluzioni rientra perfettamente nell’ambito delle tecnologie AI ad “alto rischio” e a “duplice uso” citate dal regolamento europeo.

✅ 2. Tracciabilità e sicurezza con DLT e Smart Contract

Per garantire trasparenza e integrità nei processi decisionali dell’AI, il progetto prevede l’utilizzo di tecnologie DLT (Distributed Ledger Technology), integrando Smart Contract per regolamentare digitalmente l’accesso, la modifica e l’uso dei dati clinici in conformità con principi etici e normativi.

✅ 3. Cybersecurity e responsabilità etica

Il disegno progettuale integra misure avanzate di cybersecurity, con controlli su bias algoritmici, auditing delle performance AI e gestione crittografata dei dati sensibili. Un approccio in linea con il Cyber Resilience Act e coerente con le priorità indicate dall’UE.

✅ 4. Sviluppo sperimentale e validazione sul campo

Abbiamo strutturato il progetto su un’intera filiera di ricerca industriale, sviluppo sperimentale e validazione applicata, puntando a creare un prodotto realmente scalabile e interoperabile. Questo approccio si allinea con gli obiettivi di sovranità tecnologica e resilienza strategica promossi dalla Commissione Europea.

🔭 Prospettive future

L’introduzione di un quadro regolatorio europeo dedicato alle tecnologie critiche rappresenta un punto di svolta per l’intero ecosistema dell’innovazione sanitaria. Non è più sufficiente sviluppare tecnologie all’avanguardia: oggi è richiesto che siano sicure, affidabili, strategicamente rilevanti e conformi a una visione comune europea di sovranità digitale.

Per le aziende come la nostra, che operano nella sanità digitale, questo comporta un salto di qualità su più livelli. Significa ripensare le architetture software secondo principi di robustezza e trasparenza, garantire tracciabilità e controllo su ogni processo critico – soprattutto quando si tratta di Intelligenza Artificiale – e formare le competenze interne per affrontare normative complesse come l’AI Act o il Cyber Resilience Act (CRA). Ma, soprattutto, ci invita a fare sistema. Le tecnologie critiche, per loro natura, non sono solo strumenti, ma asset strategici condivisi, attorno a cui costruire una sanità più autonoma, sicura e accessibile.

È questa la direzione che intendiamo seguire anche nei progetti futuri: unire innovazione e responsabilità, tecnologia e visione strategica.