Il ruolo dei Big Data nella “medicina di precisione”

Per migliorare le cure e i servizi dei propri pazienti le organizzazioni sanitarie di molti paesi hanno proposto nuovi modelli di sistemi informativi sanitari. Questi modelli si basano sull’utilizzo di cartelle cliniche elettroniche (EHR) e enormi quantità di dati biomedici complessi e dati omici di alta qualità al fine di promuovere una medicina personalizzata, predittiva, partecipativa e preventiva.

L’analisi dei big data in medicina richiede l’integrazione di dati eterogenei, il controllo della qualità dei dati, l’analisi, la modellazione, l’interpretazione e la convalida. L’applicazione dell’analisi dei big data in medicina e sanità consente l’analisi dei grandi set di dati di migliaia di pazienti, identificando cluster e correlazioni tra i set di dati, nonché sviluppando modelli predittivi utilizzando tecniche di data mining. L’analisi dei big data in medicina e sanità integra l’analisi di diverse aree che possono fornire benefici completi ai pazienti, ai medici e ai responsabili delle politiche sanitarie. 

Il rapido sviluppo delle tecnologie dell’informazione emergenti, delle tecnologie e dei metodi sperimentali, del cloud computing, dell’Internet delle cose, dei social network fornisce una quantità di dati che sta crescendo enormemente in numerosi campi di ricerca. Inoltre, mediante tecnologie genomiche e postgenomiche è possibile collezionare dati ad alto rendimento – omici che forniscono informazioni complete su diversi tipi di profili molecolari, cambiamenti e interazioni, come la conoscenza alleata del genoma, epigenoma, trascrittoma, proteoma, metaboloma, interattoma, farmacogenomica, malattia, ecc.

Accanto a questi dati omici è necessario inoltre considerare i dati EHR, che contengono dati personali dei pazienti, note cliniche, diagnosi, dati amministrativi, grafici, tabelle, prescrizioni, procedure, test di laboratorio, immagini mediche, risonanza magnetica (MRI), ultrasuoni, dati di tomografia computerizzata (TC). Questi dati hanno caratteristiche complesse e dimensioni elevate motivo per cui per far fronte alla loro rumorosità e incompletezza è necessario considerare tecniche di data mining affinché ne sia possibile il loro utilizzo.

Il termine big data è descritto dalle seguenti caratteristiche: valore, volume, velocità, varietà, veridicità e variabilità, indicate come 6 “V.

Il volume si riferisce alla quantità di dati, mentre la velocità si riferisce ai dati in movimento, nonché alla velocità e alla frequenza di creazione, elaborazione e analisi dei dati. La complessità e l’eterogeneità di più dataset, che possono essere strutturati, semi-strutturati e non strutturati, fanno riferimento alla varietà. La veridicità si riferisce alla qualità dei dati, alla pertinenza, all’incertezza, all’affidabilità e al valore predittivo mentre la variabilità riguarda la consistenza dei dati nel tempo. Il valore dei big data si riferisce alla loro analisi coerente, che dovrebbe essere preziosa per pazienti e clinici.

Le applicazioni dell’analisi dei big data possono migliorare il servizio basato sul paziente, rilevare prima la diffusione delle malattie, generare nuove conoscenze sui meccanismi delle malattie, monitorare la qualità delle istituzioni mediche e sanitarie e fornire metodi di trattamento migliori.

Le tecniche di data mining impiegate su EHR, dati web e social media consentono di identificare le linee guida pratiche ottimali negli ospedali, identificare le regole di associazione nelle EHR e rivelare il monitoraggio della malattia e le tendenze basate sulla salute. Inoltre, l’integrazione e l’analisi dei dati di diversa natura, come sociale e scientifica, può portare a nuove conoscenze e intelligenze, esplorando nuove ipotesi, identificando schemi nascosti.

Per quanto riguarda la raccolta sia dati omici che per gli EHR è necessario tener conto di alcune problematiche legate al loro ottenimento. Per i dati omici ad alto rendimento il costo legato agli strumenti necessari per le misurazioni sperimentali. 

I dati EHR, invece, sono molto influenzati dal personale che inserisce i dati del paziente, che può inserire valori mancanti, dati errati a causa di errori, incomprensioni o errata interpretazione dei dati originali. L’integrazione dei dati da vari database e la standardizzazione per i protocolli e i valori di laboratorio rimangono tuttora questioni impegnative.

La fase successiva è la preelaborazione dei dati, che di solito comporta la gestione di dati rumorosi, valori anomali, valori mancanti, trasformazione e normalizzazione dei dati. Questa pre-elaborazione consente di applicare tecniche statistiche e metodi di data mining e quindi la qualità e i risultati dell’analisi dei big data possono migliorare e possono risultare dalla scoperta di nuove conoscenze. Questa nuova conoscenza ottenuta dall’integrazione dei dati – omici e EHR dovrebbe portare al miglioramento dell’assistenza sanitaria implementata per i pazienti e al processo decisionale avanzato da parte dei decisori politici sanitari.

La sfida dei big data non è solo incentivare la ricerca per produrre innovazione, ma porre le basi per dare piena attuazione alla medicina delle quattro P (preventiva, predittiva, personalizzata e partecipativa), nella consapevolezza che occorre un cambiamento culturale e che lo scenario di riferimento è ormai quello internazionale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.