- Analisi qualitativa dei dati di PCR/qPCR
- Analisi dei dati di qPCR
- Derivazione di valori di Cq accurati
- Impostazione della soglia
- Strategie di quantificazione della qPCR
- Quantificazione tramite curva standard
- Quantificazione relativa/comparativa
- Normalizzazione
- Scelta dei geni di riferimento
- Analisi della stabilità dei geni di riferimento
- Metodi di normalizzazione alternativi
- Analisi statistica e visualizzazione dei dati
- Tecniche di visualizzazione per l’analisi univariata
- Test statistici
- Clustering gerarchico
- Analisi delle componenti principali
Analisi qualitativa dei dati di PCR/qPCR
Al termine di una PCR tradizionale, per l'analisi dei dati si opera una risoluzione su gel di agarosio o, in tempi più recenti, su un sistema di elettroforesi capillare. Per alcune applicazioni, si esegue una qPCR basandosi sui dati dell’end-point dell’analisi, come nel caso della genotipizzazione dei polimorfismi di singolo nucleotide (SNP). In ogni caso, quando la PCR ha raggiunto la fase di plateau, i dati dell’endpoint forniscono un’analisi di tipo qualitativo. Talvolta può essere possibile analizzare i dati dell’endpoint per effettuare un’analisi semi-quantitativa della resa della PCR, tuttavia le misurazioni quantitative solitamente vengono effettuate utilizzando la qPCR e analizzando i valori del ciclo soglia o ciclo di quantificazione (Cq).1
Analisi dei dati di qPCR
In questa guida sono stati evidenziati i fattori che contribuiscono alle variazioni nella misurazione dell’acido nucleico utilizzando la PCR o la qPCR. Ciascuno di questi fattori va ottimizzato in modo da ottenere un saggio che fornisca il valore più prossimo alla reale quantità del gene di interesse (target) nella reazione. Il risultato di questi processi è la generazione di un set di valori di Cq per ogni target in ogni campione. In questo capitolo si descrive il processo di derivazione e analisi di questi valori di Cq per ottenere dati affidabili che rappresentino il quadro biologico.
Derivazione di valori di Cq accurati
Correzione della linea di base
Per ogni target in ogni campione si determina il valore di Cq. I diversi pacchetti per l'analisi dei dati installati nei vari strumenti applicano approcci alternativi per determinare il Cq (chiamandolo anche in modo diverso, per es. Ct, Cp, punto di take-off), tuttavia l’approfondimento di questi algoritmi esula dallo scopo di questa guida. È noto che le misurazioni di qPCR basate sulle curve di amplificazione sono sensibili alla fluorescenza di fondo (background), che può essere causata da svariati fattori, tra cui i materiali in plastica in uso, la fluorescenza emessa dai residui di sonda che non è stata spenta, lievi perdite nel pozzetto del campione e le differenze di rilevazione ottica nei vari pozzetti di una piastra da microtitolo. Nei saggi ben concepiti, il background è basso rispetto al segnale amplificato. Tuttavia, una variazione del segnale di background può impedire la comparazione quantitativa di campioni diversi. Per questo è importante correggere le variazioni di fluorescenza del background che causano differenze nella linea di base (Figura 10.1).

Figura 10.1.Componenti delle curve di amplificazione. Questo grafico mostra l’aumento della fluorescenza al crescere del numero di cicli a cui sono stati sottoposti campioni diversi. La soglia è impostata al di sopra del limite di rilevazione, ma ben al di sotto della fase di plateau, alla quale la velocità di amplificazione rallenta.
Un approccio comune è quello di utilizzare l’intensità di fluorescenza registrata durante i primi cicli, per esempio tra i cicli da 5 a 15, per identificare la componente costante e lineare della fluorescenza di background, che, nella curva di amplificazione, viene quindi definita linea di base o background. A causa di effetti transitori, per definire la linea di base è consigliabile evitare i primissimi cicli (da 1 a 5), perché spesso si verificano artefatti causati dalla stabilizzazione della reazione. Quanti più cicli si usano per la correzione della linea di base, tanto migliore sarà la possibile accuratezza della componente lineare delle variazioni della linea di base. I pacchetti software di molti strumenti consentono di impostare manualmente i cicli da considerare per la definizione della linea di base. L’operatore deve approfondire queste funzioni e resistere fortemente alla tentazione di accettare le impostazioni predefinite.
Un esempio dell’effetto dell’impostazione della linea di base è mostrato nella Figura 10.1. Come si può osservare, i valori di Cq e l’aspetto risultante della curva di amplificazione sono influenzati dall’accuratezza dell’impostazione della linea di base. Nell’esempio, la linea di base della curva indicata con C3 è stata corretta manualmente in modo errato affinché i cicli considerati per il suo calcolo fossero quelli dal 5 al 31. Questo ha fatto sì che la curva scendesse al di sotto del livello zero della linea di base (Figura 10.2A) con un valore di Cq di 28,80. Per correggere un problema di questo tipo, si visualizzano i dati non elaborati, R (raw), per identificare l’ultimo ciclo con background lineare (ossia l'ultimo ciclo prima che inizi l’amplificazione). Nella Figura 10.2B, questo corrisponde al ciclo 22. Quindi si imposta correttamente la linea di base a zero tra i cicli 5 e 22 (Figura 10.2C) così da ottenere una curva di amplificazione corretta (Figura 10.2D). Il valore corretto di Cq è 26,12. Si può notare quindi la sostanziale differenza tra i valori di Cq ottenuti con l’impostazione della linea di base errata e con quella corretta, il che dimostra come la definizione della linea di base corretta sia una parte importante dell’analisi dei dati.

Figura 10.2A–B. A)Esempio tipico di crollo dei dati al di sotto della lettura della fluorescenza normalizzata a zero quando l’impostazione della linea di base è sbagliata (curva di amplificazione blu). B) Dati non elaborati delle stesse curve di amplificazione dove è evidenziata la fine della componente lineare della linea di base e si deduce che l’errore non dipendeva dai dati.

Figura 10.2C–D. C)L’inizio e la fine della linea di base sono stati definiti utilizzando le impostazioni del software appropriate. D) L’applicazione delle impostazioni corrette per la linea di base migliorano la qualità dei dati
Impostazione della soglia
Sebbene alcuni ricercatori raccomandino di mappare la singola curva di amplificazione per stimare l’efficienza di amplificazione e le quantità di target nei campioni misurati,2,3,4 l’approccio originario e più comune per derivare il valore di Cq è quello di usare una soglia. Il fatto che quest’ultimo approccio sia diffusamente adottato è probabilmente dovuto al fatto che si tratti di un metodo di quantificazione semplice ed efficiente.
Il principio su cui si basa consiste nel fatto che, per poter visualizzare il segnale fluorescente associato all’amplificazione da parte della qPCR, occorre che tale segnale aumenti fino a superare il limite di rilevazione dello strumento (e, perciò, la linea di base; Figura 10.1). Il numero di cicli necessari perché ciò avvenga è proporzionale al numero di copie iniziali di target nel campione. Quindi, se il numero iniziale di copie è basso servono più cicli perché il segnale superi la linea di base e, viceversa, se il numero di copie è alto bastano meno cicli. Poiché la linea di base è impostata sul limite di rilevazione dello strumento, le misurazioni a livello della linea di base sarebbero molto inaccurate. Pertanto invece di misurare l’intensità della fluorescenza minima rilevabile dallo strumento, si seleziona una fluorescenza più elevata e si introduce artificiosamente una soglia.
La selezione dell’intensità di soglia richiede il rispetto di alcuni principi fondamentali. È importante che la soglia sia impostata a un’intensità fissa per un dato target e per tutti i campioni che si devono confrontare. Se il numero di campioni supera la capacità massima della piastra, è necessario adottare uno schema di taratura inter-piastra, per es. includendo un controllo replicato che funga da controllo tra le piastre oppure registrando una curva standard ottenuta con l'impiego di diluizioni in serie. In teoria, la soglia può essere fissata in qualsiasi punto lungo la fase esponenziale-lineare della curva di amplificazione. Tuttavia, in pratica, la fase esponenziale-lineare dell’amplificazione può essere disturbata dalla deriva della linea di base della fluorescenza di background, dalla fase di plateau o da differenze di efficienza del saggio e quindi dalla pendenza della curva di amplificazione in corrispondenza dei cicli più avanzati. Si raccomanda di impostare la soglia come segue:
- sufficientemente al di sopra della linea di base della fluorescenza di background, per essere sicuri che la curva di amplificazione non incroci la soglia prematuramente a causa della fluorescenza di background;
- nella fase esponenziale della curva di amplificazione dove non è influenzata dalla fase di plateau (ciò è più facilmente individuabile visualizzando le curve di amplificazione su scala logaritmica, Figura 10.3A);
- in una posizione dove le fasi esponenziali di tutte le curve di amplificazione siano parallele tra loro.
La procedura di impostazione della soglia è dimostrata nella Figura 10.3. Nella Figura 10.3A, l’asse Y delle curve di amplificazione è visualizzato in scala logaritmica, per espandere visivamente la fase esponenziale dell’amplificazione e rappresentarla come una componente lineare della curva stessa. La soglia viene impostata in corrispondenza dell’intensità di fluorescenza massima (cfr. asse Y) all’interno di questa fase esponenziale e laddove tutte le curve di amplificazione sono parallele tra loro. La scala viene quindi riconvertita nella visualizzazione lineare (Figura 10.3B), che mostra l’impostazione massima che soddisfa i requisiti di impostazione della soglia. In alternativa, la soglia può essere impostata all’estremità inferiore di questa fase esponenziale (Figure 10.3C e 10.3D). Fintanto che la fase esponenziale delle curve di amplificazione è parallela, il valore ΔCq tra i campioni non è influenzato dall’impostazione della soglia.

Figura 10.3.L’impostazione della soglia influenza il valore assoluto di Cq registrato e può influenzare il ΔCq tra i campioni. A). Rappresentando i dati su una scala logaritmica vs lineare, si imposta la soglia all’intensità di fluorescenza massima laddove le curve di amplificazione mostrano fasi esponenziali parallele. B). Si mantiene la soglia come impostata in A) e le curve vengono visualizzate su scala lineare vs lineare. C). Rappresentando i dati su una scala logaritmica vs lineare, si imposta la soglia all’intensità di fluorescenza minima laddove le curve di amplificazione mostrano fasi esponenziali parallele. D). Si mantiene la soglia come impostata in C) e le curve vengono visualizzate su scala lineare vs lineare. In tutti i casi, il ΔCq tra i campioni non cambia.
La necessità di impostare la soglia in una posizione in cui le fasi esponenziali-lineari delle curve di amplificazione sono parallele diviene più pregnante quando nell'analisi si includono i dati dei cicli più avanzati. La procedura di impostazione della soglia descritta per i dati della Figura 10.3 è stata ripetuta su un set di dati a Cq più alti e i risultati sono presentati nella Figura 10.4. I dati dei Cq risultanti riportati nella Tabella 10.1 servono a illustrare la variabilità di tale parametro e, soprattutto, il ΔCq di tre curve di amplificazione con tre impostazioni della soglia (Figura 10.4). Il valore ΔCq e quindi la stima della quantità relativa di target in ogni campione dipendono strettamente dall’impostazione della soglia (Figura 10.4), dato che le curve di amplificazione non sono parallele.
Soglia 1 Valore di Cq | ΔCq (1) | Soglia 2 Valore di Cq | ΔCq (2) | Soglia 3 Valore di Cq | ΔCq (3) |
---|---|---|---|---|---|
30,67 | 28,77 | 32,33 | |||
37,38 | 6,71 | 35,17 | 6,4 | 39,31 | 6,98 |
35,03 | 4,36 | 32,99 | 4,22 | 36,88 | 4,55 |

Figura 10.4.L’analisi eseguita e dimostrata nella Figura 10.3 è stata ripetuta con un set di dati diverso. In questo caso, le curve di amplificazione non sono parallele a causa di una differenza di efficienza della reazione a Cq alti. Applicando le impostazioni più basse in A) e B) si determinano valori ΔCq diversi rispetto a quando si applicano le impostazioni più alte in C) e D) (si veda il riepilogo nella Tabella 10.1).
Strategie di quantificazione della qPCR
Affinché la quantificazione sia affidabile è imperativo che le impostazioni della linea di base e della soglia siano accurate. Dopo aver impostato questi parametri, viene generato un valore di Cq che serve come base per la quantificazione. La quantità di target in un dato campione viene quindi determinata tramite una curva standard o una quantificazione relativa/comparativa.
Quantificazione tramite curva standard
Quando si ricorre a una curva standard per quantificare il target nei campioni in studio, tutte le quantità calcolate per i campioni sono relative alle quantità assegnate alla curva standard. Ciò richiede che insieme a ogni serie di reazioni sui campioni in studio, si analizzino anche degli standard esterni. La scelta del materiale per la curva standard è importante per eliminare possibili differenze di quantificazione dovute a differenze di efficienza tra i saggi sui campioni e quelli sugli standard. I siti di legame dei primer degli standard esterni devono essere identici a quelli nel target, contenere sequenze identiche a quelle del target, avere complessità simile e richiedere una gestione il più simile possibile. Pertanto, quando si misura la concentrazione di un target nel cDNA, è preferibile misurare lo stesso cDNA in diluizioni in serie di un campione di controllo. Per motivi pratici, però, in certi tipi di studi ciò non si può fare, quindi è importante cercare di riprodurre le condizioni del campione il più fedelmente possibile, per es. aggiungendo gDNA di una specie non imparentata con quella in studio a uno standard oligonucleotidico artificiale o un plasmide linearizzato portatore della sequenza dello standard. Una volta identificato un costrutto o amplicone adatto, si genera una curva standard di diluizioni in serie. Per ogni standard si determina il valore di Cq per il target, che viene riportato in grafico rispetto alla concentrazione o alla concentrazione relativa/fattore di diluizione su una scala logaritmica. Si ottiene così una curva standard che serve per determinare le concentrazioni dei campioni in studio tramite confronto con i valori di Cq derivati dall’amplificazione dei campioni ignoti. Quando si effettua la quantificazione ricorrendo a una curva standard, per determinare il valore di Cq le impostazioni della soglia per lo standard e per i campioni sulla stessa piastra devono essere mantenute costanti. Invece la soglia può cambiare tra una piastra e l’altra.
Quantificazione relativa/comparativa
In questo tipo di quantificazione si usa la differenza tra i valori di Cq come elemento determinante delle differenze di concentrazione della sequenza target in diversi campioni. Invece di misurare le quantità di target in ogni campione come si fa con il metodo della curva standard, in questo caso si ottengono set di dati che indicano la variazione in volte tra i campioni.
Nella forma originaria di questo approccio,5 si partiva dal presupposto che l’efficienza di tutti i saggi fosse del 100%, con la conseguente assunzione che una differenza tra Cq pari a 1 (ΔCq = 1) fosse il risultato di una differenza pari a 2 volte nel target. Per determinare una variazione in volte del target o del gene di interesse (gene of interest o GOI), i dati devono anche fare riferimento a un controllo di caricamento (gene di riferimento o “ref”; si veda più avanti nella dissertazione sulla normalizzazione dei dati).

Figura 10.5.Costruzione di una curva standard. Il valore di Cq registrato per ogni campione di una diluizione in serie è riportato in grafico su una scala logaritmica-lineare rispetto alla concentrazione relativa.
Nell’Equazione 1, il rapporto (ratio) del GOI, corretto per il gene di riferimento (ref), in 2 campioni (A rispetto a B) è così calcolato: 2 (assumendo un’efficienza del 100% di tutte le reazioni) elevato alla potenza del delta tra i valori di Cq del GOI diviso 2 elevato alla potenza del delta tra i valori di Cq del gene di riferimento.

Equazione 1.Modello di quantificazione relativa originario (Livak)
Tuttavia, come spiegato in Ottimizzazione e validazione dei saggi, le efficienze delle reazioni variano notevolmente e ciò può avere un forte impatto sui dati. Pertanto, l’assunzione dell’Equazione 1 è stata rivista (Equazione 2)6 integrando nell’analisi le differenze di efficienza tra le reazioni. In questo caso, il fattore di amplificazione 2 è sostituito dalla reale efficienza della PCR (determinata tramite l’analisi di una curva standard; si veda Ottimizzazione e validazione dei saggi).

Equazione 2.Modello di quantificazione relativa adattato in base all’efficienza (Pfaffl)
Come esempio d’uso di un modello di quantificazione relativa adattato in base all’efficienza (Equazione 2), nella Tabella 10.2 è riportata una serie di valori di Cq. Nella reazione per il GOI l’efficienza è 1,8, mentre per il gene di riferimento (Ref) è 1,94.
Soglia 1 | Cq GOI | ΔCq GOI | EΔCq GOI | Cq Ref | ΔCq Ref | EΔCq Ref | EΔCq GOI EΔCq Ref |
---|---|---|---|---|---|---|---|
1 | 34 | 18 | |||||
2 | 26 | 8 | 110,2 | 17 | 1 | 1,94 | 56,8 |
Questo è un esempio molto semplice di uno studio che richiedeva di misurare la differenza in volte tra un gene in due campioni e dopo normalizzazione rispetto a un singolo gene di riferimento. Il rapporto indica la variazione in volte del GOI nel campione 2 rispetto al campione 1, dopo correzione rispetto al singolo gene di riferimento. Tuttavia, è emerso chiaramente come la selezione di un singolo gene di riferimento appropriato sia spesso impossibile, pertanto sono stati proposti approcci più sofisticati per la normalizzazione.
Normalizzazione
Il principale obiettivo della maggioranza degli esperimenti di PCR è rispondere alla domanda fondamentale circa la presenza o meno del target nel campione (ignoto, o UNK). Al livello più elementare, per rispondere basta eseguire un gel ed esaminare i frammenti ricercando la presenza del GOI in studio. Se il frammento è presente, la conferma delle sue dimensioni rassicura circa la positività del risultato. Tuttavia, se il frammento è assente, potremmo essere di fronte a un risultato falso negativo. Per questo è importante ripetere il saggio ed eseguire almeno un’altra PCR che serva come controllo di caricamento e controllo positivo. Per avere la certezza della negatività del risultato, si può utilizzare un saggio di controllo di inibizione universale, chiamato SPUD (si veda Purificazione dei campioni e valutazione della qualità). Un approccio alternativo è quello di eseguire un saggio che sia specifico per uno o più geni di riferimento. Tradizionalmente, insieme ai saggi di PCR sul GOI, si eseguivano saggi di PCR sui geni di riferimento, come GAPDH, RNA ribosomiale 18S o β-actina, e i frammenti ottenuti venivano visualizzati su gel. GAPDH, RNA ribosomiale 18S e β-actina sono espressi costitutivamente e pertanto venivano usati come controlli di caricamento nelle analisi semi-quantitative. Tuttavia, presto fu chiaro che questi geni non sono espressi ubiquitariamente allo stesso livello in tutte le cellule, indipendentemente dal disegno sperimentale. Diventava pertanto necessario disporre di un riferimento stabile se lo scopo era misurare concentrazioni relative di un acido nucleico, solitamente il cDNA ma anche il gDNA, quando, per esempio, si esaminava la variazione del numero di copie di un gene.
La normalizzazione è il processo di correzione delle misurazioni tecniche rispetto a un riferimento stabile al fine di esaminare variazioni biologiche reali. Vi sono molti metodi per normalizzare le differenze tecniche, e ciò comporta la selezione e la convalida dell’approccio adatto allo specifico esperimento.7 È cruciale riconoscere che l’adozione di tecniche di normalizzazione inappropriate può fare più danni al processo analitico complessivo rispetto alla totale mancanza di normalizzazione.8
Effetto della qualità dei campioni sulla normalizzazione di un saggio
L’effetto dell’integrità e della purezza dei campioni sulla misurazione della quantità di target mediante qPCR e RT-qPCR è stato discusso a lungo (Purificazione dei campioni e valutazione della qualità, Controllo della qualità dei campioni e Trascrizione inversa). È stato dimostrato che la presenza di inibitori nel campione e la degradazione dell’RNA hanno un effetto differenziale sulla misurazione di un dato target.9 Gli inibitori influiscono sulla misurazione di qualsiasi target, ma in grado differente a seconda del disegno sperimentale. La degradazione dell’RNA totale ha effetti sulla misurazione di mRNA e miRNA,10 e anche in questo caso dipende dal disegno sperimentale nel suo insieme. Perciò è fondamentale prendere in considerazione l’effetto della concentrazione dello stampo sulla reazione di trascrizione inversa (RT) e l’effetto della qualità del campione sui dati dopo la normalizzazione. La normalizzazione non contrasta l’effetto di una bassa qualità del saggio o dei campioni (si veda Ottimizzazione e validazione dei saggi).
Metodi di normalizzazione
Idealmente, i metodi di normalizzazione compensano la variabilità che può essere introdotta durante la procedura a più stadi necessaria per eseguire l’analisi di qPCR (Figura 10.6). Tuttavia, l’applicazione della normalizzazione a un qualsiasi stadio della procedura potrebbe non controllare eventuali errori tecnici e/o sistematici introdotti rispettivamente a uno stadio precedente o successivo. I metodi di normalizzazione non si escludono a vicenda, quindi si raccomanda di adottare una combinazione di controlli.11

Figura 10.6.La qPCR è una procedura a più stadi, ciascuno dei quali va controllato. La normalizzazione va considerata all’interno di una serie di controlli.
L’obiettivo della normalizzazione è ottenere un punto di riferimento stabile rispetto al quale riferire le misurazioni; di conseguenza, nella scelta del fattore di normalizzazione, si deve optare per una misurazione che rimanga stabile per tutto l’esperimento. Si può trattare di uno o più geni di riferimento stabili, oppure in alternativa il numero di cellule, la massa di tessuto, la concentrazione di RNA/DNA, uno spike (addizionamento) esterno,12 o un parametro rappresentativo di tutti i geni espressi.
Scelta dei geni di riferimento
I geni di riferimento sono target la cui quantità non cambia come conseguenza dell’esperimento. Quando, in una quantificazione della variazione del numero di copie di un DNA, il numero di copie della sequenza di interesse può cambiare, è possibile normalizzare la misurazione semplicemente utilizzando come target una regione genomica alternativa che è noto rimanere invariata. Un esempio applicativo può essere la misurazione dell’amplificazione genomica del recettore del fattore di crescita epidermico umano 2 (HER-2).13 Nel cancro della mammella, l’instabilità genomica di HER-2 è un indicatore prognostico, perciò è importante disporre di una misurazione accurata dello stato di amplificazione di HER-2 per il trattamento del paziente. Lo stato di HER-2 può essere misurato mediante qPCR confrontando il numero di copie di HER-2 con quello di un altro target genomico che funge da controllo.
Quando si misura l’espressione genica, i geni di riferimento sono target la cui concentrazione di mRNA non cambia come conseguenza dell’esperimento. Un esempio potrebbe essere la misurazione dell’effetto dell’aggiunta di un composto mitogeno a un monostrato di cellule sull’espressione del gene X. Per misurare la variazione nel gene X serve un punto di riferimento, quindi si misura anche un altro gene (o più geni) che si sa non essere influenzato dal mitogeno in questione. Ciò pone subito il ricercatore davanti alla difficoltà di individuare un mRNA target che non venga modificato dalla procedura sperimentale prima di poter studiare il GOI. Questo processo di convalida dei geni di riferimento è fondamentale per misurare in modo accurato il GOI. L’approccio più comune alla normalizzazione consiste nell’ignorare questo passaggio e normalizzare i dati di espressione genica rispetto a un solo gene di riferimento non convalidato. Questa prassi è sconsigliata ed è diametralmente opposta a quando indicato dalle linee guida MIQE (Informazioni minime necessarie per la pubblicazione degli esperimenti di PCR quantitative real-time).1. La quantificazione dell’mRNA mediante RT-qPCR viene spesso compromessa dalla scelta sbagliata dei geni di riferimento. Non è accettabile che si segua la prassi piuttosto comune di usare un gene di riferimento semplicemente perché i relativi primer sono già pronti in congelatore, perché si è sempre usato per i Northern blot, lo usa un collega o è usato da un altro laboratorio per scopi diversi. Per accertarsi che il gene di riferimento in questione non sia influenzato dall’esperimento, occorre che sia stato convalidato nell’ambito di scenari sperimentali specifici. In caso contrario e se il gene di riferimento è in realtà influenzato dall’esperimento, i risultati potrebbero essere errati ed è probabile che le interpretazioni conseguenti forniscano dati senza senso.8
Nella letteratura scientifica si trovano molte informazioni sui diversi metodi di normalizzazione,7-14 e sono reperibili moltissime pubblicazioni in cui si descrivono i protocolli necessari per identificare i geni di normalizzazione più appropriati per un dato scenario sperimentale. Mentre in passato la scelta fondamentale era tra uno solo o più geni di riferimento, con l’abbassamento dei costi degli esperimenti le migliori prassi oggi si sono indirizzate verso la misurazione di più geni di riferimento.
La scelta di geni di riferimento stabili implica che l’analista valuti la stabilità alla qPCR di numerosi (solitamente da 10 a 20) mRNA target candidati7 tra un sottogruppo di campioni rappresentativo sia degli mRNA in studio che di quelli di controllo. Nell’Appendice A, Protocolli, di questa guida è riportato un protocollo completo utilizzabile in combinazione con svariati metodi analitici basati su programmi come REST,15 GeNorm,14 Bestkeeper16 o NormFinder.17 Questa procedura è descritta più dettagliatamente nella sezione seguente, Analisi della stabilità dei geni di riferimento.
Analisi della stabilità dei geni di riferimento
Il gene di riferimento è letteralmente il cardine intorno a cui ruotano i saggi di quantificazione relativa mediante qPCR, Perciò, affinché tutto il saggio sia affidabile, è cruciale che tale gene sia stabile. Se l’espressione del gene di riferimento varia tra i campioni, la variazione sarà trasferita direttamente ai risultati della quantificazione e questa variabilità aggiuntiva potrebbe oscurare l’effetto biologico osservabile desiderato o, ancor peggio, potrebbe generare un quadro totalmente artificiale di un effetto biologico, del tutto scorrelato dal vero gene di interesse. Per questo motivo, si raccomanda fortemente di attenersi a una serie di misure di sicurezza per rendere non significativa la variabilità del gene di riferimento e rendere invece la misurazione degli effetti biologici la più significativa possibile.
Senza dubbio, la più importante misura di sicurezza consiste nell’usare non solo uno ma due o più geni di riferimento. Per ridurre la variabilità tecnica imputabile alla normalizzazione, si può calcolare la media dell’espressione di numerosi geni di riferimento. Ciò può risultare utile per migliorare la significatività quando si misurano effetti biologici minimi. Tuttavia, va soprattutto sottolineato che due o più geni di riferimento possono fungere da controllo reciproco del mantenimento della stabilità e anche da controllo delle evenienze inattese che potrebbero influire sui livelli di espressione di uno dei geni di riferimento. Con un solo gene di riferimento, sussiste il rischio che effetti inattesi sull’espressione genica possano passare inosservati nel saggio.
Un’altra misura di sicurezza consiste nell’usare più di un metodo per identificare i geni di riferimento stabili. Segue un esempio che illustra svariati aspetti della normalizzazione mediante geni di riferimento, compreso un possibile vantaggio dell’uso di entrambi i metodi geNorm e NormFinder sullo stesso set di dati.
Nella Tabella 10.3 è riportato un elenco dei geni di riferimento candidati valutati durante un workshop da noi condotto in collaborazione con l’EMBL. I campioni sono stati raccolti da una coltura di cellule umane suddivise in due diversi gruppi di trattamento. Questo set di dati sarà usato per dimostrare gli aspetti della convalida dei geni di riferimento.
I due algoritmi NormFinder e geNorm sono stati sviluppati a partire dall’assunzione che si possa sfruttare l’analisi di molteplici geni di riferimento candidati per classificare la stabilità dei singoli geni di riferimento candidati. L’assunzione può essere vera se, per esempio, tutti i geni di riferimento candidati variano stocasticamente intorno a livelli di espressione stabili. Però questo non è necessariamente vero nella realtà. Per evitare risultati fuorvianti, è perciò prudente evitare di scegliere come candidati di riferimento dei geni che sono regolati e, in particolare, co-regolati.
Gene di riferimento | Numero d’accesso | |
---|---|---|
1 | 18S | NR_03286 |
2 | ACTB | NM_001101 |
3 | ATP5B | NM_001686 |
4 | B2M | NM_004048 |
5 | CANX | NM_001024649 |
6 | EIF4A2 | NM_001967 |
7 | CAPDHa | NM_002046 |
8 | GAPDHb | NM_002046 |
9 | GUSB | NM_000181 |
10 | PPIA | NM_021130 |
11 | SDHA | NM_004168 |
12 | TBP | NM_003194 |
13 | TUBB | NM_178012 |
14 | UBC | NM_021009 |
15 | YWHAZ | NM_003406 |
I geni di riferimento candidati elencati nella Tabella 10.3 sono stati specificamente selezionati in modo che appartenessero a classi funzionali diverse, per ridurre la possibilità che potessero essere co-regolati. Un’eccezione degna di nota è il gene GAPDH, che qui è presente in due versioni. Sebbene in questa analisi ciò non abbia effetto, la prassi migliore è quella di evitare più versioni di geni che si sospetta possano essere co-regolati.
Il primo algoritmo che ci proponiamo di dimostrare è geNorm, che fornisce una valutazione della stabilità dei geni calcolando un parametro detto valore M, basato sul confronto “pairwise” (a due a due) della variazione di espressione di ognuno dei geni di riferimento candidati rispetto a tutti gli altri geni di riferimento candidati presenti nel set di dati. Il processo funziona in modo iterativo, ossia, come nel nostro esempio, viene prima eseguito su tutti e 15 i geni di riferimento candidati, quindi il gene espresso meno stabilmente viene escluso, il processo viene ripetuto sui rimanenti 14 geni, il secondo gene espresso meno stabilmente viene escluso, e così via fino a quando rimangono solo due geni di riferimento.
Talvolta l’identificazione del gene di riferimento più stabile è particolarmente problematica, per esempio quando le prestazioni di tutti i candidati sono insoddisfacenti, oppure al contrario quando le prestazioni di tutti i candidati sono soddisfacenti. Per distinguere tra questi due casi, un’indicazione utile è ricordare che i geni di riferimento con un valore M inferiore a 0,5 possono essere considerati espressi stabilmente.
Il secondo algoritmo è NormFinder, un pacchetto di analisi di geni di riferimento ad accesso libero (Appendice B, Altre risorse). Per valutare la stabilità dei geni di riferimento questo algoritmo si basa su un approccio simile all’analisi ANOVA, analizzando le variazioni di espressione sia nell’insieme dei geni di riferimento e sia per sottogruppi. Un vantaggio di questo approccio consiste nel fatto che i valori ottenuti sono direttamente correlati ai livelli di espressione dei geni. Pertanto, una deviazione standard di 0,20 delle unità Cq rappresenta una variazione del 15% del livello di espressione del numero di copie del particolare gene di riferimento candidato.
Per praticità, in questa dimostrazione l’accesso a entrambi i pacchetti di analisi è avvenuto utilizzando il software di analisi dei dati GenEx (MultiD), ma entrambi sono disponibili anche come pacchetti separati (Appendice B, Altre risorse).
I diagrammi a barre mostrati nella Figura 10.7 si riferiscono ai geni di riferimento classificati in base ai rispettivi valori di stabilità ottenuti con i due algoritmi. Inoltre, il grafico delle deviazioni standard aggregate ottenuto con NormFinder indica che la combinazione più stabile è quella composta da un massimo di tre geni di riferimento.

Figura 10.7.Diagrammi a barre indicanti i parametri di stabilità: valori M ottenuti con geNorm e deviazioni standard ottenute con NormFinder. Inoltre, il grafico delle deviazioni standard aggregate ottenuto con NormFinder indica che la combinazione più stabile è quella composta da un massimo di tre geni di riferimento. Il set di dati è stato generato a partire da saggi progettati appositamente per i geni di riferimento candidati elencati nella Tabella 10.3 ed effettuati su una coltura cellulare umana dopo suddivisione in due diversi gruppi di trattamento. Si sottolinea che, in questo caso, i due algoritmi geNorm e NormFinder per la valutazione della stabilità dei geni di riferimento non concordano circa i migliori geni di riferimento.

Figura 10.8.Profilo di espressione (media centrata) dei geni di riferimento candidati in due campioni di ciascun gruppo di trattamento. I campioni 1 e 2 appartengono al primo gruppo di trattamento e i campioni 3 e 4 al secondo gruppo di trattamento. I profili di espressione dei geni SDHA e CANX sono indicati in colore rosso, mentre quello del gene UBC in colore giallo. La tabella riporta i valori di Cq misurati nel set di dati.
Visto lo scostamento tra i profili di espressione, è possibile che i geni SDHA e CANX siano regolati dai due diversi trattamenti e pertanto non sono idonei come geni di riferimento. Escludendo questi geni dal set di dati e ripetendo l’analisi, i risultati dei due algoritmi sono concordanti, entrambi indicano infatti che i migliori geni di riferimento sono EIF4A2 e ATP53 (Figura 10.9). Dal calcolo di NormFinder delle deviazioni standard aggregate, emerge chiaramente anche che l’aggiunta di ulteriori geni di riferimento non migliora la stabilità.

Figura 10.9.L’analisi dei profili di espressione e i valori di Cq misurati (Figura 10.8) hanno sollevato il dubbio che, in questo tipo di saggio, i geni SDHA e CANX potessero essere co-regolati. La co-regolazione può interferire con gli algoritmi di valutazione della stabilità dei geni di riferimento. Diagrammi a barre indicanti i parametri di stabilità: A) valori M ottenuti con geNorm e B) deviazioni standard ottenute con NormFinder. Il set di dati coincide con quello utilizzato nella Figura 10.8, solo i dati relativi a SDHA e CANX sono stati esclusi. Si noti che, con questo set di dati così ridotto, i due algoritmi geNorm e NormFinder per la valutazione della stabilità dei geni di riferimento concordano circa i migliori geni di riferimento.
In questo esempio, l’analisi dei dati serve a mostrare che l’uso di geNorm e NormFinder in parallelo non solo permette di individuare i geni di riferimento candidati co-regolati, ma anche che, escludendo i dati di questi geni dall’analisi, la scelta definitiva dei geni di riferimento da utilizzare è maggiormente affidabile di quando si usa un solo tipo di algoritmo. L’identificazione e la selezione di geni di riferimento stabili conferisce maggiore sicurezza all’analisi dei dati.
Metodi di normalizzazione alternativi
Nonostante la normalizzazione rispetto ai geni di riferimento sia il metodo più usato per normalizzare i saggi, a volte questo approccio non è perseguibile, come quando si deve confrontare un gran numero di geni in un gruppo eterogeneo di campioni, oppure quando si studia il profilo degli miRNA. In queste situazioni, è necessario adottare una strategia alternativa.
Normalizzazione rispetto alla massa di tessuto o al numero di cellule
La misurazione del numero di cellule o della massa tissutale come fattore di normalizzazione non è così semplice come potrebbe sembrare. Gli esperimenti sulle colture cellulari sono relativamente facili da normalizzare in base al conteggio del numero di cellule. Tuttavia, l'aggiunta di un trattamento può avere effetti sulla morfologia cellulare, complicando il rapporto tra numero di cellule e RNA totale/geni espressi in confronto alla coltura di controllo. Il trattamento sperimentale può indurre la produzione di matrice extracellulare, con possibili differenze di efficienza nell’estrazione degli acidi nucleici.
I tessuti biologici possono essere altamente eterogenei sia in uno stesso individuo sia tra un individuo e l’altro, e le maggiori variazioni si riscontrano in particolare quando si confrontano un tessuto sano e uno patologico. Anche i tessuti apparentemente meno complessi, come il sangue, possono presentare differenze considerevoli in termini di numero di cellule e composizione, tanto che l’espressione genica varia notevolmente tra donatori apparentemente sani.18
Inoltre, qualsiasi ritardo nella procedura di purificazione dell’acido nucleico altera l’RNA misurato. Per esempio, un ritardo nella preparazione delle cellule mononucleate da sangue periferico e nell’estrazione dell’RNA dalle cellule causa cambiamenti rilevanti nell’espressione genica.19 Anche i metodi utilizzati nelle procedure di estrazione costituiscono una fonte significativa di variazione tecnica. E, a monte, persino la procedura di isolamento scelta per ottenere il campione di cellule emoderivate e quella di purificazione dell’RNA danno luogo a differenze nei profili di espressione genica apparente.20 Di conseguenza, la prima considerazione sulla normalizzazione è assicurarsi che le procedure di raccolta e di preparazione dei campioni siano assolutamente identiche per tutti i campioni. È poi fondamentale prevedere un controllo qualità sufficiente, per essere certi della concentrazione, dell’integrità e della purezza dei campioni (Purificazione dei campioni e valutazione della qualità e relativi protocolli nell’Appendice A).
Normalizzazione rispetto alla concentrazione di RNA
Come minimo, è importate avere una stima della concentrazione dello stampo (DNA per la qPCR o RNA per la RT-qPCR) e, come menzionato in Purificazione dei campioni e valutazione della qualità, è essenziale assicurarsi di utilizzare sempre lo stesso strumento per tutte le misurazioni, perché anche la determinazione della concentrazione dell’acido nucleico è variabile e dipende dalla tecnica.
Nella misurazione della concentrazione totale di RNA, la componente principale del campione è composta da rRNA, e solo una piccola frazione è costituita dall’mRNA di interesse, nel caso si esamini l'espressione genica, o da sncRNA, nel caso si esamini la regolazione dell’espressione genica. Ciò significa che quando la concentrazione di rRNA aumenta di poco ma l’mRNA rimane costante, la quantità di RNA totale aumenta. La concentrazione di mRNA deve aumentare sensibilmente perché sia misurabile un aumento della concentrazione dell'RNA totale. Perciò, la concentrazione di rRNA è una misura inaffidabile della concentrazione di mRNA, ma per molti protocolli è necessaria una concentrazione uguale di RNA per garantire una trascrizione inversa accurata (si veda Trascrizione inversa).
Normalizzazione rispetto all’espressione genica totale
Quando misura un gran numero di target, l’analista può stimare la media globale dell’espressione genica totale e identificare le sequenze di RNA regolate che deviano da questa media. Questo approccio si usa convenzionalmente per la normalizzazione di array di espressione genica. Si tratta di una valida alternativa all’uso dei geni di riferimento e può essere preferibile quando si devono misurare molti target.
Un altro approccio più recente consiste nella misurazione degli elementi ripetuti espressi (ERE) endogenamente che sono presenti all’interno di molti mRNA. Molte specie contengono questi elementi ripetuti (ALU nei primati elementi B nei topi) che possono fornire una stima della frazione di mRNA. È stato dimostrato che la misurazione di queste sequenze target è utile come sistema di normalizzazione convenzionale9 (Le Bert, et al., in preparazione) e può rappresentare una soluzione universale o un’alternativa a esperimenti complessi per i quali non sono disponibili combinazioni di geni di riferimento stabili.
Normalizzazione dei dati degli miRNA
Poiché per il momento non è ancora stato identificato alcun gene di riferimento universale per gli miRNA, la scelta di un sistema di normalizzazione è ancora piuttosto empirica. Quando possibile, si possono identificare miRNA stabili, che non variano, utilizzando approcci estesi a tutto il genoma, cioè i microarray. Come geni di riferimento sono stati utilizzati anche i piccoli RNA nucleolari (snoRNA). Un altro metodo utile per normalizzare l’espressione degli miRNA può essere l'espressione genica complessiva, in particolare quando non si conoscono riferimenti stabili e vanno analizzate molte centinaia di target.21,22,23 Questo metodo è più adatto a chi utilizza approcci che comportano la cattura di tutti gli miRNA come cDNA in una forma multiplex, per es. i sistemi Exiqon e miQPCR (cfr. Castoldi et al. in PCR Technologies, Current Innovations).24
Replicati biologici e replicati tecnici
L'obiettivo della normalizzazione è evitare gli errori sistematici e ridurre la variabilità dei dati per l’analisi statistica finale. Un altro aspetto importante dell’impostazione dei dati per l’analisi statistica è la disponibilità di replicati dei dati.
Per l’analisi statistica i replicati biologici sono assolutamente necessari. Spesso il livello di significatività statistica è impostato alla soglia di cut-off del 5%. In caso di effetti biologici prossimi a tale livello di significatività, possono servire almeno 20 replicati biologici per determinare il livello di significatività del saggio (1:20 corrispondente al 5%). Infatti, è stato suggerito che, per una stima accurata della significatività, è necessario che il numero delle osservazioni venga registrato almeno 50 volte,25 siamo quindi nell’ordine del migliaio di campioni biologici. È ovvio che limitazioni pratiche raramente consentono tali numeri di replicati biologici. Inoltre, le stime accurate del numero di replicati biologici necessari per soddisfare un dato livello di significatività dipendono anche dal grado di variabilità dei dati. Ciononostante è importante riconoscere che è un errore comune sottostimare il numero necessario di replicati biologici per poter giungere a conclusioni affidabili. Per avere una buona base per la stima del numero necessario di campioni biologici, si raccomanda perciò di avviare un primo studio pilota che valuti la variabilità intrinseca del saggio e le potenziali dimensioni dell’effetto biologico osservabile.26
I replicati tecnici non si usano direttamente per l’analisi statistica, ma servono come campioni di scorta (nel caso alcuni campioni vadano persi durante la procedura di manipolazione tecnica) e per migliorare la valutazione dell’accuratezza dei dati. I replicati tecnici possono infatti migliorare l’accuratezza dei dati se è vera l’ipotesi che variano stocasticamente intorno alla misurazione accurata a ogni stadio della procedura di manipolazione tecnica. La media dei replicati tecnici è quindi più vicina alla misurazione accurata. L’effetto del calcolo della media dei replicati tecnici può essere illustrato osservando le dimensioni dell’intervallo di confidenza in un set di dati simulato caratterizzato da una variabilità predeterminata, cioè con deviazione standard impostata sul valore di uno. Come si evince dalla Tabella 10.4, l’intervallo di confidenza si riduce all’aumentare del numero di replicati tecnici (campioni), fornendo una stima più precisa della misurazione accurata. Inoltre, il restringimento dell’intervallo di confidenza assume massima rilevanza in caso di basso numero di replicati tecnici. Aumentando il numero di replicati da 2 a 3, l’intervallo di confidenza diminuisce da 8,99 a 2,48, ossia si ottiene un miglioramento di più di 3 volte della precisione della stima della misurazione accurata. Sebbene al crescere del numero di replicati migliori la stima dell’accuratezza della misurazione, l’ordine di grandezza dell’effetto è decrescente. È chiaro quindi che nei casi in cui la variabilità della manipolazione tecnica è un problema, può essere molto vantaggioso usare triplicati invece che duplicati.
Intervallo di confidenza delle medie stimate | |
---|---|
Campioni | IC (α=0,05 e SD=1) |
2 | 8,99 |
3 | 2,48 |
4 | 1,59 |
5 | 1,24 |
10 | 0,72 |
20 | 0,47 |
50 | 0,28 |
I replicati tecnici possono essere raccolti a svariati stadi durante tutta la procedura di manipolazione tecnica, come nelle fasi di estrazione dell’RNA, di trascrizione inversa e di analisi della qPCR. Quando i replicati tecnici vengono analizzati in più stadi, si genera un disegno sperimentale annidato. Uno studio pilota che sfrutti un disegno sperimentale annidato può contribuire a identificare le fasi di manipolazione dei campioni che maggiormente contribuiscono a errori di manipolazione tecnica e, sulla base di queste informazioni, elaborare una strategia ottimale per ovviare a ciò.27
Analisi statistica e visualizzazione dei dati
L’analisi scientifica dei dati biologici è incentrata sulla formulazione di ipotesi e sulla loro convalida. Per formulare un’ipotesi serve una comprensione dettagliata delle condizioni e delle variabili del saggio, mentre per confermarla sono necessarie un’esecuzione attenta e un disegno sperimentale appropriato che massimizzino il segnale osservabile desiderato minimizzando al tempo stesso la variabilità tecnica. In questo contesto, è utile distinguere tra studi esplorativi e studi di conferma (Figura 10.10).

Figura 10.10.Diagramma di flusso in cui si illustrano le attività implicate nelle analisi statistiche di tipo esplorativo e di conferma. Nella parte sinistra della figura, prima della freccia tratteggiata, sono mostrate le attività in uno studio statistico esplorativo. Nella parte destra della figura, dopo la freccia tratteggiata, sono mostrate le attività in uno studio statistico di conferma.
Il proposito dello studio esplorativo è di analizzare i dati con una o più tecniche diverse per sostanziare un’ipotesi. Il set di dati può essere ridefinito e/o si possono impiegare ripetutamente tecniche di analisi diverse a supporto di una o di svariate ipotesi. Perciò lo studio esplorativo è molto flessibile rispetto alle specifiche di qualsiasi domanda scientifica. Tuttavia, testare ripetutamente le ipotesi su un set di dati può dar luogo a problemi che indeboliscono le conclusioni statistiche. Questo è dovuto ai test multipli, ossia al fatto che è maggiormente probabile che si ottenga una significatività statistica a partire da un test statistico con molte ipotesi indipendenti, e la possibilità che ciò avvenga cresce con il numero di ipotesi testate, anche se le distribuzioni di probabilità sottostanti sono identiche. Per evitare risultati statistici fuorvianti, spesso si abbina uno studio di conferma allo studio esplorativo.
Uno studio di conferma si basa infatti su requisiti più stretti per i criteri statistici. Innanzitutto, va definita l’ipotesi di studio, compresi i criteri di significatività, prima della raccolta dei dati e prima dell’analisi. Inoltre, il set di dati per l’analisi deve essere stato raccolto esclusivamente per questo scopo. È statisticamente scorretto riutilizzare il set di dati ottenuto dallo studio esplorativo in quello di conferma, poiché questi dati sarebbero intrinsecamente a favore dell’ipotesi formulata. L’esito finale dello studio di conferma è quello di accettare o rigettare l’ipotesi in base a criteri prestabiliti.
Test statistici
Nei test statistici, si analizza la probabilità che un fenomeno osservato accada per caso. Questa si chiama ipotesi nulla.28 Se, in base all’ipotesi nulla, il fenomeno osservato è raro, la conclusione è che è improbabile che l’ipotesi nulla sia valida. L’ipotesi nulla viene rigettata e si accetta che la probabilità dell’ipotesi alternativa sia significativa.
La probabilità stimata che il fenomeno osservato accada per caso è definita valore di p. Il valore di p si misura in un intervallo da 0 a 1 oppure, in modo equivalente, in unità percentuali. In uno studio di conferma, il criterio statistico include una soglia α di cut-off al di sotto della quale i valori di p calcolati indicano la significatività del fenomeno osservato. Solitamente si usa una soglia α di cut-off del 5%, sebbene questa percentuale debba essere corretta per adattarla ai criteri desiderati e necessari specifici per l’oggetto dello studio.
Per calcolare i valori di p sono stati sviluppati molti algoritmi basati su varie assunzioni e per differenti scopi. Un algoritmo molto diffuso è il test t di Student, che si usa per calcolare un valore di p in base alla differenza tra i valori medi di due gruppi di dati. L’assunzione principale del test t di Student è che i due gruppi di dati sono indipendenti tra loro e conformi a distribuzioni normali. Il vantaggio di questo test è la sua potenza rispetto ai test statistici non parametrici.29 Esistono numerosi test non parametrici equivalenti al test t di Student, come ad esempio il test per la somma dei ranghi di Wilcoxon (a volte chiamato test U di Mann-Whitney, da non confondere con il test dei ranghi con segno di Wilcoxon che si usa per confrontare due gruppi appaiati). Rispetto a quelli parametrici come il test t di Student, questi test non parametrici hanno il vantaggio di non dipendere da assunzioni precedenti sulla distribuzione del set di dati. Per decidere se applicare il test t di Student o uno dei test non parametrici si può utilizzare il test di Kolmogorov-Smirnov per la distribuzione normale.
Oltre a poter scegliere l’algoritmo per calcolare il valore di p, è possibile manipolare i set di dati che alimentano l’algoritmo stesso al fine di facilitare l’osservazione delle proprietà desiderate nel set di dati. Le fasi della manipolazione dei dati non elaborati insieme alla scelta dell’algoritmo di calcolo del valore p sono componenti della costruzione di un modello di ipotesi.
Durante la fase esplorativa di un’analisi statistica vi è ampia libertà nella costruzione dei modelli di ipotesi, e ciò è una parte importante dell’indagine scientifica. Tuttavia, un’ipotesi non viene mai provata utilizzando un approccio scientifico di tipo statistico. Un approccio scientifico corretto consiste nel formulare un’ipotesi nulla, utilizzare un set di dati indipendente (preferibilmente nuovo) e accettare o scartare l’ipotesi nulla attenendosi al diagramma di flusso per gli studi di conferma (Figura 10.10).
Tecniche di visualizzazione per l’analisi univariata
Proprio come esistono molti metodi di analisi disponibili, esiste anche un’ampia scelta di tecniche di visualizzazione dei dati. Nel caso dell’analisi univariata, una tecnica di visualizzazione appropriata consiste in un semplice diagramma a barre con le barre d’errore associate. Pur trattandosi di una tecnica di visualizzazione semplice e molto usata, vi sono problemi che vale la pena evidenziare. Primo, le barre d’errore possono simboleggiare fonti di variabilità differenti, la variabilità intrinseca dei dati (ossia la deviazione standard - SD) o la precisione con cui è stato calcolato il valore medio. Secondo, la precisione con cui è stato calcolato il valore medio può essere illustrata in molti modi, ma in ultima analisi essa dipende da una combinazione tra variabilità intrinseca dei dati e numero di campioni (N) e nella sua forma non elaborata viene chiamata errore standard della media (SEM, Equazione 1):

Equazione 1.SEM
Tuttavia, il SEM non è un parametro molto intuitivo e non è semplice confrontare SEM di esperimenti diversi in modo sensato. Un modo più popolare di illustrare la precisione della media stimata e di indicare la significatività statistica graficamente è l’intervallo di confidenza (CI, Equazione 2):

Equazione 10-2.Cl
Nell’equazione dell’intervallo di confidenza la presenza del SEM è riconoscibile come rapporto tra la deviazione standard (SD) e la radice quadrata del numero di campioni (N), perciò è chiaro che l’intervallo di confidenza si basa sul SEM. Il limite inferiore dell’intervallo di confidenza si ottiene sottraendo dalla media il valore di SEM moltiplicato per un percentile di una distribuzione t. Il limite superiore dell’intervallo di confidenza si ottiene aggiungendo alla media il valore di SEM moltiplicato per un percentile di una distribuzione t. Il livello di confidenza dell’intervallo di confidenza è dato dal livello di confidenza associato al valore critico t*, tipicamente un livello di confidenza del 95%.
Dalla Figura 10.11, un grafico a barre in cui le barre d’errore indicano l’intervallo di confidenza al 95% all’interno di ogni gruppo sperimentale, emerge l’incertezza associata alla media stimata nella valutazione dell’espressione genica in campioni di organi diversi dopo trattamento con più dosi di farmaco. Sono mostrati anche i valori di p risultati statisticamente significativi al test t che indicano la differenza di espressione genica tra i campioni di controllo e ciascuno dei tre diversi campioni in risposta a dosi diverse di farmaco, differenza rimarcata aggiungendo uno o più asterischi. È infatti consuetudine aggiungere un asterisco in presenza di un valore di p inferiore a 0,05, mentre due asterischi corrispondono a un valore di p inferiore a 0,01 e tre a un valore di p inferiore a 0,001.

Figura 10.11.Variazione in volte (log2) dell’espressione di un gene di interesse rispetto a una coppia di geni di riferimento rispetto all’espressione nel campione a più bassa espressione per ogni tipo di organo. L’altezza delle barre indica l’espressione media del gene in molti campioni dei gruppi non trattato (Dose 0) o trattato con una di tre dosi diverse di farmaco (Dose 1, Dose 2 e Dose 3). Le barre d‘errore indicano le stime degli intervalli di confidenza al 95% delle espressioni medie. Un asterisco indica che la differenza statisticamente significativa tra le medie di un gruppo di campioni trattati rispetto alla media del campione non trattato è del 5%, due asterischi indicano una differenza statisticamente significativa dell’1% e tre asterischi indicano una differenza statisticamente significativa dello 0,01%.
Dato che la notazione dell’asterisco nasconde il valore assoluto di p, spesso si invita a includere una tabella che lo elenchi, come nell’esempio della Tabella 10.5. Questo perché, per esempio, un valore di p di 0,032 è solo di poco più “significativo”di un valore di p di 0,055. Casi limite come quello citato sopra possono generare confusione al momento di decidere precisamente quale cut-off usare quando si classificano i dati come significativi. In casi realistici, un valore di p di 0,051 potrebbe essere altrettanto significativo di un valore di p 0,049, benché applicare severamente un cut-off (sebbene fondamentalmente arbitrario) di 0,05 potrebbe classificarne uno come significativo e l’altro no.
Valori di p per l’espressione genica | ||||
---|---|---|---|---|
Organo 1 | Organo 2 | Organo 3 | Organo 4 | |
Dose 1 vs Dose 0 | 0,70274 | 0,00034*** | 0,78194 | 0,05551 |
Dose 2 vs Dose 0 | 0,01379* | 0,00295** | 0,20956 | 0,07582 |
Dose 3 vs Dose 0 | 0,03180* | 0,00157** | 0,61582 | 0,00075*** |
Tuttavia, esiste una variante della visualizzazione con diagramma a barre che sfrutta l’intervallo di confidenza della differenza tra le medie per evitare molti, se non tutti, gli svantaggi del tradizionale diagramma a barre.24 Attraverso l’intervallo di confidenza della differenza tra le medie è possibile stimare direttamente la significatività statistica con le barre d’errore associate e al tempo stesso evidenziare la dimensione dell’effetto biologico e la variabilità dei dati. Nella Figura 10.12 è mostrata la variante che sfrutta l’intervallo di confidenza della differenza tra le medie per i dati usati nella Figura 10.11. Si noti che gli intervalli di confidenza che non comprendono la differenza zero tra le medie corrispondono a risultati significativi al livello di confidenza corrispondente al cut-off del valore di p (5% nella Figura 10.11 e nella Tabella 10.5).

Figura 10.12.Diagramma a barre che mostra la differenza tra le medie del set di campioni non trattati (Dose 0) e uno dei set di campioni trattati (Dose 1, Dose 2 o Dose 3) relativa al set di dati della Figura 10.11. Le barre d‘errore indicano l’intervallo di confidenza della differenza tra le medie. Le barre d'errore che non attraversano l’asse X indicano che il confronto tra le medie corrispondenti è statisticamente significativo in un test t al 5%. PCR Technology, Current Innovations-3rd ed. by Taylor and Francis Group LLC Books. Riprodotto su gentile concessione di Taylor and Francis Group LLC Books nel formato per il riutilizzo all’interno di un libro/e-book tramite Copyright Clearance Center.
I dati multivariati sono dati relativi a numerose variabili per ogni unità di campionamento. I dati usati nelle Figure 10.11 e 10.12 sono definiti multivariati perché dipendono da variabili come la dose e il tipo d’organo. Tuttavia, le analisi statistiche nelle Figure 10.11 e 10.12 sono da ritenersi univariate perché ciascuna rappresentazione (barra) si riferisce a una sola variabile, l'espressione genica, in relazione a valori fissi delle altre variabili. Per le tecniche di analisi di dati multivariati, buone opzioni per la rappresentazione dei dati sono il clustering gerarchico e l’analisi delle componenti principali.
Clustering gerarchico
Uno dei metodi più semplici e utili per caratterizzare i dati è quello di rappresentarli in un grafico di dispersione (per esempio riportando i valori di Cq misurati per un gene rispetto ai corrispondenti valori di Cq di un altro gene per una serie di campioni biologici in un grafico bidimensionale). I grafici a una o a due dimensioni sono facili da visualizzare per l’occhio umano. Con strumenti appropriati, è possibile costruire anche grafici a tre dimensioni, ma più il numero di dimensioni sale più sono difficili da visualizzare. Tuttavia, per gli studi esplorativi, il set di dati è intrinsecamente multidimensionale, perciò non è possibile costruire grafici di dispersione di tutti i set di dati. Per esempio, un set di dati di una qPCR può essere rappresentativo di numerosi geni e/o numerosi tipi di campioni biologici.
Un modo alternativo, popolare, per caratterizzare e visualizzare i dati ottenuti con gli studi esplorativi è quello di analizzare le misure della distanza tra i punti dati nel grafico di dispersione. Sono disponibili diverse misure della distanza, per esempio la distanza euclidea e le correlazioni di Manhattan e di Pearson. Grazie alla potenza computazionale, il calcolo delle distanze è immediato, anche per dati multidimensionali di grado molto maggiore rispetto alle tre dimensioni. Per il clustering gerarchico di tipo agglomerativo, si esegue il seguente processo iterativo: 1) si trovano i due oggetti più vicini e si accorpano in un cluster; 2) si definisce il nuovo cluster come nuovo oggetto attraverso un metodo di clustering; 3) si ripete dal punto 1) finché tutti gli oggetti non sono stati accorpati in cluster.30 Alternative ai metodi di clustering sono il metodo di Ward, il legame singolo e il legame medio.31 Spesso si usa un dendrogramma (diagramma ad albero) per visualizzare i risultati ottenuti con il clustering gerarchico.
L’interpretazione dei dendrogrammi ottenuti con il clustering gerarchico dei dati di qPCR spesso permette di trarre conclusioni circa le similarità dei profili di espressione genica. In uno studio esplorativo queste similarità possono poi essere usate per formulare ipotesi sulla co-regolazione dell’espressione genica, che possono essere accettate o scartate negli studi di conferma successivi. Il vantaggio dei dendrogrammi del clustering gerarchico è la chiarezza con cui vengono visualizzate le correlazioni di similarità. Di contro, la forte enfasi sulle misure di similarità può essere percepita come limitativa rispetto alla formulazione delle ipotesi, dato che profili di espressione simili possono essere attributi ridondanti nelle ipotesi. Per rispondere all’ipotesi desiderata, può essere di maggior peso l’identificazione di set di profili di espressioni che si completano a vicenda in una combinazione specifica.
Analisi delle componenti principali
Un altro modo popolare per caratterizzare e visualizzare i dati raccolti negli studi esplorativi è sfruttare le informazioni contenute nell’intero set di dati multidimensionali, selezionare le proprietà desiderate e rappresentarle su un diagramma di dispersione con basso numero di dimensioni, nello specifico a due o tre dimensioni. Ciò si può ottenere utilizzando l’analisi delle componenti principali (PCA).32,33,34, 35 Qui, il sistema di coordinate originario del set di dati (ossia i profili di espressione misurati mediante qPCR) viene trasformato in un nuovo spazio multidimensionale dove vengono costruite nuove variabili (componenti principali: PC o fattori). Ogni PC è una combinazione lineare dei soggetti nel set di dati originario. Per definizione matematica, le PC sono estratte in ordine successivo di importanza. Ciò significa che la prima PC spiega molte delle informazioni (varianza) presenti nei dati, la seconda meno e così via. Si possono usare così le coordinate (chiamate score) delle prime due o tre PC per ottenere una proiezione dell’intero set di dati su una dimensione convenientemente piccola, adatta da visualizzare su un grafico 2D o 3D. Utilizzando le prime due o tre PC per la rappresentazione, si ottiene una proiezione che tiene conto della maggior parte della variabilità nel set di dati. Poiché si prevede che la varianza dovuta alle condizioni sperimentali sia sistematica e che invece la varianza da confondimento sia casuale, nelle condizioni appropriate, questa rappresentazione può essere quella desiderata.
Come segnalato prima per il clustering gerarchico, l’interpretazione tramite PCA della qPCR spesso permette di trarre conclusioni circa le similarità dei profili di espressione genica. Sebbene la PCA e il clustering gerarchico possano fornire approfondimenti complementari sui pattern di co-regolazione dell’espressione genica, entrambe le tecniche sono incentrate sulle similarità nei profili di espressione genica. Ciò pone delle limitazioni ai tipi di ipotesi formulate negli studi esplorativi che utilizzano queste tecniche singolarmente. Per espandere la portata delle ipotesi generate negli studi esplorativi, di recente è stato proposto un approccio all’analisi multivariata guidato dalle ipotesi.24 Gli algoritmi guidati dalle ipotesi, disegnati su misura, possono identificare ipotesi biologicamente rilevanti che potrebbero altrimenti non emergere con le tecniche comunemente applicate per l’analisi dei dati multivariati.
Network error: Failed to fetch
Per continuare a leggere, autenticati o crea un account.
Non hai un Account?