Saltar al contenido
Merck
InicioqPCRAnálisis de datos de la PCR/qPCR

Análisis de datos de la PCR/qPCR

A Technical Guide to PCR Technologies

Análisis de datos cualitativos de la PCR/qPCR

Una vez finalizada una PCR convencional, los datos se analizan por resolución a través de un gel de agarosa o, más recientemente, de un sistema de electroforesis capilar. Para algunas aplicaciones, se ejecutará una qPCR con los datos de punto final utilizados para el análisis, como para el genotipado de polimorfismos de un solo nucleótido (SNP). En cada caso, los datos de punto final proporcionan un análisis cualitativo después de que la PCR haya alcanzado la fase de meseta. En algunos casos, puede ser posible analizar los datos de punto final para realizar un análisis semicuantitativo del rendimiento de la PCR, pero las mediciones cuantitativas se realizan más a menudo utilizando la qPCR, y el análisis de los valores del ciclo de cuantificación (Cq)1.

Análisis de datos de la qPCR

A lo largo de esta guía, se han destacado los factores que contribuyen a las variaciones en la medición de los ácidos nucleicos utilizando PCR o qPCR. Cada uno de estos factores debe optimizarse para dar lugar a un ensayo que proporcione el valor más cercano posible a la cantidad real del gen (diana) en la reacción. El resultado de estos procesos es la generación de un conjunto de valores Cq para cada diana en cada muestra. En este capítulo se presenta el proceso de derivación y análisis de esos valores de Cq para proporcionar datos fiables que representen la historia biológica.

Derivación de valores de Cq precisos

Corrección de la línea basal

Se determina un valor de Cq para cada diana en cada muestra. Los diferentes paquetes de análisis asociados a los diferentes instrumentos tienen enfoques alternativos para determinar el valor de Cq (y también utilizan nombres alternativos, por ejemplo, Ct, Cp, punto de despegue). Está fuera del alcance de esta guía profundizar en los detalles finos de todos estos algoritmos. Sin embargo, las mediciones de qPCR que están basadas en curvas de amplificación son sensibles a la fluorescencia de fondo. La fluorescencia de fondo puede deberse a una serie de factores, entre los que se encuentran la elección del material de plástico, la fluorescencia remanente de la sonda que no se haya extinguido, la filtración de luz en el pocillo de muestra y las diferencias en la detección óptica de un pocillo de placa de microvaloración determinado. En los análisis bien diseñados, el fondo es bajo en comparación con la señal amplificada. Sin embargo, la variación en la señal de fondo puede dificultar la comparación cuantitativa de diferentes muestras. Por consiguiente, es importante corregir las variaciones en la fluorescencia de fondo que causan diferencias en la línea basal (Figura 10.1).

Componentes de las gráficas de amplificación

Figura 10.1Componentes de los gráficos de amplificación. Este gráfico muestra el aumento de la fluorescencia con el número de ciclos para diferentes muestras. El umbral se establece por encima del límite de detección, pero muy por debajo de la fase de meseta durante la cual la tasa de amplificación se ralentiza.

Un enfoque común es utilizar la intensidad de la fluorescencia durante los primeros ciclos, como entre los ciclos 5 a 15, para identificar un componente constante y lineal de la fluorescencia de fondo. Este componente se define entonces como el fondo o la línea basal en la gráfica de amplificación. Debido a los efectos transitorios, es aconsejable evitar los primeros ciclos (por ejemplo, los ciclos 1 a 5) para la definición de la línea basal, ya que a menudo muestran artefactos estabilizadores de la reacción. Cuantos más ciclos se utilicen para la corrección de la línea basal, mejor será la posible precisión del componente lineal de las variaciones de la línea basal. Los paquetes de software de muchos equipos permiten considerar el ajuste manual de los ciclos para la definición de la línea basal. El usuario debe explorar estas funciones y debe resistir con fuerza la tentación de aceptar la configuración predeterminada.

En la Figura 10.1 se muestra un ejemplo del efecto del ajuste de la línea basal. Como puede verse, los valores de Cq y la forma aparente del gráfico de amplificación se ven afectados por la configuración precisa de la línea basal. En el ejemplo, la línea basal de la curva denominada C3 se ha ajustado manualmente de forma incorrecta de modo que los ciclos basales se calcularon a partir de los datos de los ciclos 5 al 31. Esto hace que la curva se desplome hasta el nivel de referencia cero (Figura 10.2A) con un Cq de 28,80. Para corregirlo, se visualizan los datos sin procesar, R, y se identifica el último ciclo del fondo lineal (el último ciclo antes de la amplificación). En la Figura 10.2B puede verse que corresponde al ciclo 22. La línea basal se ajusta correctamente a cero entre el ciclo 5 y el ciclo 22 (Figura 10.2C) y se corrige el gráfico de amplificación (Figura 10.2D). El Cq corregido es 26,12. Por consiguiente, obsérvese que hubo una diferencia sustancial en los valores de Cq con los ajustes incorrectos y correctos de las líneas basales, lo que demuestra que el establecimiento de la línea basal correcta es un componente importante del análisis de datos.

Ejemplo típico de datos que caen por debajo de la lectura normalizada cero de la fluorescencia cuando el ajuste de la línea basal es incorrecto

Figura 10.2A–B. A)Ejemplo típico de datos que caen por debajo de la lectura normalizada cero de la fluorescencia cuando el ajuste de la línea basal es incorrecto (gráfico de amplificación azul). B) Datos brutos de los mismos gráficos de amplificación que muestran el límite de la línea basal lineal y que los datos no tienen fallos.

Los límites del inicio y el final de la línea basal se definen utilizando los ajustes apropiados en el software

Figura 10.2C–D. C)Los límites del inicio y el final de la línea basal se definen utilizando los ajustes apropiados en el software. D) La aplicación del ajuste correcto de la línea basal produce datos de buena calidad

Establecimiento del umbral

Algunos investigadores abogan por trazar gráficos de amplificación individuales para estimar la eficiencia de amplificación y las cantidades de diana en las muestras medidas2,3,4, pero el enfoque original y más común para obtener el Cq es utilizar un umbral. Es probable que la amplia adopción de este enfoque se deba a que el método del umbral es un método de cuantificación simple y eficaz.

El principio que subyace al método del umbral es que, para visualizar la señal fluorescente asociada procedente de la amplificación de la qPCR, la señal debe aumentar de modo que esté por encima del límite de detección del instrumento (y por consiguiente, de la línea basal; Figura 10.1). El número de ciclos necesarios para que esto ocurra es proporcional al número de copias iniciales de la diana en la muestra. Por tanto, se necesitan más ciclos para que la señal aumente por encima de la línea basal si el número de copias originales es bajo y menos ciclos si el número de copias es alto. Dado que la línea basal se establece en el límite de detección del sistema, las mediciones en la línea basal serían muy imprecisas. Por consiguiente, en lugar de medir a la intensidad de la fluorescencia mínima que el sistema puede detectar, se selecciona una fluorescencia más elevada y se introduce un umbral artificial.

La selección de la intensidad umbral requiere el cumplimiento de algunos principios fundamentales. Es importante que el umbral se establezca en una intensidad fija para una diana determinada y para todas las muestras que se vayan a comparar. Si hay demasiadas muestras para que quepan en una sola placa, debe adoptarse un esquema de calibración interplaca, por ejemplo, la inclusión de un control duplicado que sirva como control interplacas o una dilución en serie de curva de calibración. En teoría, el umbral se puede establecer en cualquier lugar de la fase logarítmica lineal de la curva de amplificación. Sin embargo, en la práctica, la fase logarítmica-lineal de la amplificación puede verse alterada por la deriva de la línea basal de la fluorescencia de fondo, la fase meseta o las diferencias en la eficiencia del análisis y, por consiguiente, el gradiente del gráfico de amplificación en ciclos más altos. Se recomienda establecer el umbral de la siguiente manera:

  • Lo suficientemente por encima de la línea basal de la fluorescencia de fondo como para tener la seguridad de evitar que el gráfico de amplificación cruce prematuramente el umbral debido a la fluorescencia de fondo.
  • En la fase logarítmica del gráfico de amplificación, donde no se ve afectado por la fase meseta (esto se ve más fácilmente mirando los gráficos de amplificación en una vista logarítmica,Figura 10.3A).
  • En una posición donde las fases logarítmicas de todos los gráficos de amplificación sean paralelas.

El proceso de ajuste del umbral se demuestra en la Figura 10.3. En la Figura 10.3A, los gráficos de amplificación se ven en una escala logarítmica en el eje Y, lo que proporciona una expansión visual de la fase logarítmica de amplificación y la presenta como una porción lineal del gráfico de amplificación. El umbral se establece en la intensidad de fluorescencia más elevada (véase el eje Y) que se encuentra dentro de esta fase logarítmica y donde todos los gráficos de amplificación son paralelos. A continuación, la escala vuelve a la vista lineal (Figura 10.3B) que muestra el ajuste más alto que cumple los requisitos de establecimiento del umbral. Por otra parte, el umbral se puede establecer en el extremo inferior de esta fase logarítmica (Figuras 10.3C y 10.3D). Siempre que las fases logarítmicas de los gráficos de amplificación sean paralelas, el ajuste del umbral no afecta al ΔCq entre las muestras.

El ajuste del umbral influye en el Cq absoluto registrado y puede influir en el ΔCq entre muestras.

Figura 10.3El ajuste del umbral influye en el Cq absoluto registrado y puede influir en el ΔCq entre muestras. A). Utilizando una representación de los datos en un gráfico logarítmico frente a lineal, el umbral se establece en la mayor intensidad de la fluorescencia, pero donde los gráficos de amplificación muestran fases logarítmicas paralelas. B). Se mantiene la configuración del umbral de A) y se muestra en el gráfico lineal frente a lineal. C). Utilizando un gráfico logarítmico frente a lineal de los datos, el umbral se establece en la menor intensidad de la fluorescencia, pero donde los gráficos de amplificación muestran fases logarítmicas paralelas. D). Se mantiene la configuración del umbral de C) y se muestra en el gráfico lineal frente a lineal. En cada caso, los valores de ΔCq entre las muestras son los mismos.

El requisito de establecer el umbral en una posición donde las fases logarítmico-lineales de los gráficos de amplificación son paralelas se vuelve más pertinente cuando se incluyen en el análisis los datos de los ciclos más altos. El procedimiento de ajuste del umbral que se describió para los datos en la Figura 10.3 se repitió en un conjunto de datos de valor Cq más elevado, y los resultados se presentan en la Figura 10.4. Los datos de Cq resultantes mostrados en la Tabla 10.1 sirven para ilustrar la variabilidad de Cq y, lo que es más importante, los valores de ΔCq para tres gráficos de amplificación con tres ajustes de umbral (Figura 10.4). Los valores de ΔCq y, por consiguiente, la estimación de la cantidad relativa de diana en cada muestra dependen en gran medida del ajuste del umbral (Figura 10.4) porque los gráficos de amplificación no son paralelos.

Tabla 10.1Dependencia de los valores Cq relativos respecto de la posición de ajuste del umbral.
El análisis que se realizó y demostró

Figura 10.4.El análisis que se realizó y demostró en la Figura 10.3 se repitió utilizando un conjunto de datos diferente. En este caso, los gráficos de amplificación no son paralelos debido a una diferencia en la eficiencia de la reacción a un Cq elevado. Los ajustes más bajos en A) y B) dan como resultado valores de ΔCq diferentes a los ajustes más altos de C) y D) (resumidos en la Tabla 10.1).

Estrategias de cuantificación de la qPCR

La configuración precisa de la línea basal y el umbral es imprescindible para una cuantificación fiable. Después de configurar cada uno de ellos, se genera un valor de Cq que se utiliza como base para la cuantificación. La cantidad de diana en una muestra dada se determina entonces utilizando una curva estándar o de calibración o una cuantificación relativa o comparativa.

Cuantificación por curva de calibración

Como su nombre indica, la cuantificación por curva de calibración requiere el uso de una curva estándar para determinar las cantidades de las dianas en las muestras problema. Todas las cantidades determinadas para las muestras son, por consiguiente, relativas a la cantidad asignada a la curva de calibración. Esto exige ejecutar otros patrones externos a la vez que cada conjunto de reacciones de muestra. La elección del material para la elaboración de la curva estándar es importante para eliminar posibles diferencias en la cuantificación debidas a diferentes eficiencias entre los análisis en las muestras y en los patrones. Los sitios de unión al cebador de los patrones externos deben ser los mismos que los de la diana, contener secuencias que sean iguales que la diana, tener una complejidad similar y ser manejados de la manera más similar posible. Por lo tanto, al medir la concentración de una diana en el ADNc, es preferible medir el mismo ADNc en una dilución en serie de una muestra de control. Sin embargo, en algunos estudios hay razones prácticas que lo impiden, por lo que es importante reproducir las condiciones de la muestra con la mayor fidelidad posible, por ejemplo, agregando ADN genómico (ADNg) de una especie no relacionada con la especie problema, a un patrón oligonucleótido artificial o un plásmido linealizado que contenga la secuencia patrón. Una vez identificada un amplicón adecuado, se genera una curva estándar mediante diluciones en serie. Para cada uno de los patrones se determina el valor de Cq para la diana y se representan frente a la concentración o la concentración relativa/factor de dilución en una escala logarítmica. Se obtiene así una curva estándar o de calibración que luego se utiliza para determinar las concentraciones de las muestras problema mediante comparación de los valores de Cq procedentes de la amplificación de las muestras desconocidas. Cuando se utiliza una curva estándar para la cuantificación, debe mantenerse constante el ajuste del umbral para poder determinar el valor Cq del patrón y las muestras de la misma placa. El umbral puede variar entre placas.

Cuantificación relativa o comparativa

En la cuantificación relativa o comparativa se utiliza la diferencia de Cq como determinante de las diferencias de concentración de la secuencia diana en diferentes muestras. En lugar de medir las cantidades de diana por muestra como ocurre con el método de la curva de calibración, mediante este modo se obtienen conjuntos de datos que muestran la cuantía del cambio entre las muestras.

En la forma original de este enfoque5, se supuso que la eficiencia de todos los análisis era del 100 %, lo que llevó a suponer que una diferencia de Cq de 1 (ΔCq = 1) era el resultado de una diferencia doble en la diana. Para determinar la cuantía del cambio en la diana o gen de interés (GOI), los datos también deben estar referenciados a un control de carga (gen de referencia, ref; a continuación encontrará una exposición sobre la normalización de los datos).

Construcción de una curva estándar.

Figura 10.5.Construcción de una curva estándar. El Cq registrado para cada muestra de una serie de diluciones se representa en una escala logarítmica lineal frente a la concentración relativa.

En la Ecuación 1, el cociente del GOI, después de la corrección con respecto al gen de referencia, en 2 muestras (A con respecto a B) se mide de la siguiente manera: 2 (suponiendo reacciones 100 % eficientes) elevado a las diferencias en los valores de Cq para el GOI dividido por 2 elevado a las diferencias en los valores de Cq para el gen de referencia

Modelo de cuantificación relativa original (Livak).

Ecuación 1.Modelo de cuantificación relativa original (Livak).

Sin embargo, como se ilustra en Optimización y validación de los análisis, el rendimiento de las reacciones varía considerablemente y esto puede tener un gran impacto en los datos. Por consiguiente, se abordaron los supuestos de la Ecuación 1 (Ecuación 2)6 para que pudieran incorporarse las diferencias de rendimiento de la reacción en los análisis. En este caso, el factor de amplificación 2 se sustituye por la eficacia real de la PCR (determinada por un análisis de curva estándar; consulte Optimización y validación de los análisis).

Modelo de cuantificación relativa adaptado al rendimiento (Pfaffl)

Ecuación 2.Modelo de cuantificación relativa adaptada a la eficiencia (Pfaffl)

Como ejemplo de la utilización del modelo de cuantificación relativa adaptada a la eficiencia (Ecuación 2), en la Tabla 10.2 se presenta un conjunto de valores de Cq. La eficiencia para el GOI es 1,8 y para el gen de referencia,1,94.

Tabla 10.2Ejemplo resuelto para calcular la cuantía del cambio (cociente) utilizando las diferencias de Cq

Este es un ejemplo muy sencillo de un estudio en el que se quiere medir el valor de la diferencia en un gen entre dos muestras y después de la normalización con respecto a un gen de referencia único. El cociente muestra la cuantía del cambio del GOI en la muestra 2 con respecto a la muestra 1 después de la corrección para el gen de referencia único. Sin embargo, se ha puesto de manifiesto que la selección de un único gen de referencia adecuado a menudo es imposible y, por lo tanto, se han sugerido enfoques más sofisticados para la normalización.

Normalización

El principal objetivo de la mayoría de los experimentos de PCR es abordar la cuestión básica de si la diana está presente en la muestra (desconocido, UNK). En el nivel más simple, esto se responde ejecutando un gel y examinando la presencia o ausencia del GOI deseado en los fragmentos. Cuando el fragmento está presente, la confirmación del tamaño del fragmento garantiza un resultado positivo. Sin embargo, cuando está ausente, existe la posibilidad de un resultado falso negativo. Por consiguiente, es fundamental repetir el análisis problema y también realizar al menos otra PCR que sirva como control de carga y de PCR positiva. Puede utilizarse el análisis universal de control de inhibición, SPUD, (véase Purificación de muestras y evaluación de la calidad), para respaldar la confianza en un resultado negativo. Un enfoque alternativo consiste en realizar un análisis específico de un gen o genes de referencia. Tradicionalmente las PCR de detección de los genes de referencia, GAPDH, ARN ribosómico 18S o actina β se realizaban junto con los del GOI y los fragmentos resultantes se visualizaban en un gel. GAPDH, ARN ribosómico 18S y la actina β se expresan constitutivamente y, por lo tanto, se utilizaban como controles de carga en análisis semicuantitativos. Sin embargo, pronto se hizo evidente que estos genes no se expresan ubicuamente a la misma concentración en todas las células, con independencia del diseño experimental. Por consiguiente, surgió la necesidad de una referencia estable cuando el objetivo era medir las concentraciones relativas de los ácidos nucleicos, normalmente el ADNc pero también el ADNg cuando, por ejemplo, se examinaba la variación del número de copias de un gen.

La normalización es el proceso de corregir las mediciones técnicas con respecto a una referencia estable para examinar la verdadera variación biológica. Hay muchos métodos de normalización de las diferencias técnicas, lo que significa que debe seleccionarse y validarse el enfoque apropiado para el experimento específico7. Es fundamental reconocer que la adopción de técnicas de normalización inadecuadas puede ser más perjudicial para el proceso analítico general que la no normalización en absoluto8.

El efecto de la calidad de la muestra en la normalización del análisis

El efecto de la integridad y la pureza de la muestra en las mediciones de la cantidad de diana mediante qPCR y RT-qPCR se ha analizado en detalle (Purificación de la muestra y evaluación de la calidad, Control de calidad de la muestra ytranscripción inversa, Transcripción inversa). Se demostró que la presencia de inhibidores en la muestra y la degradación del ARN tienen un efecto diferencial en la medición de una diana dada9. Los inhibidores afectan a la medición de cualquier diana pero en un grado diferente, que depende del diseño del análisis. La degradación del ARN total afecta a la medición del ARNm y los microARN (miRNA)10, de nuevo de forma muy dependiente del diseño experimental general. Por lo tanto, es fundamental considerar el efecto de la concentración de plantilla en la reacción en transcripción inversa (RT) y el efecto de la calidad de la muestra en los datos después de la normalización. La normalización no contrarrestará el efecto de análisis o muestras de baja calidad (consulte Optimización y validación de los análisis).

Enfoques de normalización

Idealmente los métodos de normalización contrarrestan la variabilidad que puede introducirse durante el proceso de varios pasos que se requiere para realizar una qPCR (Figura 10.6). Sin embargo, la aplicación de normalización en cualquier etapa del proceso puede no controlar el error técnico o sesgo que se introdujo o se introducirá en una etapa anterior o posterior, respectivamente. Los métodos de normalización no son mutuamente excluyentes, por lo que se recomienda adoptar una combinación de controles11.

La qPCR es un proceso de varios pasos y cada paso debe ser controlado

Figura 10.6.La qPCR es un proceso de varios pasos y cada paso debe ser controlado. Debe considerarse la normalización dentro de una serie de controles.

El objetivo de la normalización es proporcionar un punto de referencia estable contra el que poder comparar las mediciones; por tanto, la elección del factor de normalización debe ser una medida que se mantenga estable durante todo el experimento. Puede tratarse de genes de referencia estables o una de las alternativas, como el número de células, la masa de tejido, la concentración de ARN/ADN, un pico externo12 o una medida representativa de los genes de expresión global.

Selección de los genes de referencia

Los genes de referencia son dianas cuya cantidad no cambia como resultado del experimento. Cuando se cuantifica la variación del número de copias de ADN en la que puede cambiar el número de copias de la secuencia de interés, la medición se normaliza simplemente dirigiéndose a una región genómica alternativa que se sabe que no cambia. Un ejemplo de cómo se puede aplicar esto es cuando se mide la amplificación genómica del receptor 2 del factor de crecimiento epidérmico humano (HER-2)13. La inestabilidad genómica del HER-2 es un indicador pronóstico del cáncer de mama y la medición exacta del estado de amplificación del HER-2 es importante en el tratamiento de las pacientes. El estado con respecto a los HER-2 puede medirse mediante qPCR comparando las copias de HER-2 con otra diana genómica que actúa como control.

Cuando se mide la expresión génica, los genes de referencia son dianas con concentraciones de ARNm que no cambian como resultado del experimento. Un ejemplo de estudio sería aquel en el cual se estuviera midiendo el efecto sobre la expresión del gen X después de añadir un compuesto mitógeno a una monocapa celular. Se requiere un punto de referencia para medir el cambio en el gen X. Por consiguiente, también se mide otro gen (o genes) del que se sabe que no resulta afectado por el mitógeno en cuestión. Esto proporciona al investigador el desafío inmediato de encontrar una diana de ARNm que no se vea afectada por el procedimiento experimental, antes de poder estudiar el GOI. Este proceso de validación de los genes de referencia es fundamental para una medición precisa del GOI. El enfoque más utilizado para la normalización es ignorar este proceso y normalizar los datos de expresión génica para un único gen de referencia no validado. Esta práctica no se recomienda, y está en oposición directa a las directrices MIQE1. La cuantificación del ARNm mediante RT-qPCR se ha visto normalmente comprometida por la elección incorrecta de los genes de referencia. No es aceptable seguir las prácticas relativamente comunes de utilizar un gen de referencia porque ya se tienen los cebadores en el congelador, se ha venido utilizando normalmente en las transferencias Northern, lo utiliza un colega o se ha utilizado en otro laboratorio para un experimento diferente. Los genes de referencia deben validarse en escenarios experimentales específicos para asegurar que el gen de referencia en cuestión no se ve afectado por el experimento. Si esta validación no se lleva a cabo y el gen de referencia se ve afectado por el experimento, los resultados podrían ser incorrectos y es probable que las interpretaciones posteriores dieran lugar a datos sin sentido8.

Existe una serie de bibliografía científica donde se describen diferentes métodos de normalización7-14, así como una gran cantidad de publicaciones donde se describen los protocolos necesarios para identificar los genes normalizadores más apropiados para un escenario experimental dado. Mientras que en el pasado una pregunta clave era si seleccionar uno o varios genes de referencia, los menores costes de funcionamiento actuales han permitido que las mejores prácticas se hayan orientado a la medición de varios genes de referencia.

La selección de genes de referencia estables exige que el analista evalúe la estabilidad de la qPCR para un número (generalmente de 10 a 20 genes) de dianas de ARNm candidatas7 en un subconjunto de muestras que representen los ARNm problema y control. En el Anexo A, Protocolos, de esta guía, se proporciona un protocolo completo que puede utilizarse en combinación con diferentes métodos analíticos utilizando programas como REST15, GeNorm 14 ,Bestkeeper16 o NormFinder17. Este procedimiento se describe con más detalle en la siguiente sección, Análisis de la estabilidad de los genes de referencia.

Análisis de la estabilidad de los genes de referencia

El gen de referencia es, literalmente, el punto pivote para las evaluaciones de cuantificación relativa de qPCR. Por tanto, es fundamental para la fiabilidad de todo el análisis que el gen de referencia sea estable. Si la expresión del gen de referencia varía entre las muestras, la variación se transferirá directamente a los resultados de la cuantificación, y la variabilidad añadida puede oscurecer el efecto biológico observable deseado o, peor aún, puede crear un aspecto completamente artificial de un efecto biológico, uno que no esté relacionado con el gen de interés real. Por estas razones, se recomienda encarecidamente que se apliquen varias medidas de seguridad para hacer que la variabilidad del gen de referencia sea insignificante y que las medidas de los efectos biológicos sean lo más significativas posible.

Podría decirse que la medida de seguridad más importante es utilizar no solo uno, sino dos o más genes de referencia. La expresión de varios genes de referencia puede promediarse para reducir la variabilidad técnica debida a la normalización. Esto puede ser útil para mejorar la importancia en las mediciones de efectos biológicos pequeños. Sin embargo, lo que es más importante, dos o más genes de referencia proporcionan controles mutuos para mantener la estabilidad y controlar sucesos inesperados que puedan influir en los niveles de expresión de uno de los genes de referencia. Con un solo gen de referencia, existe el riesgo de que no se detecten en el análisis las influencias inesperadas de la expresión del gen.

Otra medida de seguridad consiste en utilizar más de un método para identificar genes de referencia estables. El siguiente es un ejemplo que ilustra varios aspectos de la normalización del gen de referencia, incluida una posible ventaja de la utilización de los dos métodos geNorm y NormFinder en el mismo conjunto de datos.

La Tabla 10.3 contiene una lista de genes de referencia candidatos que fueron evaluados durante un taller que realizamos previamente con EMBL. Se recogieron muestras de un cultivo celular humano en dos grupos de tratamiento diferentes. Este conjunto de datos se utilizará para demostrar aspectos de la validación del gen de referencia.

Tanto el algoritmo NormFinder como el geNorm se han desarrollado con el supuesto de que pueden utilizarse pruebas de varios genes de referencia candidatos para clasificar la estabilidad de cada uno de ellos. El supuesto puede ser cierto si, por ejemplo, todos los genes de referencia candidatos varían estocásticamente en torno a niveles de expresión estables. Sin embargo, esto puede no ser necesariamente cierto en la realidad. Para evitar resultados engañosos, es prudente evitar genes de referencia candidatos regulados y, en particular, co-regulados.

Tabla 10.3Ejemplo de panel de genes de referencia para validación de los genes de referencia. Para un rendimiento preciso, es importante evitar los genes de referencia candidatos que están coregulados.

La lista de genes de referencia candidatos que se muestra en la Tabla 10.3 fue elegida específicamente para seleccionar genes que pertenecían a diferentes clases funcionales, reduciendo la posibilidad de que los genes pudieran estar coregulados. Una excepción notable es GAPDH, que está presente aquí en dos versiones. Aunque esto no afecta a este análisis, la mejor práctica es evitar entradas múltiples de genes de los que pueda sospecharse que estén coregulados.

El primer algoritmo que se demuestra es el geNorm. Proporciona una evaluación de las estabilidades génicas mediante el cálculo de una medida de estabilidad génica llamada valor M, que se basa en comparaciones pareadas entre el gen de referencia candidato analizado y todos los demás genes de referencia candidatos en el conjunto de datos. Se realiza de manera iterativa, lo que significa que en este ejemplo, el procedimiento se realiza primero en los 15 genes de referencia candidatos, se elimina el menos estable, se repite el proceso en los 14 restantes, se elimina el segundo candidato menos estable y así sucesivamente hasta que queden dos genes de referencia.

Puede haber ocasiones en las que la identificación del gen de referencia más estable resulte particularmente difícil. Un caso puede ser cuando el rendimiento de todos los genes de referencia candidatos sea deficiente. Otro caso puede ser si todos los candidatos a genes de referencia funcionan bien. Para distinguir entre estos dos casos, una guía útil es considerar que los genes de referencia con un valor M inferior a 0,5 se expresan de forma estable. .

El segundo algoritmo que se demostrará es el NormFinder, que es un paquete de análisis de genes de referencia gratuito (Anexo B, Otros recursos). El algoritmo subyacente adopta un enfoque similar a ANOVA para la evaluación de la estabilidad del gen de referencia en el sentido de que el conjunto y los subgrupos se analizan para detectar variaciones. Una ventaja de esto es que las medidas obtenidas están directamente relacionadas con los niveles de expresión del gen. Por consiguiente, una desviación estándar de 0,20 en unidades Cq representa una variación de aproximadamente el 15 % en los niveles de expresión del número de copias del gen de referencia candidato concreto.

Por comodidad, en esta demostración, se accede a ambos paquetes de análisis utilizando el software de análisis de datos Genex (MultiD), pero existen también otros paquetes independientes (Anexo B, Otros recursos).

Los diagramas de barras que se muestran en la Figura 10.7 ilustran genes de referencia clasificados de acuerdo con sus medidas de estabilidad respectivas utilizando ambos algoritmos. Además, un gráfico que muestra la desviación estándar acumulada del NormFinder indica que una combinación de hasta los tres mejores genes de referencia puede producir mejoras en la estabilidad.

Diagramas de barras que muestran las medidas de estabilidad

Figura 10.7.Diagramas de barras que muestran las medidas de estabilidad: valores M para geNorm y desviaciones estándar para NormFinder. Además, un gráfico que muestra la desviación estándar acumulada del NormFinder indica que una combinación de hasta los tres mejores genes de referencia puede producir mejoras en la estabilidad. El conjunto de datos se generó a partir de análisis diseñados para los genes de referencia candidatos que se muestran en la Tabla 10.3 y se midieron en un cultivo de células humanas en dos grupos de tratamiento diferentes. Debe tenerse en cuenta que, en este caso, los algoritmos de estabilidad de genes de referencia geNorm y NormFinder no coinciden con respecto a los mejores genes de referencia.

Perfil de expresión centrado en la media de los candidatos a gen de referencia de las dos muestras en cada grupo de tratamiento.

Figura 10.8.Perfil de expresión centrado en la media de los candidatos a gen de referencia de las dos muestras en cada grupo de tratamiento. Las muestras 1 y 2 pertenecen al primer grupo de tratamiento y las muestras 3 y 4 pertenecen al segundo grupo de tratamiento. Los perfiles de expresión de SDHA y CANX se indican en rojo. El perfil de expresión de UBC se indica en amarillo. En la tabla se indican los valores de Cq medidos en el conjunto de datos.

Debido a la desviación de los perfiles de expresión, es posible que SDHA y CANX estén regulados por las diferentes alternativas de tratamiento y, por lo tanto, no sean adecuados como genes de referencia. Al eliminarlos del conjunto de datos y repetir el análisis, ambos algoritmos coinciden en que la mejor opción para genes de referencia son EIF4A2 y ATP53 (Figura 10.9). En el cálculo de NormFinder de las desviaciones estándar acumuladas, también es evidente que añadir más genes de referencia no mejora la estabilidad.

Inspección de los perfiles de expresión y los valores de Cq medidos

Figura 10.9.La inspección de los perfiles de expresión y los valores de Cq medidos (Figura 10.8) generó la preocupación de que SDHA y CANX pudieran estar coregulados en el análisis aplicado. La coregulación puede alterar los algoritmos de estabilidad de los genes de referencia. Diagramas de barras que muestran las medidas de estabilidad: A) Valores M para geNorm y B) desviaciones estándar para NormFinder. El conjunto de datos es el mismo que el utilizado en la Figura 10.8, excepto que se han eliminado los datos de SDHA y CANX. Debe tenerse en cuenta que con este conjunto de datos reducidos los algoritmos de estabilidad de genes de referencia geNorm y NormFinder coinciden con respecto a cuáles son los mejores genes de referencia.

El análisis de los datos en este ejemplo sirve para ilustrar que la utilización en paralelo de geNorm y NormFinder permite la identificación de candidatos a genes de referencia corregulados y que la eliminación de estos genes de estudios posteriores proporciona una identificación final de los genes de referencia que pueden adoptarse con más confianza que después de utilizar un análisis único. La identificación y la selección de genes de referencia estables conduce a una mayor seguridad del análisis de datos.

Métodos de normalización alternativos

Si bien la normalización con respecto a los genes de referencia es el método más común para la normalización del análisis, hay situaciones en las que este enfoque no es adecuado, como cuando se quiere comparar un gran número de genes en un grupo heterogéneo de muestras o cuando se analiza el miRNA. En estos escenarios es necesario adoptar una estrategia alternativa.

Normalización con respecto a la masa tisular o al número de células

La medición del número de células o de la masa de tejido para utilizar como factor de normalización no es tan simple como puede parecer a primera vista. Los experimentos de cultivo celular son relativamente fáciles de normalizar en función del recuento celular. Sin embargo, la adición de un tratamiento podría afectar a la morfología celular, complicando el cociente entre el número de células y el total de ARN/genes expresados en comparación con un cultivo de control. El tratamiento experimental puede provocar la producción de matriz extracelular y causar diferencias en la eficiencia de extracción de los ácidos nucleicos.

Los tejidos biológicos pueden ser muy heterogéneos en un mismo sujeto y entre distintos sujetos, observándose más variación cuando el tejido sano se compara con el tejido enfermo. Incluso los tejidos aparentemente menos complejos, como la sangre, pueden diferir considerablemente en el recuento y la composición celulares, de manera que la expresión génica varía considerablemente entre donantes aparentemente sanos18.

Cualquier retraso en los procesos utilizados para purificar el ácido nucleico provocará alteraciones en el ARN medido. Por ejemplo, los retrasos en el procesamiento de las células mononucleares de sangre periférica y la extracción de ARN de las células, producirán cambios considerables en la expresión génica19. Los métodos subyacentes a los procedimientos de extracción son también fuentes importantes de variación técnica. Incluso el proceso de aislamiento seleccionado para el muestreo de células sanguíneas y la purificación del ARN producen diferencias en los perfiles de expresión génica aparente20. Por consiguiente, la primera consideración para la normalización es garantizar que la recolección y el procesamiento son absolutamente idénticos para todas las muestras. A continuación es fundamental realizar un control de calidad suficiente que permita seguridad sobre la concentración, la integridad y la pureza de la muestra (Purificación de la muestra y evaluación de la calidad y protocolos asociados enel Anexo A).

Normalización con respecto a concentración del ARN

Como mínimo, es importante estimar la concentración de la plantilla (ADN para qPCR o ARN para RT-qPCR) y, como se menciona enPurificación de la muestra y evaluación de la calidad, es fundamental asegurarse de que se utiliza el mismo instrumento para todas las mediciones, porque la determinación de la concentración de ácidos nucleicos también es variable y depende de la técnica.

Cuando se mide la concentración total de ARN, la mayor parte de la muestra está compuesta por ARNr y solo una pequeña fracción consiste en el ARNm de interés cuando se examina la expresión génica, o en ARN pequeño no codificante (scnRNA) al examinar la regulación de la expresión génica. Esto significa que si la concentración de ARNr aumenta una pequeña cantidad pero el ARNm permanece constante, la concentración total de ARN aumentará. La concentración de ARNm debe aumentar en una cantidad significativa para provocar un aumento aparente en la concentración total de ARN. Por ende, la concentración de ARNr es una medida poco fiable de la concentración de ARNm, pero en muchos protocolos se requiere una concentración de ARN igual para garantizar una transcripción inversa precisa (véase Transcripción Inversa).

Normalización con respecto a la expresión génica global

Cuando se mide un gran número de dianas, el analista puede estimar la media global de la expresión génica total e identificar secuencias de ARN reguladas que se desvían de esta media. Este enfoque se utiliza convencionalmente para la normalización de matrices de expresión génica. Es una alternativa valiosa al uso de genes de referencia y puede ser preferible cuando se están midiendo muchas dianas.

Otro enfoque recientemente explorado es la medición de elementos repetidos expresados endógenamente (ERE) que están presentes en muchos de los ARNm. Muchas especies contienen estos elementos repetidos (ALU en primates, elementos B en ratones), que pueden proporcionar una estimación de la fracción de ARNm. Se ha demostrado que la medición de estas secuencias diana funciona como sistemas normalizadores convencionales9(Le Bert, et al., en preparación) y puede brindar una solución universal o una alternativa a experimentos complejos donde no se dispone de combinaciones de genes de referencia estables.

Normalización de los datos miRNA

Hasta el momento no se ha notificado un gen de referencia universal miRNA. Por lo tanto, la selección de este sistema de normalización sigue siendo bastante empírica. Cuando sea posible, se pueden identificar microRNA (miRNA) invariantes estables a partir de enfoques de todo el genoma, es decir, micromatrices. Los ARN nucleolares pequeños (snoRNA) también se han utilizado como genes de referencia. La expresión génica global es también un método útil de normalización de la expresión de los miRNA cuando se desconoce una referencia estable y se han analizado varios cientos de dianas21,22,23. Este método es más apropiado para los que utilizan enfoques que provocan la captura de todos los miRNA como ADNc en una forma multiplexada, por ejemplo, los sistemas Exiqon y miQPCR (refiérase a Castoldi et al. In PCR Technologies, Current Innovations24).

Réplicas biológicas y técnicas

El propósito de la normalización es evitar errores sistemáticos y reducir la variabilidad de los datos para el análisis estadístico final. Otro aspecto importante de la configuración de los datos para el análisis estadístico es el uso de réplicas de datos.

Las réplicas biológicas son absolutamente necesarias para el análisis estadístico. Los niveles de significación estadística se establecen a menudo en un valor de corte de significación del 5 %. Para efectos biológicos cercanos a tal nivel de significación, puede ser necesario tener al menos 20 réplicas biológicas para determinar el nivel de significación de los análisis (1:20 que corresponde al 5 %). De hecho, se ha sugerido que es necesario registrar al menos 50 veces el número de observaciones para una estimación precisa de la significación25, es decir, del orden de mil muestras biológicas. Naturalmente las limitaciones prácticas rara vez permiten réplicas biológicas a estos niveles. Además, las estimaciones precisas del número de réplicas biológicas necesarias para alcanzar un nivel de significación dado dependen también del nivel de variabilidad de los datos. Sin embargo, es importante darse cuenta de que un error común es subestimar el número necesario de réplicas biológicas para poder llegar a conclusiones fiables. Se recomienda realizar un estudio piloto inicial para evaluar la variabilidad inherente del análisis y el posible tamaño del efecto biológico observable con el fin de tener una buena base para estimar el número necesario de réplicas biológicas26.

Las réplicas técnicas no se utilizan directamente para el análisis estadístico. En cambio, las réplicas técnicas se utilizan para respaldar las muestras (en caso de que algunas muestras se pierdan en el proceso de manipulación técnica) y mejorar la evaluación de la precisión de los datos. Las réplicas técnicas pueden mejorar la precisión de los datos si se cumple la suposición de que varían estocásticamente alrededor de la medición precisa en cada etapa del proceso de manejo técnico. El promedio de las réplicas técnicas está más cerca de la medición precisa. El efecto de promediar réplicas técnicas puede ilustrarse observando el tamaño del intervalo de confianza en un conjunto de datos simulados con una variabilidad predeterminada, es decir, la desviación estándar establecida en uno. Como se ve en la Tabla 10.4, el intervalo de confianza se va reduciendo al aumentar el número de réplicas técnicas (muestras), lo que indica una estimación más precisa de la medición exacta. Además, el estrechamiento del intervalo de confianza es más notable cuando el número de réplicas técnicas es bajo. El aumento del número de réplicas de 2 a 3 reduce el intervalo de confianza de 8,99 a 2,48, es decir, mejora en más de 3 veces la precisión en la estimación de la medición exacta. Si bien el aumento de las réplicas continúa mejorando la estimación de la precisión de la medición, el efecto es de magnitud decreciente. Por consiguiente, es evidente que en los casos en los que la variabilidad de la manipulación técnica es un problema, puede ser una gran ventaja utilizar triplicados en lugar de duplicados.

Tabla 10.4Tamaño de los intervalos de confianza de las medias estimadas normalizadas a una desviación estándar de 1 y un nivel de confianza de α del 5 %. El intervalo de confianza disminuye de tamaño al aumentar el número de réplicas técnicas, lo que indica una estimación más precisa de la medición exacta en un número mayor de muestras replicadas.

Pueden recogerse réplicas técnicas en varias etapas a lo largo del proceso de manipulación de las muestras, como la extracción del ARN, la transcripción inversa y la detección mediante qPCR. Si se detectan réplicas técnicas en varias etapas, se genera un diseño experimental anidado. Un estudio piloto que aprovecha un diseño experimental anidado puede contribuir a identificar las etapas de manipulación de las muestras que más contribuyen a los errores técnicos de manipulación, y puede calcularse un plan de muestreo óptimo en función de esta información27.

Análisis estadístico y visualización de los datos

El análisis científico de los datos biológicos se centra en la formulación y la comprobación de hipótesis. La formulación de una hipótesis requiere una comprensión detallada de las condiciones y variables del análisis. La comprobación satisfactoria de una hipótesis implica una ejecución meticulosa y un diseño experimental apropiado para maximizar la señal observable deseada y minimizar la variabilidad técnica. En este contexto, es útil distinguir entre estudios exploratorios y confirmatorios (Figura 10.10).

Diagrama de flujo que ilustra las operaciones involucradas en los análisis estadísticos exploratorios y confirmatorios.

Figura 10.10.Diagrama de flujo que ilustra las operaciones involucradas en los análisis estadísticos exploratorios y los confirmatorios. En el lado izquierdo de la figura, antes de la flecha discontinua, se muestran las operaciones en un estudio estadístico exploratorio. En el lado derecho de la figura, después de la flecha discontinua, se muestran las operaciones en un estudio estadístico confirmatorio.

El propósito del estudio exploratorio es analizar datos con una o varias técnicas diferentes para fundamentar una hipótesis. El conjunto de datos puede redefinirse o diferentes técnicas de análisis pueden emplearse repetidamente para respaldar una o varias hipótesis. El estudio exploratorio es, por tanto, muy flexible a las particularidades de cualquier cuestión científica. Sin embargo, el sondeo repetido de comprobación de hipótesis en un conjunto de datos puede generar problemas que socaven las conclusiones estadísticas. Esto se debe a las pruebas múltiples, lo que se refiere al hecho de que una prueba estadística con varias hipótesis independientes es más probable que produzca una significación positiva y que las posibilidades de que esto ocurra aumentan a medida que se prueban otras hipótesis, aunque las distribuciones de probabilidad subyacentes sean idénticas. Por ello, para evitar resultados estadísticos engañosos, el estudio exploratorio suele combinarse con un estudio confirmatorio.

Los requisitos de un estudio confirmatorio se basan en criterios estadísticos mucho más estrictos. En primer lugar, la hipótesis de estudio, incluidos los criterios de significación, debe definirse antes de la recopilación de datos y antes del análisis. Además, el conjunto de datos que se va a analizar debe haberse recopilado exclusivamente para este fin. Es estadísticamente incorrecto reutilizar el conjunto de datos del estudio exploratorio en el estudio confirmatorio, ya que ese conjunto de datos favorecería inherentemente la hipótesis propuesta. El resultado final del estudio confirmatorio es una hipótesis rechazada o aceptada según los criterios preestablecidos.

Pruebas estadísticas

Para las pruebas estadísticas, se analiza la probabilidad de que un fenómeno observado se haya producido por casualidad. Esto se llama Hipótesis Nula28. Si el fenómeno observado es raro de acuerdo con la hipótesis nula, la conclusión es que es improbable que la hipótesis nula sea válida. Se rechaza la hipótesis nula y se acepta la probabilidad de que la hipótesis alternativa sea significativa.

La probabilidad estimada de que el fenómeno observado haya ocurrido por casualidad se llama valor de p. El valor de p se mide en un intervalo de 0 a 1, o en unidades porcentuales. Los criterios estadísticos para un estudio de confirmación incluyen un valor de corte alfa por debajo del cual los valores de p calculados indicarían significación para el fenómeno observado. Suele utilizarse un valor de corte alfa del 5 %, aunque debe ajustarse para adaptarse a los criterios deseados y necesarios específicos del tema de estudio.

Se han desarrollado muchos algoritmos para calcular los valores de p bajo varias suposiciones y para diferentes propósitos. Un algoritmo común es la prueba de la t de Student. La prueba de la t de Student se utiliza para calcular un valor de p basado en la diferencia de los valores medios entre dos grupos de datos. La suposición principal de la prueba de la t de Student es que los dos grupos de datos son independientes y se ajustan a distribuciones normales. Una ventaja de la prueba de la t de Student es que es potente en comparación con las pruebas estadísticas no paramétricas29. Una prueba no paramétrica que sea equivalente a la prueba de la t de Student puede ser una de las pruebas estadísticas no paramétricas más conocidas, la prueba de Wilcoxon para datos independientes [rank-sum test](a veces denominada prueba U de Mann-Whitney; no debe confundirse con la prueba de Wilcoxon para datos emparejados [signed-rank],que se utiliza para comparar dos grupos pareados). Las pruebas estadísticas no paramétricas, como la prueba de Wilcoxon para datos independientes, tienen una ventaja sobre las pruebas estadísticas paramétricas, como la prueba de la t de Student, en el sentido de que no dependen de supuestos previos de las distribuciones de los conjuntos de datos. Puede utilizarse una prueba de Kolmogorov-Smirnov para la distribución normal con el objeto de decidir si aplicar la prueba de la t de Student o una de las pruebas no paramétricas

Además de la elección del algoritmo para calcular el valor de p, los conjuntos de datos que se introducen en el algoritmo de cálculo del valor p  pueden manipularse para facilitar la observación de las propiedades deseadas en el conjunto de datos. La combinación de los pasos de manipulación de los datos brutos y la elección del algoritmo de cálculo del valor de p forma parte de la construcción de un modelo de hipótesis.

Existe un elevado nivel de libertad en la construcción de modelos de hipótesis en la fase exploratoria de un análisis estadístico y esto es una parte importante de la investigación científica. Sin embargo, una hipótesis nunca se prueba utilizando un enfoque científico estadístico. Un enfoque científico correcto consiste en formular una hipótesis nula, utilizar un conjunto de datos independiente (preferiblemente recién recogidos) y aceptar o rechazar la hipótesis nula según el diagrama de flujo del estudio confirmatorio (Figura 10.10).

Técnicas de visualización para análisis univariante

Al igual que se dispone de muchos métodos de análisis, también hay muchas técnicas de visualización de datos entre las que elegir. Para el análisis de datos univariados, un diagrama de barras simple con barras de error asociadas es una técnica de visualización adecuada. A pesar de que esta es una técnica de visualización común y sencilla, hay aspectos que vale la pena destacar. En primer lugar, las barras de error pueden ilustrar diferentes fuentes de variabilidad; la variabilidad inherente de los datos (la desviación estándar, SD) o la precisión con la que se ha determinado el valor medio. En segundo lugar, la precisión con la que se ha determinado el valor medio puede ilustrarse de diferentes maneras, pero en última instancia depende de una combinación de la variabilidad inherente de los datos con el número de muestras (N) y en su forma bruta, se llama error estándar de la media (SEM, Ecuación 1):

SEM

Ecuación 1.SEM

Sin embargo, el SEM no es una medida muy intuitiva y no es sencillo comparar SEM de diferentes experimentos de una manera significativa. Una forma más popular de ilustrar la precisión de la media estimada e indicar la significación estadística de una manera gráfica, es el intervalo de confianza (CI,Ecuación 2):

Cl

Ecuación 10- 2.Cl

En la ecuación para determinar el intervalo de confianza, puede reconocerse la presencia del SEM como el cociente entre la desviación estándar (SD) y la raíz cuadrada del número de muestras (N) y, por lo tanto, es evidente que el intervalo de confianza se basa en el SEM. El límite inferior del intervalo de confianza se construye restando el SEM multiplicado por un percentil de una distribución t de la media. El límite superior del intervalo de confianza se construye sumando el SEM multiplicado por un percentil a una distribución t de la media. El nivel de confianza del intervalo de confianza se establece por el nivel de confianza asociado al valor crítico t*; normalmente un nivel de confianza del 95 %.

En la  Figura 10.11 se muestra un gráfico de barras con barras de error que indican el intervalo de confianza del 95 % dentro de cada grupo experimental, resaltando la incertidumbre asociada con la estimación media de la expresión de un gen de ejemplo en muestras de diferentes órganos después del tratamiento con varias dosis de medicamentos. Además, se muestran los valores de p de significación estadística de la prueba de la t para la diferencia en la expresión génica entre las muestras de control y cada una de las tres muestras diferentes de las diferentes respuestas a las dosis de medicamento, indicadas con un asterisco. Es costumbre que un asterisco corresponda a un valor de pinferior a 0,05, que dos asteriscos correspondan a un valor de p inferior a 0,01 y que tres asteriscos corresponden a un valor de p inferior a 0,001.

Expresión de la cuantía del cambio (log2) de un gen de interés con respecto a un par de genes de referencia

Figura 10.11.Expresión de la cuantía del cambio (log2) de un gen de interés con respecto a un par de genes de referencia y con respecto a la expresión en la muestra con la menor expresión dentro de cada tipo de órgano. Las alturas de las barras indican la expresión media del gen en varias muestras en grupos de muestras no tratadas (dosis 0) o muestras tratadas con una de las tres dosis de medicamento diferentes (dosis 1, dosis 2 y dosis 3). Las barras de error indican estimaciones del intervalo de confianza del 95 % de las expresiones medias. Un asterisco indica una diferencia estadísticamente significativa del 5 % entre las medias de un conjunto de muestras tratadas en comparación con la media del conjunto de muestras no tratadas; dos asteriscos indican una diferencia estadísticamente significativa del 1 %; tres asteriscos indican una diferencia estadísticamente significativa del 0,1 %.

Dado que el asterisco oculta el valor absoluto de p, a menudo se recomienda incluir una tabla con los valores absolutos de p, como se muestra en el ejemplo de la Tabla 10.5. Una razón para ello es que un valor de pde, por ejemplo, 0,032 es solo un poco más “significativo” que un valor de pde 0,055. Casos límite como este pueden generar cierta confusión a la hora de decidir con precisión qué valor de corte utilizar al clasificar los datos como significativos. En casos realistas, un valor de p de 0,051 podría ser tan significativo como un valor de p de 0,049; sin embargo, un límite estricto (aunque fundamentalmente arbitrario) de 0,05 clasificaría a uno como significativo y al otro como no significativo.

Tabla 10.5Estimaciones de significación de la diferencia de medias. Se comparan las medias de la expresión de un gen de interés de un conjunto de muestras tratadas con las medias de las muestras no tratadas y se expresan en relación con los datos de expresión de dos genes de referencia. Los datos se presentan con respecto a la muestra con la menor expresión para cada tipo de órgano (datos mostrados en la Figura 10.12). Se utilizó la prueba de la t de Student para producir los valores de p.

Sin embargo, existe una variante de la visualización del diagrama de barras que aprovecha el intervalo de confianza de la diferencia entre las medias para evitar muchas de las desventajas, si no todas, de los diagramas de barras tradicionales24. Con el intervalo de confianza de la diferencia entre las medias, es posible estimar directamente la significación estadística con barras de error asociadas y al mismo tiempo resaltar el tamaño del efecto biológico y la variabilidad de los datos. En la Figura 10.12 se muestra la variante con el intervalo de confianza de la diferencia entre las medias de los datos utilizados en la Figura 10.11. Obsérvese que los intervalos de confianza que no abarcan la diferencia cero entre las medias corresponden a resultados significativos al nivel de confianza correspondiente al valor de corte de p(5 % en la Figura 10.11 y la Tabla 10.5).

Diagrama de barras que muestra la diferencia entre las medias del conjunto de muestras no tratadas

Figura 10.12.Diagrama de barras que muestra la diferencia entre las medias del conjunto de muestras no tratadas (dosis 0) y uno de los conjuntos de muestras tratadas (dosis 1, dosis 2 o dosis 3) en el conjunto de datos de la Figura 10.11. Las barras de error muestran el intervalo de confianza de la diferencia entre medias. Las barras de error que no cruzan el eje x indican que la comparación de medias correspondiente es estadísticamente significativa al 5 % en una prueba de la t. PCR Technology, Current Innovations-3rd ed. by Taylor and Francis Group LLC Books. Reproducido con permiso de Taylor and Francis Group LLC Books en el formato de reutilización en un libro / libro electrónico a través del Copyright Clearance Center.

Los datos multivariados son datos recogidos sobre varias variables para cada unidad de muestreo. Los datos utilizados en las Figuras 10.11 y 10.12 son multivariables en el sentido de que dependen de variables como la dosis y el tipo de órgano. Sin embargo, los análisis estadísticos de las Figuras 10.11 y 10.12 son no obstante univariados, en el sentido de que cada representación (barra) ilustra únicamente una variable, la expresión del gen, con respecto a medidas fijas de las otras variables. En cuanto a las técnicas de análisis de datos multivariados, el agrupamiento jerárquico y el análisis de componentes principales son buenas opciones para la representación de los datos.

Agrupamiento jerárquico

Uno de los métodos más fáciles y útiles para caracterizar los datos es representarlos en un diagrama de dispersión (por ejemplo, representar los valores de Cq medidos de un gen contra los valores de Cq correspondientes de otro gen para un conjunto de muestras biológicas en un gráfico en 2D). Las representaciones en una o dos dimensiones son cómodamente visualizadas por el ojo humano. Las representaciones en tres dimensiones también pueden ser posibles con las herramientas apropiadas, pero las representaciones de mayores dimensiones son significativamente más difíciles de visualizar. Sin embargo, para los estudios exploratorios, el conjunto de datos es inherentemente multidimensional, por lo que los diagramas de dispersión de conjuntos de datos enteros pueden llegar a ser poco prácticos. De un conjunto de datos de qPCR, pueden estar representados, por ejemplo, varios genes o varios tipos de muestras biológicas.

Una forma popular y alternativa de caracterizar y visualizar los datos de los estudios exploratorios consiste en analizar medidas de las distancias entre puntos de datos en el diagrama de dispersión. Existen diferentes medidas de distancia, como las correlaciones euclidiana, de Manhattan y de Pearson. Con la potencia computacional, es sencillo calcular distancias, incluso para datos multidimensionales de una dimensionalidad mucho mayor que las tres dimensiones. Para el agrupamiento jerárquico aglomerativo, se realiza el siguiente proceso iterativo: 1) Encontrar los dos objetos más cercanos y fusionarlos en un grupo; 2) Definir el nuevo grupo como un nuevo objeto a través de un método de agrupamiento; 3) Repetir desde 1) hasta que todos los objetos se hayan combinado en grupos30. Las alternativas a los métodos de agrupamiento son el método de Ward, método de agrupación de enlace simple y el método de agrupación de vínculo promedio31. Suele utilizarse un dendrograma para visualizar los resultados del agrupamiento jerárquico.

La interpretación de los dendrogramas de agrupamiento jerárquico de los datos de una qPCR a menudo producen conclusiones sobre las semejanzas del perfil de expresión génica. En un estudio exploratorio, estas similitudes pueden utilizarse luego para formular hipótesis sobre la coregulación de la expresión génica, que pueden ser aceptadas o rechazadas en estudios confirmatorios posteriores. Entre las ventajas de los dendrogramas de agrupamiento jerárquico se cuenta la claridad mediante la cual se visualizan las relaciones de similitud. Por otro lado, el fuerte énfasis en las medidas de similitud puede ser percibido como limitante con respecto a la formulación de hipótesis, ya que perfiles de expresión similares pueden ser atributos redundantes en las hipótesis. Puede ser de mayor valor identificar conjuntos de perfiles de expresión que se complementan entre sí en una combinación específica, para responder a la hipótesis deseada.

Análisis de componentes principales

Otra forma popular y alternativa de caracterizar y visualizar los datos de los estudios exploratorios consiste en aprovechar la información contenida en todo el conjunto de datos multidimensionales, seleccionar las propiedades deseadas y proyectarlas en un diagrama de dispersión de menor dimensión, como un gráfico en 2D o 3D. Esto se puede lograr utilizando el análisis de componentes principales (PCA)32,33,34, 35. Aquí, el sistema de coordenadas original del conjunto de datos (es decir, los perfiles de expresión medidos por qPCR) se transforma en un nuevo espacio multidimensional donde se construyen nuevas variables (componentes principales: CP o factores). Cada CP es una combinación lineal de los sujetos en el conjunto de datos original. Por definición matemática, los CP se extraen en orden sucesivo de importancia. Esto significa que el primer CP explica la mayor parte de la información (varianza) presente en los datos, el segundo menos y así sucesivamente. Por consiguiente, se pueden utilizar las dos o tres primeras coordenadas de CP (denominadas puntuaciones) para obtener una proyección de todo el conjunto de datos en una dimensión convenientemente pequeña, adecuada para la visualización en un gráfico de 2D o 3D. Utilizando los dos o tres primeros CP para la representación, se obtiene la proyección que representa la mayor variabilidad en el conjunto de datos. Se espera que la varianza de las condiciones del diseño experimental sea sistemática, mientras que se espera que la varianza de confusión sea aleatoria, por lo que esta representación puede ser deseable bajo las condiciones apropiadas.

Como se señaló anteriormente para el agrupamiento jerárquico, la interpretación del PCA de la qPCR suele producir conclusiones sobre las semejanzas del perfil de expresión del gen. El PCA y el agrupamiento jerárquico pueden proporcionar información complementaria sobre los patrones de coregulación de la expresión génica, pero ambas técnicas se centran en las semejanzas del perfil de expresión del gen. Esto impone limitaciones a los tipos de hipótesis que se pueden encontrar en los estudios exploratorios en los que se utilizan únicamente estas técnicas. Para ampliar el alcance de las hipótesis generadas en los estudios exploratorios, recientemente se propuso un enfoque basado en hipótesis para el análisis multivariado24. Los algoritmos basados en hipótesis y diseñados a medida pueden identificar hipótesis biológicamente relevantes que, de otro modo, podrían pasarse por alto por las técnicas comúnmente utilizadas para el análisis multivariado de datos.

Materiales
Loading
1.
Bustin SA, Benes V, Garson JA, Hellemans J, Huggett J, Kubista M, Mueller R, Nolan T, Pfaffl MW, Shipley GL, et al. 2009. The MIQE Guidelines: Minimum Information for Publication of Quantitative Real-Time PCR Experiments. 55(4):611-622. https://doi.org/10.1373/clinchem.2008.112797
2.
Guescini M, Sisti D, Rocchi MB, Stocchi L, Stocchi V. 2008. A new real-time PCR method to overcome significant quantitative inaccuracy due to slight amplification inhibition. BMC Bioinformatics. 9(1): https://doi.org/10.1186/1471-2105-9-326
3.
Rutledge RG, Stewart D. 2008. Critical evaluation of methods used to determine amplification efficiency refutes the exponential character of real-time PCR. BMC Mol Biol. 9(1):96. https://doi.org/10.1186/1471-2199-9-96
4.
Rutledge RG, Stewart D. 2008. A kinetic-based sigmoidal model for the polymerase chain reaction and its application to high-capacity absolute quantitative real-time PCR. BMC Biotechnology. 8(1):47. https://doi.org/10.1186/1472-6750-8-47
5.
Livak KJ, Schmittgen TD. 2001. Analysis of Relative Gene Expression Data Using Real-Time Quantitative PCR and the 2???CT Method. Methods. 25(4):402-408. https://doi.org/10.1006/meth.2001.1262
6.
Pfaffl MW. 2001. A new mathematical model for relative quantification in real-time RT-PCR. 29(9):45e-45. https://doi.org/10.1093/nar/29.9.e45
7.
Dheda K, Huggett JF, Bustin SA, Johnson MA, Rook G, Zumla A. 2004. Validation of housekeeping genes for normalizing RNA expression in real-time PCR. BioTechniques. 37(1):112-119. https://doi.org/10.2144/04371rr03
8.
Dheda K, Huggett J, Chang J, Kim L, Bustin S, Johnson M, Rook G, Zumla A. 2005. The implications of using an inappropriate reference gene for real-time reverse transcription PCR data normalization. Analytical Biochemistry. 344(1):141-143. https://doi.org/10.1016/j.ab.2005.05.022
9.
Vermeulen J, De Preter K, Lefever S, Nuytens J, De Vloed F, Derveaux S, Hellemans J, Speleman F, Vandesompele J. 2011. Measurable impact of RNA quality on gene expression results from quantitative PCR. 39(9):e63-e63. https://doi.org/10.1093/nar/gkr065
10.
Ibberson D, Benes V, Muckenthaler MU, Castoldi M. 2009. RNA degradation compromises the reliability of microRNA expression profiling. BMC Biotechnology. 9(1):102. https://doi.org/10.1186/1472-6750-9-102
11.
Huggett J, Dheda K, Bustin S, Zumla A. 2005. Real-time RT-PCR normalisation; strategies and considerations. Genes Immun. 6(4):279-284. https://doi.org/10.1038/sj.gene.6364190
12.
Mitsuhashi M, Tomozawa S, Endo K, Shinagawa A. 2006. Quantification of mRNA in Whole Blood by Assessing Recovery of RNA and Efficiency of cDNA Synthesis. 52(4):634-642. https://doi.org/10.1373/clinchem.2005.048983
13.
Whale AS, Huggett JF, Cowen S, Speirs V, Shaw J, Ellison S, Foy CA, Scott DJ. 2012. Comparison of microfluidic digital PCR and conventional quantitative PCR for measuring copy number variation. 40(11):e82-e82. https://doi.org/10.1093/nar/gks203
14.
Vandesompele J, De Preter K, Pattyn F, Poppe B, Van Roy N, De Paepe A, Speleman F. 2002. Genome Biol. 3(7):research0034.1. https://doi.org/10.1186/gb-2002-3-7-research0034
15.
Pfaffl MW. 2002. Relative expression software tool (REST(C)) for group-wise comparison and statistical analysis of relative expression results in real-time PCR. 30(9):36e-36. https://doi.org/10.1093/nar/30.9.e36
16.
Pfaffl MW, Tichopad A, Prgomet C, Neuvians TP. 2004. Determination of stable housekeeping genes, differentially regulated target genes and sample integrity: BestKeeper ? Excel-based tool using pair-wise correlations. Biotechnology Letters. 26(6):509-515. https://doi.org/10.1023/b:bile.0000019559.84305.47
17.
Andersen CL, Jensen JL, Ørntoft TF. 2004. Normalization of Real-Time Quantitative Reverse Transcription-PCR Data: A Model-Based Variance Estimation Approach to Identify Genes Suited for Normalization, Applied to Bladder and Colon Cancer Data Sets. Cancer Res. 64(15):5245-5250. https://doi.org/10.1158/0008-5472.can-04-0496
18.
Eady JJ, Wortley GM, Wormstone YM, Hughes JC, Astley SB, Foxall RJ, Doleman JF, Elliott RM. 2005. Variation in gene expression profiles of peripheral blood mononuclear cells from healthy volunteers. Physiological Genomics. 22(3):402-411. https://doi.org/10.1152/physiolgenomics.00080.2005
19.
Barnes MG, Grom AA, Griffin TA, Colbert RA, Thompson SD. 2010. Gene Expression Profiles from Peripheral Blood Mononuclear Cells Are Sensitive to Short Processing Delays. Biopreservation and Biobanking. 8(3):153-162. https://doi.org/10.1089/bio.2010.0009
20.
Debey S, Schoenbeck U, Hellmich M, Gathof BS, Pillai R, Zander T, Schultze JL. 2004. Comparison of different isolation techniques prior gene expression profiling of blood derived cells: impact on physiological responses, on overall expression and the role of different cell types. Pharmacogenomics J. 4(3):193-207. https://doi.org/10.1038/sj.tpj.6500240
21.
Mestdagh P, Van Vlierberghe P, De Weer A, Muth D, Westermann F, Speleman F, Vandesompele J. 2009. A novel and universal method for microRNA RT-qPCR data normalization. Genome Biol. 10(6):R64. https://doi.org/10.1186/gb-2009-10-6-r64
22.
Mestdagh P, Derveaux S, Vandesompele J. 2012. Whole-Genome RT-qPCR MicroRNA Expression Profiling.121-130. https://doi.org/10.1007/978-1-61779-424-7_10
23.
D?haene B, Mestdagh P, Hellemans J, Vandesompele J. 2012. miRNA Expression Profiling: From Reference Genes to Global Mean Normalization.261-272. https://doi.org/10.1007/978-1-61779-427-8_18
24.
Nolan T, Bustin SA. 2013. PCR Technology: Current Innovations. 3. CRC Press.
25.
Manly B. 1998. Randomization, Bootstrap and Monte Carlo Methods.. 2. Chapman Hall:
26.
Kitchen RR, Kubista M, Tichopad A. 2010. Statistical aspects of quantitative real-time PCR experiment design. Methods. 50(4):231-236. https://doi.org/10.1016/j.ymeth.2010.01.025
27.
Tichopad A, Kitchen R, Riedmaier I, Becker C, Sta?hlberg A, Kubista M. 2009. Design and Optimization of Reverse-Transcription Quantitative PCR Experiments. 55(10):1816-1823. https://doi.org/10.1373/clinchem.2009.126201
28.
Fisher R. 1966. The design of experiments.. 8. Hafner: Edinburgh:
29.
Motulsky H. 1995. Intuitive Biostatistics. New York: Oxford University Press.
30.
Ward JH. 1963. Hierarchical Grouping to Optimize an Objective Function. Journal of the American Statistical Association. 58(301):236-244. https://doi.org/10.1080/01621459.1963.10500845
31.
Lance GN, Williams WT. 1967. A General Theory of Classificatory Sorting Strategies: 1. Hierarchical Systems. The Computer Journal. 9(4):373-380. https://doi.org/10.1093/comjnl/9.4.373
32.
Rao C. 1964. The use and interpretation of principal components analysis in applied research..
33.
Hotelling H. 1933. Analysis of a complex of statistical variables into principal components.. Journal of Educational Psychology. 24(6):417-441. https://doi.org/10.1037/h0071325
34.
Pearson K. 1901. LIII. On lines and planes of closest fit to systems of points in space. The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science. 2(11):559-572. https://doi.org/10.1080/14786440109462720
Inicie sesión para continuar.

Para seguir leyendo, inicie sesión o cree una cuenta.

¿No tiene una cuenta?