Eje intestino-cerebro (II)

En la entrada previa traje parte del trabajo de revisión de Hooks et al. acerca de las limitaciones y aspectos metodológicos más controvertidos del estudio del EIC. Los autores diferenciaban dos grandes categorías. La primera, los métodos de estudio más populares, fue el tema de la anterior entrega. La segunda, en la que me centro hoy, concierne la conducta y la estadística. Boy oh boy.

La conducta y las diferencias de perfil hormonal son los temas de interés principal de los veinticinco artículos más citados sobre el EIC. Si se analizan en conjunto, se puede extraer fundamentalmente cinco focos de atención:

  1. Eje neuroendocrino de la respuesta de estrés. Aproximadamente la mitad de los Top 25 exploran la activación del eje neuroendocrino en la respuesta al estrés, la consecuente producción de glucocorticoides y la relación con otras variables biológicas y conductuales 1,2,3.
  2. Afecto-emoción: ansiedad. Aproximadamente la mitad de los Top 25 se centran en la ansiedad como variable de observación 4,5.
  3. Alteraciones del afecto: depresión. Aproximadamente un cuarto se centra en el estudio de la depresión y su relación con el EIC (REFS). Curiosamente, es sobre la relación entre la depresión y el EIC donde la evidencia parece más sólida 6,7.
  4. Trastornos del desarrollo/Espectro autista. Dos artículos del Top 25 investigan la relación entre la microbiota intestinal y el autismo, en modelos animales 8,9.
  5. Cognición. Seis artículos de entre los más citados sobre el EIC estudian algún tipo de cognición 10,11.

Es especialmente importante mencionar que la mayoría de estos Top 25 no aportan justificación suficiente para el uso de una u otra metodología a la hora de poner a prueba sus hipótesis. Ocasionalmente afrontan los potenciales factores de confusión que podrían comprometer la interpretación de los resultados y limitan la generalización de los hallazgos. Y esto parece la norma tanto para las pruebas bioquímicas como conductuales, ya que en pocas ocasiones se discute la idoneidad de los paradigmas utilizados. El argumento más extendido suele ser la referencia a trabajos previos en que se utiliza tal o cual técnica. Lo que en absoluto es garantía de nada. Y en particular cuando se trata de estudios preclínicos. Un ejemplo es la memoria. Existen diferentes tipos de memoria y diferenets paradigmas para estudiarla, siendo unos más eficientes que otros. Así pues, si la hipótesis que se plantea tiene como centro la memoria espacial, es mucho más adecuado (en mi humilde opinión) utilizar un test como el laberinto de Morris que el reconocimiento de objeto, por más común que sea este último.

Sin embargo, quizá el aspecto más importante a tener en cuenta desde el punto de vista metodológico es la translacionalidad. Es decir, la capacidad de extrapolar los resultados obtenidos en modelos animales a humanos. Cuando se estudia la conducta, esto es algo que ha de determinarse y tenerse en cuenta con cuidado. Desafortunadamente, en el campo de estudio del EIC la translacionalidad parece obviarse más de lo que se debería.

Por último, los autores de esta revisión llaman la atención sobre la estadística utilizada para analizar los datos en la mayoría de estos artículos. Las dos pruebas más comunes son el ANOVA de un factor y la prueba t de Student, incluso en diseños en que se introducen más de una variable independiente (en cuyo caso habría que utilizar un ANOVA de dos o tres factores). En el contexto de la investigación biomédica es poco frecuente encontrar resultados que se deban únicamente a un factor o variable. En el estudio del EIC, por ejemplo, cuando se estudia el estrés, ya son como mínimo dos factores que se han de analizar de forma independiente primero (estrés, microbiota), además de su posible interacción después.

A parte, no sólo en este Top 25, sino en otras muchas publicaciones, el uso que se hace de las pruebas estadísticas deja bastante que desear; interacciones que no se siguen de un análisis post hoc, pruebas post hoc sin existir una interacción significativa, pruebas post hoc inadecuadas para el diseño que se ha planteado, falta de correcciones, falta de información sobre el tamaño del efecto… Más aún, algunos artículos utilizan los resultados negativos como un argumento a favor. Por ejemplo, que la falta de resultados significativos tras una intervención sobre la microbiota es un argumento a favor del potencial efecto de la misma 12. Pero este es un tema diferente y que sin duda afecta a más campos que el EIC.

En resumen, los problemas que acucian a la investigación del EIC se pueden agrupar en los siguientes:

  • Afirmaciones sobre causalidad y determinismo.
  • Afirmaciones sobre los beneficios que la evolución de la microbiota ha significado para el el estado del cerebro.
  • Afirmaciones sobre la evolución paralela y simbiótica en el desarrollo y los periodos críticos.
  • Problemas con los probióticos.
  • Problemas con la comunicación de la ciencia.

Para mí no cabe duda de que en los próximos años el estudio del EIC aportará resultados e información con potencial para cambiar totalmente lo que se conoce acerca del comportamiento… Pero también creo que antes de que eso ocurra habrá mucho que trillar. La clave, como en tantas otras ocasiones, es contar con buenos diseños, buenas preguntas y procesos de análisis adecuados para minimizar el riesgo de publicar artículos poco rigurosos.

Pero esto es solo una opinión, vaya.

 

 

Algoritmos de amor

Hace varios meses Rashien Amini rompió con su novia, con quien llevaba saliendo dos años. Y lo que en un principio se trató de un ejercicio para alejar su mente de la situación, acabó por convertirse en Nanaya, una herramienta online que calcula las probabilidades de ser afortunado en el amor.

Hasta ese momento, el trabajo de este ingeniero consistía en hacer correcciones en los parámetros de misión del programa Constelación de la NASA, ahora desmantelado, que tenía como objetivo construir bases en la luna o Marte. Lo que hacía, básicamente, era análisis de coste/beneficio.

El análisis de coste/beneficio en el ámbito de las relaciones románticas no es nuevo. Incluso Darwin escribió su propio análisis antes de casarse. Y por todos es conocida la miríada de servicios online con este mismo propósito. Algunos incluso con algoritmos bastante sofisticados. Lo que diferencia a Nanaya de estos mencionados servicios es que no pretende emparejar a gente. No elige medias naranjas. Es un análisis que informa de las probabilidades de éxito en el amor que uno tendrá en los próximos años.

El proceso por el que Nanaya evalúa la probabilidad de encontrar una pareja adecuada consta de diferentes pasos: un test de personalidad, preguntas sobre características deseables en la otra persona, selección de imágenes… Los resultados se introducen después en una simulación que mezcla aleatoriamente rasgos entre una población de potenciales coincidencias, de forma que cada miembro de la población es como una tirada de dado.

Realizadas las combinaciones, el programa proporciona puntuaciones que miden la selectividad del protagonista, potencial de crecimiento del círculo social con tal o cual tipo de pareja, la «oportunidad romántica global» y un gráfico de la previsión para los próximos años. A los que están en una relación se les pregunta también aspectos sobre compatibilidad y felicidad con su pareja.

Como es lógico, la respuesta al algoritmo es principalmente escéptica. La atracción y el éxito de una relación es difícil de predecir porque es una cuestión dinámica, que escapa a la simple configuración y combinación de probabilidades. Debería incluir en el análisis datos recogidos por la pareja tiempo después para acercarse a un método efectivo para pronosticar el éxito de una relación amorosa.

Aun así, no deja de ser curioso.

PLOS ONE y los datos brutos

_

Me hago eco hoy de un notición bastante relevante, a mi parecer.

PLOS’ New Data Policy: Public Access to Data

Para quien le de pereza leer el artículo en inglés, lo resumo aquí: PLOS ONE, una de las revistas Open Access con más prestigio, ha decidido que los datos en bruto deben ser publicados junto con los resultados del artículo, con el fin de facilitar los procesos de replicación y validación por parte de laboratorios colegas.

Esto supone varias cosas. La primera, creo yo que no cabe duda, es un paso de gigante hacia la transparencia en la ciencia. Lo cual, dicho sea de paso, hace falta. En muchas ocasiones se publican artículos cuyos resultados no sólo son sorprendentes, sino que llegan a ser incluso sospechosos, y que cualquier investigador pueda tener acceso a los datos en bruto que han sido analizados es apostar por la credibilidad de los autores.

_

PLOS ONE liderando el cambio en las políticas editoriales

_

Ahora bien, aunque estoy convencido de que a grandes rasgos esta medida es positiva, no está exenta de problemas. Algunos que puedo pensar a simple vista…

Un proceso de publicación mucho más lento.

Es la asignatura pendiente de la mayoría de las revistas: los tiempos de publicación. En un mundo en el que los avances científicos están a la orden del día, es ilógico que un artículo tarde varios meses de media en publicarse. Por este motivo, añadir que a un revisor se le antoje repasar los datos brutos antes de decidir si un paper en cuestión puede/debe/merece ser publicado, añade más tiempo al proceso.

En este sentido, me pregunto si no será una cuestión de solicitar los datos una vez el artículo esté aceptado para publicación. Algunas veces ocurre que los artículos se eliminan de revistas tras procesos de evaluación posteriores a la publicación. Siendo así, no me parece mal; le publicamos el artículo, pero luego le pedimos los resultados. De este modo, no tendría nada que objetar.

Privacidad

Al fin y al cabo, datos en bruto son datos privados, de investigadores, laboratorios, grupos o instituciones. Que cualquiera tenga acceso a ellos es sinónimo de abrir la puerta de tu casa. Aparte, la probabilidad de que esos datos caigan en malas manos aumenta, en mi opinión, muchísimo.

Robo de datos

Lamentablemente, vivimos en un mundo donde la ciencia, sino la gran parte, mucha parte, está corrupta. Y no me refiero a resultados manipulados, sino a politiqueos y amiguismos dentro del mundo editorial; el «si yo te publico aquí, tú me publicas allá»; o el «vamos a aceptar el paper de esta persona sin mirar porque mira qué respetado es en el campo». Esto, por desgracia, está a la orden del día. Que un editor mala persona pueda acceder a los datos en crudo aumenta la probabilidad de que advierta a algún colega, ralentice o pare la publicación de determinado paper porque su grupo o el grupo de un amigo tiene resultados parecidos (o diferentes), y los quiere publicar antes. Aunque, siendo sinceros, esto pasa ahora sin acceso a los datos crudos.

Manipulación de datos

Al final, quien manipula, manipula. Estoy seguro de que existen algoritmos y herramientas para descubrir cuándo una tabla de Excel ha sido manipulada, o cuándo unos datos presentan una distribución sospechosamente específica. Pero realmente no existe diferencia entre mentir a la hora de informar de resultados, siendo otros los datos originales que modificar esos datos originales antes de entregarlos.

A este respecto sé que existen protocolos que permiten reflejar todos los movimientos de una persona en cada sesión de ordenador. Esto sería una forma de detectar prácticas fraudulentas, pero limitaría la libertad de los investigadores el tener que trabajar siempre desde el mismo ordenador, etc. De todas formas, quizá valdría la pena.

_

No sé. A mí, todo lo que sea transparencia me parece bien. Y más después de los episodios que he sufrido en las últimas semanas. Creo que un científico vale tanto como su reputación y la respetabilidad de su trabajo. Cosa que, sin duda, pasa por ser honesto con los resultados, independientemente de cuáles sean estos.

Supongo que el tiempo dirá si esta medida se populariza. O si las ventajas y beneficios compensan los posibles problemas. ¡Estaremos atentos!

_

Estadística aplicada a la investigación biomédica

_

Estadística. Temida y odiada por muchos, comprendida y abrazada por menos; necesaria para todos. Nos guste o no, la estadística es una herramienta imprescindible para el avance de la ciencia biomédica. Es la responsable detrás de las reglas utilizadas para examinar las hipótesis científicas que todo estudio debe incluir, así como para analizar los resultados surgidos de los experimentos que derivan de estas hipótesis.

Como anécdota contaré que, inicialmente, mi relación con la estadística fue muy mala. Incluso me apunté con mi buen amigo David a una academia, para ver si la sacaba adelante. Surgió efecto, puesto que dedicándole tiempo aprendí a apreciarla y comprender su utilidad, hasta llegar el punto en que a veces creo que he llegado a comprenderla.

Sin embargo, este no es el caso de mucha gente.

Es extraño encontrar un estudiante que no mire con recelo y cierta preocupación la presencia de esta “roca”, habitual en los planes de estudio en sus múltiples nombres y variantes: estadística aplicada a las ciencias sociales, bioestadística, psicoestadística, estadística biomédica… Al final, la estadística es tan necesaria como inevitable.

Pero no tiene porqué ser así. Así de horrible, me refiero, si se alcanza a contemplar la imagen completa de lo que representa dentro del método científico. Y es que un estudio, un experimento, es tan bueno como lo es el instrumento utilizado para su análisis. Reconozco que no hablo mucho de estadística, porque, estrictamente, se aleja un poco de la línea general del blog. Pero hoy traigo un artículo que ejemplifica muy bien los beneficios de tener una herramienta como esta al servicio de la investigación.

Científicos de la Universidad Rockefeller han desarrollado un nuevo método estadístico de mapeado genético que, aplicado a la investigación sobre el autismo, ha revelado varios genes que no habían sido considerados en análisis previos. Aglomerando datos de los genomas de cientos de personas con diferentes grados de autismo, los responsables del estudio han identificado varias funciones asociadas a variaciones genéticas que muy probablemente se asocien con este trastorno, o con la patología neuronal subyacente que lo provoca. En este sentido, el trabajo sugiere que comenzar el tratamiento ante los primeros síntomas (que pueden manifestarse alrededor de los 12-14 meses), podría cambiar el curso de la enfermedad.

_

Identificar precozmente variaciones genéticas asociadas al autismo puede ayudar a mejorar el pronóstico de su avance.

_

Intervenir a tiempo puede prevenir la poda neuronal que ocurre durante los dos primeros años de vida y asienta las bases de la sintomatología autista. Es más, esta metodología de rastreo de datos puede ser útil también en el estudio genético de otras enfermedades, por mucho que algunas hayan sido ya examinadas a conciencia.

Este trabajo, liderado por Knut Wittkowski, bioestadístico del Centro para la Ciencia Clínica y Translacional del Hospital Universitario Rockefeller, representa un giro en la técnica de minería de datos tradicional. Mediante la comparación del ADN de personas con y sin trastornos, este nuevo método es capaz de identificar variaciones genéticas asociadas a determinadas alteraciones. Los análisis convencionales se fijan en mutaciones individuales (polimorfísmos de nucleótido simple). Sin embargo, buscar cambios individuales en el código genético no resulta demasiado fiable a la hora de identificar factores de riesgo para enfermedades de inicio temprano, como es el autismo. Por contra, el método estadístico desarrollado por Wittkowski no se centra únicamente en los PNS, sino en combinaciones de estos, que sería el equivalente a buscar palabras completas en vez de buscar las letras que forman esas palabras.

Para obtener estos resultados, Wittkowski aplicó esta nueva aproximación a los datos de estudios sobre autismo y sobre casos de epilepsia de ausencia infantil, una condición que al parecer presenta un perfil genético similar. Durante el estudio de 185 casos de epilepsia infantil uno de los más hallazgos más relevantes fue el descubrimiento de mutaciones en los genes que controlan la dirección axonal y la señalización de calcio. Ambos factores resultan decisivos para el correcto desarrollo temprano del cerebro, momento en el que las neuronas comienzan a formar conexiones adecuadas. Las variaciones genéticas identificadas se asociaron con un aumento en la probabilidad de padecer esta condición.

Esto motivó a los investigadores a mirar más detenidamente los datos de un significativo estudio sobre autismo, el cual cuenta con la secuencia genética de unas 2700 personas. Donde análisis previos habían sugerido simplemente la participación de algunos PNS aislados, aplicando el recién desarrollado método estadístico Wittkowski y su equipo descubrieron varios grupos de genes relacionados funcionalmente. Por ejemplo, averiguaron que la vía Ras (una red de señalización dependiente de calcio que estimula el crecimiento neuronal) juega un papel determinante en este trastorno.

Si estos hallazgos se confirman en clínica, los datos apuntan a que una intervención farmacológica temprana podría marcar una diferencia muy significativa en el desarrollo del autismo. Lo cual sería una gran noticia, puesto que, desafortunadamente, este trastorno es un misterio todavía para muchos investigadores. Y más todavía para muchos clínicos. No es de extrañar que se denomine «cajón desastre» al espectro autista, y con frecuencia se diagnostique equivocadamente una u otra condición específica.

No obstante, creo que es necesario señalar que este método deberá contrastarse y probarse válido en otros estudios, obviamente. Pero sólo lo obtenido en este trabajo ya es motivo de esperanza. Y nada de esto hubiera sido posible sin la estadística.

Aquí os dejo el artículo original, por si os interesa:

Wittkowski KM, et al. A novel computational biostatistics approach implies impaired dephosphorylation of growth factor receptors as associated with severity of autism. Transl Psychiatry, 2014; 4:e354. DOI: 10.1038/tp.2013.124

Como veis, la estadística no es siempre tan mala.

_