Eje intestino-cerebro (II)

En la entrada previa traje parte del trabajo de revisión de Hooks et al. acerca de las limitaciones y aspectos metodológicos más controvertidos del estudio del EIC. Los autores diferenciaban dos grandes categorías. La primera, los métodos de estudio más populares, fue el tema de la anterior entrega. La segunda, en la que me centro hoy, concierne la conducta y la estadística. Boy oh boy.

La conducta y las diferencias de perfil hormonal son los temas de interés principal de los veinticinco artículos más citados sobre el EIC. Si se analizan en conjunto, se puede extraer fundamentalmente cinco focos de atención:

  1. Eje neuroendocrino de la respuesta de estrés. Aproximadamente la mitad de los Top 25 exploran la activación del eje neuroendocrino en la respuesta al estrés, la consecuente producción de glucocorticoides y la relación con otras variables biológicas y conductuales 1,2,3.
  2. Afecto-emoción: ansiedad. Aproximadamente la mitad de los Top 25 se centran en la ansiedad como variable de observación 4,5.
  3. Alteraciones del afecto: depresión. Aproximadamente un cuarto se centra en el estudio de la depresión y su relación con el EIC (REFS). Curiosamente, es sobre la relación entre la depresión y el EIC donde la evidencia parece más sólida 6,7.
  4. Trastornos del desarrollo/Espectro autista. Dos artículos del Top 25 investigan la relación entre la microbiota intestinal y el autismo, en modelos animales 8,9.
  5. Cognición. Seis artículos de entre los más citados sobre el EIC estudian algún tipo de cognición 10,11.

Es especialmente importante mencionar que la mayoría de estos Top 25 no aportan justificación suficiente para el uso de una u otra metodología a la hora de poner a prueba sus hipótesis. Ocasionalmente afrontan los potenciales factores de confusión que podrían comprometer la interpretación de los resultados y limitan la generalización de los hallazgos. Y esto parece la norma tanto para las pruebas bioquímicas como conductuales, ya que en pocas ocasiones se discute la idoneidad de los paradigmas utilizados. El argumento más extendido suele ser la referencia a trabajos previos en que se utiliza tal o cual técnica. Lo que en absoluto es garantía de nada. Y en particular cuando se trata de estudios preclínicos. Un ejemplo es la memoria. Existen diferentes tipos de memoria y diferenets paradigmas para estudiarla, siendo unos más eficientes que otros. Así pues, si la hipótesis que se plantea tiene como centro la memoria espacial, es mucho más adecuado (en mi humilde opinión) utilizar un test como el laberinto de Morris que el reconocimiento de objeto, por más común que sea este último.

Sin embargo, quizá el aspecto más importante a tener en cuenta desde el punto de vista metodológico es la translacionalidad. Es decir, la capacidad de extrapolar los resultados obtenidos en modelos animales a humanos. Cuando se estudia la conducta, esto es algo que ha de determinarse y tenerse en cuenta con cuidado. Desafortunadamente, en el campo de estudio del EIC la translacionalidad parece obviarse más de lo que se debería.

Por último, los autores de esta revisión llaman la atención sobre la estadística utilizada para analizar los datos en la mayoría de estos artículos. Las dos pruebas más comunes son el ANOVA de un factor y la prueba t de Student, incluso en diseños en que se introducen más de una variable independiente (en cuyo caso habría que utilizar un ANOVA de dos o tres factores). En el contexto de la investigación biomédica es poco frecuente encontrar resultados que se deban únicamente a un factor o variable. En el estudio del EIC, por ejemplo, cuando se estudia el estrés, ya son como mínimo dos factores que se han de analizar de forma independiente primero (estrés, microbiota), además de su posible interacción después.

A parte, no sólo en este Top 25, sino en otras muchas publicaciones, el uso que se hace de las pruebas estadísticas deja bastante que desear; interacciones que no se siguen de un análisis post hoc, pruebas post hoc sin existir una interacción significativa, pruebas post hoc inadecuadas para el diseño que se ha planteado, falta de correcciones, falta de información sobre el tamaño del efecto… Más aún, algunos artículos utilizan los resultados negativos como un argumento a favor. Por ejemplo, que la falta de resultados significativos tras una intervención sobre la microbiota es un argumento a favor del potencial efecto de la misma 12. Pero este es un tema diferente y que sin duda afecta a más campos que el EIC.

En resumen, los problemas que acucian a la investigación del EIC se pueden agrupar en los siguientes:

  • Afirmaciones sobre causalidad y determinismo.
  • Afirmaciones sobre los beneficios que la evolución de la microbiota ha significado para el el estado del cerebro.
  • Afirmaciones sobre la evolución paralela y simbiótica en el desarrollo y los periodos críticos.
  • Problemas con los probióticos.
  • Problemas con la comunicación de la ciencia.

Para mí no cabe duda de que en los próximos años el estudio del EIC aportará resultados e información con potencial para cambiar totalmente lo que se conoce acerca del comportamiento… Pero también creo que antes de que eso ocurra habrá mucho que trillar. La clave, como en tantas otras ocasiones, es contar con buenos diseños, buenas preguntas y procesos de análisis adecuados para minimizar el riesgo de publicar artículos poco rigurosos.

Pero esto es solo una opinión, vaya.

 

 

“Runners’ high”: algo más que endorfinas

Desde hace unos años, correr se ha convertido en un ejercicio muy popular. Y como suele pasar cuando algo se pone de moda, conceptos relacionados con ese deporte son cada vez más utilizados y conocidos por la población general. Uno de estos es el runners high o el subidón del corredor; una sensación de euforia que suele acompañar a la práctica de esta actividad.

He de decir que mi historia con el correr no es de las de final feliz. Es cierto que hace tiempo corría bastante, pero desde hace un par de años una pata de ganso (y la convicción de que es un ejercicio tremendamente sobrevalorado) me impide dedicarle tiempo. Tampoco es que me importe mucho, ya que, a diferencia de la gente que sí siente ese subidón, ahora mismo no recuerdo que a mí, personalmente, me resultara tan gratificante.

Aunque quizá sí, y no lo recuerdo. Quizá no, y se debiera a que como era un poco gordico, tenía la leptina alta.

¿Y qué tiene que ver, preguntáis? Pues bastante, según un estudio publicado a principios de mes en la revista Cell Metabolism.

Que correr causa en muchos casos un subidón, es un fenómeno bien descrito. La explicación detrás del mismo pone como responsables eran las endorfinas, liberadas al someter al cuerpo a una tensión continuada para atenuar el posible malestar que el estrés de la carrera continua ejerce sobre el organismo 1. Y aunque esto no parece estar en duda, lo que el estudio de este grupo de investigadores canadienses demuestra es que la historia es algo más complicada.

Como no podía ser de otra forma, claro está.

Aspecto de la molécula de leptina

Según los datos analizados por el equipo de Stephanie Fulton, la dopamina también participa en esta sensación de bienestar. Pero lo que es más interesante (y la verdadera novedad), es que esta dopamina está regulada por la leptina.

El estudio, realizado con ratones, sugiere que esta hormona está implicada tanto en la regulación del apetito como en los efectos reforzantes asociados a la práctica de ejercicio físico.

Estos resultados son coherentes con estudios previos que muestran una correlación negativa entre los niveles de leptina las marcas de corredores de maratón 2,3. Es decir: menos leptina, mejores marcas.

Los autores plantean la posibilidad de que en los humanos, un nivel bajo de leptina facilite la acción motivadora de la dopamina, promoviendo la aparición del subidón del corredor. Y la explicación que dan es que, en el pasado, correr no era una afición, sino una actividad directamente relacionada con la probabilidad de obtener comida.


AVISO DE SPOILER: LAS PRÓXIMAS LÍNEAS CONTIENEN ALTAS DOSIS DE NERDISMO.

_

Entre otras de sus muchas funciones, la activación de los receptores de leptina (LepR) implica la activación del transductor de señal y activador de la transcripción 3 (STAT3), el cual está presente en las neuronas dopaminérgicas del área tegmental ventral (VTA), claves para la conducta motivada y el refuerzo.

Los experimentos realizados en este trabajo demuestran que los ratones mutantes carentes de STAT3 en las neuronas dopaminérgicas corren más voluntariamente. Conducta que se ve neutralizada cuando se restaura el factor de transcripción en estos mismos ratones.

Por otra parte, la eliminación de estos receptores en ratones control produce un aumento en la conducta de correr. Efecto que se reduce con la inyección de leptina directamente sobre el VTA, de manera coherente con la activación de STAT3. Es decir, que X dosis de leptina imita la reducción de la conducta que se produciría con X activación de STAT3.

Explicación gráfica de la función moduladora de la leptina sobre la dopamina a través de la expresión de STAT3 en el VTA (Fuente: Fernandes et al., 2015)

Explicación gráfica de la función moduladora de la leptina sobre la dopamina a través de la expresión de STAT3 en el VTA (Fuente: Fernandes et al., 2015)

Estos resultados sugieren que la leptina participa en la regulación de la motivación por correr a través de la relación LepR-STAT3 y su efecto sobre la actividad dopaminérgica en el VTA.


_

Este tipo de estudios a mí me gusta mucho. Tienen to’ lo güeno: psicología básica (motivación), (neuro)endocrinología (leptina), deporte (correr), valor evolutivo (hipótesis teórica en la que encajar los datos de manera elegante)… Me parece muy interesante la propuesta y creo que tiene sentido desde un punto de vista adaptativo.

De todas formas, me parecería raro que esta modulación no tuviera además relación con los niveles de glucosa en sangre u otras variables fisiológicas relacionadas con el ayuno. No es nueva la relación entre la leptina y la dopamina en relación a la motivación por comer 4, pero sí es la primera vez que se encaja dentro del contexto del ejercicio físico. La leptina es una hormona que dispara la señal de saciedad: cuando se come, se libera y el cerebro recibe una señal para detener la ingesta. La leptina baja sugiere que el cuerpo funciona gracias a la reserva energética. En ese sentido, encaja la idea de correr es reforzante cuando se necesita comer: menos leptina, más motivación para correr y conseguir comida.

Habría que ver si, por ejemplo, esta hormona se comporta igual en otro tipo de actividades. Por ejemplo en tareas que requieren un mantenimiento de la conducta motivada pero en un estado de saciedad. Me voy a mojar y voy a decir que no… Pero me encantará ver cómo se desarrolla esta línea para salir de dudas.

_

_

Referencia:

Fernandes MF, et al. Leptin Suppresses the Rewarding Effects of Running via STAT3 Signaling in Dopamine Neurons. Cell Metab, 2015; doi: http://dx.doi.org/10.1016/j.cmet.2015.08.003.

El cerebro predictivo

Tradicionalmente, el cerebro se ha entendido como un órgano que funciona generando respuestas para los estímulos que recibe del ambiente. Se perciben los estímulos, se procesan y se genera una respuesta adecuada a los mismos.

Esto se aplica desde dar un paso atrás para evitar ser atropellado como juzgar si un comentario es adecuado en determinado contexto.

Sin embargo, parece que los datos recogidos durante los últimos años atribuyen al cerebro en un papel mucho menos pasivo. Actualmente está bastante aceptada la idea de que este órgano funciona en base a inferencias activas. En base a predicciones.

Así, los estímulos sensoriales contienen estimaciones de probabilidad basadas en experiencias previas, a partir de las cuales se crean estimaciones posteriores que funcionan como recipientes de atribución causal de los estímulos en el presente.

O, como diría mi madre: «la gallina».

Dicho de otra forma, el aprendizaje se obtiene de la experiencia, ya sea directa o indirecta (vicaria). Esta experiencia genera una respuesta sensorial, a la que el cerebro atribuye una probabilidad. Cuando se presentan de nuevo las mismas condiciones (o similares) que generaron esa experiencia, la probabilidad previa se utiliza como referencia a la hora de atribuir la causa del suceso y se reatribuye una nueva estimación. Una vez se ha realizado esta reatribución, la reacción que proporcione el resultado más coherente a dicha causa será la que se manifieste.

De este modo, las predicciones (con probabilidad previa) funcionan como hipótesis sobre el entorno que se pueden poner a prueba contra las señales sensoriales que llegan al cerebro.

Ante este escenario, el objetivo del cerebro es siempre minimizar al discrepancia entre la predicción y la sensación. Lo que sería el error de predicción.

Se puede reducir el error de predicción de tres formas: se modifica la predicción, se moviliza el cuerpo para adecuar la respuesta a la predicción, o se cambia la forma de atender o seleccionar la información sensorial disponible.

Así pues, la respuesta al entorno no es una mera reacción, sino una adaptación del cuerpo a las predicciones que el cerebro realiza para disminuir la discrepancia que puede generar el error de predicción.

Por complejo que parezca el asunto, la verdad es que hace años se maneja esta visión del cebrero. La cuestión que aún está abierta a debate es cómo; qué vías, mecanismos y estructuras están implicadas y en qué orden se disponen para generar estas predicciones.

En un artículo publicado en Nature en mayo de este año, Lisa Feldman y Kyle Simmons proponen un modelo, EPIC (Embodied Predictive Interoception Coding), en el que aseguran que el epicentro del que este proceso predictivo comienza es la corteza límbica. 

A diferencia de otras propuestas similares que se centran en estructuras concretas, como la ínsula anterior, el modelo de EPIC proporciona una visión más integrada y dinámica de las conexiones entre las diferentes regiones que participan en este complejo fenómeno.

La idea de situar la corteza límbica como estación central proviene de la evidencia encontrada sobre la unidireccionalidad de las conexiones. Los experimentos que revisan Feldman y Simmons demuestran que debido a la composición estructural celular, esta región distribuye, pero no recibe, predicciones hacia/desde otras partes del cerebro.

Esto es interesante ya que implica que la corteza límbica dirige en cierto modo el procesamiento cerebral. Que no reacciona a estimulación del mundo externo. Lo que es totalmente contrario a la idea que se ha manejado durante años acerca de la función del sistema límbico como una herramienta de procesamiento emocional ante los estímulos del entorno.

Lo intuitivo es pensar que ver es creer, pero según estos autores, la forma en que el cerebro funciona es justamente al contrario. La percepción es resultado de la predicción generada por la sensación.

Leptina libre de culpa

En 2014 fue el 20 aniversario del descubrimiento de la leptina. Lo que celebré en el blog con una serie de entradas acerca de esta hormona y su relación, principalmente, con la obesidad y la homeostasis energética.

Durante años se ha propuesto la resistencia a la leptina como potencial causa de la obesidad. Ya vimos que dada la importancia de otros factores también implicados, eso no es tan sencillo, a pesar de que la hiperleptinemia es una característica común en las personas con obesidad. Un reciente artículo, sin embargo, vuelve a remarcar que la leptina no es la culpable de esta condición.

Un repaso más a fondo de las funciones de la leptina aquí, aquí, aquí y aquí; pero por ahora baste recordar que la leptina se libera tras la ingesta a modo de mensajero para la señal de saciedad, participando así en la regulación del apetito.

Los ratones que genéticamente no producen leptina son obesos. No paran de comer. Cuando se les administra leptina, su ingesta se normaliza y su peso cae. Curiosamente, en las personas esto no funciona igual: aparte de contar con niveles basales más altos de esta hormona, la administración de leptina a personas con obesidad no parece ser efectivo para que dejen de comer. Razón por la cual se acuñó el término de «resistencia a la leptina».

Eso pasa cuando se administra leptina. Curiosamente, la acción de la leptina endógena en el control de la homeostasis energética en la obesidad no es algo tan extensamente estudiado. El cuerpo actúa de maneras misteriosas, por lo que Diego Perez-Tilve y su grupo decidieron acercarse a este problema desde otra perspectiva: bloquear los receptores de leptina (LepR).

La hipótesis de Ottaway (primer autor del trabajo) y cols. es que el bloqueo de los LepR en ratones obesos (bien por genética, bien por la dieta) puede proporcionar una estimación de la acción de la hormona que se vería reflejada en la cantidad de ingesta y el peso corporal. Es decir, si se bloquea el LepR, la leptina no puede ejercer su función y la ingesta primero y le peso después, aumentarán.

Para poner esto a prueba, el grupo de la Universidad de Cincinnati llevó a cabo varios estudios. En el primer estudio se utilizaron ratones deficientes de LepR, ratones deficientes de leptina y ratones control. Animales de los tres grupos recibieron diariamente por vía intraperitoneal (i.p.) una administración de vehículo o el antagonista del receptor de leptina (ARL).

Los resultados muestran que la administración del antagonista incrementó la ingesta y el peso en los ratones control, sin afectar la ingesta ni el peso de los dos grupos de mutantes.

Administración de ARL o vehículo (i.p.) durante siete días a ratones carentes de LepR (db/db), ratones carentes de leptina (ob/ob) y ratones control (wt) (Fuente: Ottaway et al., 2015)

Administración de ARL o vehículo (i.p.) durante siete días a ratones carentes de LepR (db/db), ratones carentes de leptina (ob/ob) y ratones control (wt). A = ingesta (en Kcal); B = peso corporal; C = aumento de peso (Fuente: Ottaway et al., 2015)

En un segundo estudio se llevó a cabo un procedimiento similar, esta vez con ratones carentes del receptor 4 de melanocortina (MC4R). La elección de estos animales no es trivial, dado que este receptor es uno de los receptores que más responde a la señalización de la leptina 1. Estos ratones presentan de forma natural una ingesta exacerbada y obesidad.

De forma similar a lo ocurrido en el experimento anterior, sólo los ratones control aumentaron su ingesta y su peso tras la administración del ARL.

Para asegurarse de que el bloqueo de los receptores era completo, administraron directamente el ARL por vía intracerebroventricular (i.c.v.). Los resultados fueron los mismos.

Administración de ARL o vehículo (i.p., arriba; i.c.v, abajo) a ratones ... A,D = ingesta (en Kcal); B,E = peso corporal; C,F = aumento de peso

Administración de ARL o vehículo (i.p., arriba; i.c.v, abajo) durante siete días a ratones carentes de MC4R (-/-) y ratones control (+/+). A,D = ingesta (en Kcal); B,E = peso corporal; C,F = aumento de peso (Fuente: Ottaway et al., 2015)

A pesar de todo, la obesidad genética es relativamente poco frecuente en la población. La causa más común es la sobreingesta de alimentos que componen una dieta poco saludable. En este sentido, los ratones mutantes pueden dar información muy valiosa sobre el comportamiento fisiológico de diferentes variables, pero no necesariamente son el mejor modelo de obesidad.

Los ratones con obesidad inducida por dieta, por el contrario, estarían más cerca de reflejar lo que ocurre en humanos.

Así pues, el grupo trató de replicar los resultados en ratones sobrealimentados y se les administró, primero i.p. y luego i.c.v., diferentes dosis de ARL.

Cuando se compararon los resultados, se observaron varias cosas. Por una parte, el efecto de la leptina fue similar en los ratones tratados con ARL, excepto a la dosis media, a la cual los ratones control comían significativamente más. Por otro lado, al comparar ratones tratados con ARL y vehículo, no se observaron grandes diferencias respecto al cambio en el peso corporal a ninguna de las dosis.

Cambios en la ingesta (M) y el peso corporal (N) tras seis días de administración de ARL. Blanco = ratones cotrol; Rojo = raontes obesos por dieta (Fuente: Ottaway et al., 2015)

Cambios en la ingesta (M) y el peso corporal (N) tras seis días de administración de ARL. Blanco = ratones cotrol; Rojo = raontes obesos por dieta (Fuente: Ottaway et al., 2015)

Los resultados recogidos en este trabajo sugieren que la obesidad derivada de la dieta se desarrolla a pesar de la participación de la leptina en la regulación de la homeostasis energética. Por lo tanto, es lógico pensar que otros mecanismos opuestos a la hormona contribuyen activamente. Algunos de estos mecanismos podrían ser incluso dependientes de los LepR 2.

Este trabajo es un apoyo importante para aquellos que defienden la reinterpretación de la leptina y su función en la obesidad. La terapia con esta hormona presenta un efecto modesto en personas obesas con hiperleptinemia ya de por sí 3, por lo que, dada la importancia de su función, creo que son necesarias nuevas aproximaciones e ideas que ayuden a sacar el máximo partido del conocimiento que se tiene de ella. Utilizarla en casos de obesidad durante la pérdida de peso para maximizar la activación de los LepR cuando los niveles de leptina están disminuidos podría ser una alternativa válida.

_

_

Referencia:

Ottaway et al. Diet-Induced Obese Mice Retain Endogenous Leptin Action. Cell Metabol, 2015; doi: 10.1016/j.cmet.2015.04.015

Refuerzo, recompensa y adicción a la comida

Reconozco que tuve cierta duda sobre cómo enfocar la entrada anterior. Me dio la impresión de que entraban demasiados factores en juego, con demasiados matices, tan importantes para su uso como difíciles de incluir sin explicarlos en detalle.

La entrada de hoy no es una adenda, pero sí me gustaría repasar algunos conceptos incluidos, así como remarcar la importancia y necesidad de una terminología correcta en torno al tema. El contenido, aunque no demasiado técnico, puede resultar denso.

El que avisa, no es traidor.


La «adicción a la comida» se ha convertido en un tema recurrente no sólo en la literatura científica sino también en la prensa, blogs y demás medios de difusión. Y no puedo evitar pensar que parte de ello es debido a la utilización poco rigurosa de una terminología ya de entrada bastante resbaladiza.

Pero empecemos por el principio.

Cuando un organismo se aproxima a un estímulo para interactuar con él y consuma la conducta, el resultado adquiere un valor emocional: si es positivo, el estímulo se convierte en recompensa, la cual viene marcada por un cambio fisiológico y subjetivo en el estado del organismo.

motiv1

La emoción es el elemento principal de uno de los componentes del sistema motivacional apetitivo: la dirección. Si algo es agradable, me dirijo a ello.

Las recompensas son reforzantes. Es decir, fortalecen la asociación entre el estímulo, la contingencia (qué provoca qué y en qué condiciones) y el placer que causa, aumentando la probabilidad de que en un futuro se repita la aproximación y fomentando la búsqueda del estímulo. Es más, cuando se establece esta asociación, el aprendizaje de la contingencia se produce no solo entre el estímulo y la conducta, sino también entre los factores que rodean a ese reforzador (momento del día, lugar, temporada, color del alimento…) y la conducta.

De este modo, con el tiempo y la repetición, los estímulos asociados al reforzador adquieren una cualidad reforzante por sí mismos, en tanto que resultan predictores de la aparición de la recompensa. Así, se puede observar que ante la aparición de claves asociadas a ese estímulo, se despliega una conducta de búsqueda característica que tiene como fin obtener dicho reforzador.

Esto es relevante, ya que una de las características conductuales de la adicción es la búsqueda compulsiva del reforzador 1, disparada por la presencia de estímulos asociados al mismo, aún cuando la probabilidad de aparición es insignificante.

Un segundo factor del sistema motivacional apetitivo es el vigor, o la cantidad mínima de activación necesaria para llevar a cabo determinada tarea. La respuesta motivacional requiere energía, de modo que por muy reforzante que sea un estímulo, si no provoca una vigorosidad suficiente para obtenerlo, no se consumará.

Hasta aquí, parece que está todo claro. Conceptualmente se puede categorizar y diferenciar un término de otro, un proceso de otro. ¿Dónde está el problema, entonces? Pues que cuando uno trata de desentrañar el funcionamiento de un proceso, o descifrar los mecanismos y elementos que participan en su implicación con otros sistemas y diferentes conductas, tiene que ser capaz de transformar y observar esa categorización en valores cuantificables y diferenciados.

Es decir, la dopamina. El problema está en la dopamina.

La dopamina se distribuye por el sistema nervioso central a través de cuatro vías: nigroestriatal, mesolímbica, mesocortical y tuberinfundibular.

Rutas dopaminérgicas en el SNC

Esquema de las rutas dopaminérgicas. Origen y destino.

Estas vías son citadas de manera frecuente como mecanismos que contribuyen a la aparición de conductas alimentarias que recuerdan a comportamientos relacionados con la adicción.

En los últimos años se ha acumulado una importante cantidad de experimentos con esta hipótesis como centro de atención 2,3. Incluso hay quien no se corta a la hora de hablar de «adicción» a ciertos alimentos, o a la comida en general, como comentaba antes. Sin embargo, el uso del término «adicción» para describir aspectos patológicos de la ingesta resulta, en mi opinión, como poco, aventurado; al menos en lo que se refiere a los humanos. Es más, incluso entre los que consideran válido este concepto existe desacuerdo sobre cómo encaja en un marco más amplio a la hora explicar el aumento de la prevalencia de la obesidad.

Sólo para empezar, la afirmación «adicción a la comida» es tan vaga como decir «adicción al vino». A qué, en concreto ¿al alcohol, a los polifenoles? ¿Es a todo el vino, o sólo al tinto, al blanco…? No se es “adicto a la comida”, del mismo modo que no se es “adicto al vino”. Si acaso, se es adicto a algún componente. En el caso del vino, el alcohol; en el caso de la comida, parece ser que el azúcar es el candidato con más papeletas 4.

De cualquier forma, estas afirmaciones suelen venir avaladas por numerosas publicaciones que demuestran un patrón de activación cerebral y mecanismos de neuroplasticidad ante la presencia de ciertos alimentos similares a los que se observan tradicionalmente en drogas de abuso, como el alcohol o la cocaína 5.

Sabiendo que la dopamina interviene en diferentes aspectos de la motivación y la conducta reforzada, que las drogas actúan como reforzadores y que la recompensa tiene un valor reforzante, es habitual leer cosas como que «la vía mesolímbica interviene en la recompensa», o «la comida rica en azúcar activa el sistema de recompensa».

En efecto, no es raro toparse con artículos que adoptan el término recompensa sinónimo de placer, de motivación apetitiva en y/o de refuerzo; tres procesos diferenciables y definidos individualmente en los cuales la dopamina participa de manera distinta 6.

Por eso, al toparse con esta literatura es importante tener muy en cuenta varias cosas: 1) la compleja naturaleza de la implicación de la dopamina en los distintos componentes del proceso motivacional, y 2) que no existe consenso ni definición técnica de «recompensa».

Por otra parte, sería necio obviar los datos. Existen muy buenas publicaciones que aportan evidencia clara del efecto que determinados alimentos ingeridos bajo un particular patrón de consumo pueden ejercer sobre estructuras y rutas vinculadas con procesos de adicción 7,8. Sin embargo, hay que tener cuidado a la hora de elegir los términos con los que se comunican los resultados e interpretaciones de los mismos. El lenguaje importa. Y más en un contexto científico dirigido a fomentar hipótesis con potencial para justificar el desarrollo de estrategias de intervención. A los enfermos de Parkinson se les receta L-Dopa, no dopamina. Aunque relacionadas, y siendo que una precede a la siguiente, el motivo por el que se administra L-Dopa en particular manifiesta la relevancia de intervenir en un momento y no otro del proceso. La importancia en la diferenciación entre refuerzo y recompensa puede ser similar.

A parte, conductas como los atracones o el consumo compulsivo pueden ser interpretadas desde una perspectiva evolutiva, como discutí brevemente aquí. Por lo que hay que tener en cuenta los subsistemas motivacionales que están detrás de estos patrones de búsqueda y consumo desadaptativos.

En resumen, es importante aportar una discusión crítica sobre la literatura de la adicción a la comida. Y tener en cuenta que en la obesidad, el sobreconsumo y la ingesta compulsiva intervienen de forma importante los factores psicológicos que pueden hacer caer la balanza de un lado u otro. En este sentido, saber qué papel desempeña la dopamina concretamente en la motivación por la comida es determinante para dirigir la mirada a unos procesos u otros, para programar intervenciones a distintos niveles y, al final, para hacer ciencia de la manera más rigurosa posible.

Rastreando la entrada en el sueño

Mediante la combinación de medidas conductuales y fisiológicas, investigadores del Hospital General de Massachusetts han desarrollado un sistema que restrea de forma precisa y eficaz el proceso de dormirse, algo que no había sido posible hasta ahora con las técnicas actuales.

El estudio describe cómo la combinación de medidas fisiológicas claves y tareas conductuales que no interfieren con el inicio del sueño aportan mayor comprensión al proceso gradual de caer dormido. Además de ser una herramienta poderosa en futuras investigaciones, el sistema puede proporcionar conocimiento útil para el diagnóstico y comprensión de trastornos del sueño. El trabajo se ha publicado en PLOS Computational Bioology.

En concreto, el método desarrollado estima de forma continua el grado de vigilia del sujeto en cada momento del comienzo del sueño. Hasta ahora, los métodos para comprobar esto se limitaban a claves auditivas, algo que puede alterar tanto la entrada en el sueño como la respuesta del actígrafo (la FitBit de ahora, vamos). La cuantificación dinámica de los cambios conductuales y actividad cerebral durante esta transición permitirá plantear hipótesis mucho más ajustadas y específicas a la hora de investigar trastornos como la narcolepsia o el insomnio.

En los experimentos, en lugar de responder a un sonido los participantes sujetaban una pelota anti estrés, la cual debían apretar con cada inhalación y soltar con cada exhalación. Los participantes llevaban puesto un guante conectado a varios electrodos adheridos al antebrazo, con los que se obtenían medidas de tiempo y fuerza en cada apretón.

Imagen del guante y los electrodos que los participantes del estudio llevaban durante el experimento.

La coordinación entre la respiración y el apretón de la pelota refleja un proceso gradual durante el cual los apretones se hacen cada vez más descoordinados y débiles, a veces no llegando ni a ocurrir. A su vez, un EEG registra la actividad de las ondas vinculadas a la transición vigilia – sueño.

La combinación de las medidas conductuales (timing y fuerza de los apretones) y fisiológicas (cambios en actividad cerebral) se utilizan para calcular lo que los autores han denominado «probabilidad de vigilia», una estimación del grado de vigilia en el que el sujeto se encuentra durante la transición al sueño.

Uno de los criterios diagnósticos para identificar el comienzo del ciclo de sueño es la caída de la actividad en las ondas alfa. Los resultados del estudio, además de demostrar ser un método más preciso que las técnicas actuales, muestran diferencias en la forma de dormirse, dado que varios sujetos fueron capaces de mantener una actividad de apretones normal hasta varios minutos después de la ausencia de actividad en las ondas alfa. Concretamente, hasta darse el incremento de las ondas theta y delta. Esto sugiere que es el aumento en la actividad de estas dos ondas, más que la ausencia de las ondas alfa, lo que determina el cese de la respuesta conductual durante el inicio de la fase de sueño.

_

_

Referencia

Prerau MJ, et al. Tracking the Sleep Onset Process: An Empirical Model of Behavioral and Physiological Dynamics. PLoS Computational Biology, 2014; 10 (10): e1003866. doi: 10.1371/journal.pcbi.100386

Quake 2: ¿cómo ayuda al cambio de paradigma en el estudio de la memoria?

La memoria es uno de los dominios cognitivos que más atención ha recibido por parte de la neurociencia. Aun así, todavía quedan preguntas básicas sobre su funcionamiento que no se han podido responder. Una de ellas, por ejemplo, es cuál es el mecanismo por el que recordamos algunas cosas y otras no. Se sabe que el componente emocional juega un papel importante, así como el balance hormonal, el sueño, etc. Pero estos son factores que funcionan a nivel de sistema y conducta. Se conoce menos qué es lo que pasa a nivel neuronal para que, efectivamente, unos eventos se almacenen y otros no. A pesar de que existen muchas teorías, los datos sobre el funcionamiento neuronal que las apoyen no son tan extensos.

Sin embargo, un estudio pionero llevado a cabo Daniel A. Dombeck y Mark E.J. Sheffield, de la Northwestern University, sugiere un posible mecanismo que responde a la pregunta anterior. Al parecer, las dendritas tienen mucho que decir.

Esquema clásico de la anatomía de una neurona

En el hipocampo existen cientos de miles de células de lugar (neuronas esenciales para el sistema de localización del cerebro). Estas células fueron descubiertas en la década de los 70 del siglo pasado (su descubridor ha ganado el Nobel por ello hace poco), pero ha sido en los últimos años cuando ha sido posible demostrar cómo estas neuronas representan el mapa de dónde nos encontramos en cada momento en nuestro entorno.

«Las “células de cuadrícula”, junto con otras células del córtex entorrinal que reconocen la dirección de la cabeza del animal y el límite de la habitación, forman redes con las células de lugar del hipocampo. Este circuito constituye un sistema de posicionamiento completo, un GPS interno, en el cerebro. El sistema de posicionamiento en el cerebro humano parece tener componentes similares a los del cerebro de rata.» (Foto: Nobel Foundation)

Los autores del estudio construyeron su propio microscopio láser de alta resolución, con el que observaron in vivo la actividad de las células de lugar del hipocampo de varios animales mientras recorrían un laberinto virtual construido a partir de un escenario del Quake II.

Los investigadores encontraron que, a diferencia de lo que se piensa actualmente, la actividad del cuerpo neuronal (soma) y sus dendritas puede ser diferente. Observaron que, aunque el soma esté activado, las neuronas no forman un recuerdo si las dendritas están inactivas durante el evento. Esto sugiere que el soma representa lo que se está experimentando, mientras que las dendritas ayudan a codificar esa experiencia como un recuerdo.

Gracias a la monitorización de la actividad, Dombeck  y Sheffield mostraron que las dendritas no están siempre activadas cuando lo está el soma. La creencia dominante en este campo es que las tareas de procesamiento y almacenamiento que lleva a cabo la neurona están conectadas: cuando se procesa información, también se almacena, y viceversa. El estudio de la Northwestern aporta pruebas en contra de esta visión clásica de la función neuronal.

Imagen del Quake II

El cerebro está continuamente expuesto a una gran variedad de estímulos y eventos. Estos necesitan se representados mediante la actividad neuronal, pero no todos los eventos pueden recordarse después.  Por ejemplo, ir al trabajo un día cualquiera requiere la actividad de millones de neuronas, pero resulta difícil recordar qué ocurría exactamente a mitad de trayecto hace una semana. Según la visión clásica, ese procesamiento implica un almacenamiento, pero es posible recordar el camino sin recordar los detalles del entorno específico. Así pues, según los autores la actividad de las neuronas representa la experiencia sobre dónde se encuentra uno en su entorno, pero que esta experiencia se almacene o no depende de la actividad de las dendritas de esa neurona.

Este descubrimiento aporta luz sobre cómo el cerebro representa el mundo que nos rodea, y apunta a las dendritas como una posible diana terapéutica en la lucha contra los problemas de memoria en enfermedades como el Alzheimer. La alteración en el sistema de localización cerebral (el GPS interno) es uno de los primeros síntomas de la EA, con múltiples pacientes incapaces de encontrar el camino de vuelta a sus casas, por ejemplo. Comprender cómo las células de lugar y sus dendritas almacenan este tipo de memorias podría ayudar a encontrar nuevas formas de tratamiento.

_

_

Referencia

Sheffield MEJ, Dombeck DA. Calcium transient prevalence across the dendritic arbour predicts place field properties. Nature, 2014; doi:10.1038/nature13871