Acerca de Ernie

Nací en Castellón, me crié en Vitoria, volví a Castellón, me fui a Murcia y volví a Castellón. Soy licenciado en Psicología por al Universidad Jaume I de Castellón y doctor por la Universidad de Murcia. Y aunque ya no se es doctor en nada, mi perfil encaja en el campo de la neurobiología conductual.

Sobre adicción y dopamina

En esta entrada voy a tratar algunas cuestiones clave relacionadas con la adicción desde el punto de vista neurobiológico (más) y clínico (menos). Además, aprovecharé para intentar aclarar algunos conceptos sobre la dopamina, la recompensa, etc., que suelo ver muy repetidos. Podéis considerarlo un refrito de entradas anteriores, con una visión algo más actualizada. Aviso que será denso (hay un tl;dr preparado al final). Pero espero que os resulte interesante :). Y antes de comenzar, tengo que hacer especial mención a las Profesoras Mercè Correa Sanz y Marta Miquel, de la Universitat Jaume I de Castellón, cuyas clases sobre neurobiología de la adicción siguen resultando todavía hoy un grandísimo recurso pedagógico.

Voy a ir por partes. Me parece importante explicar cómo funciona y responde el cerebro en un estado de normalidad, antes de pasar a la conducta patológica. Así pues, expondré qué es la motivación, cómo funciona en el cerebro y cómo es el proceso por el que se establece una conducta motivada. Por último, intentaré vincular y poner brevemente en contexto la problemática de la adicción en relación a la comida. No entro en detalle en las vías dopaminérgicas, ni en los mecanismos moleculares y celulares. Quizá en otra entrada, si hay quorum.

(El resumen está tras esta sección)

________________________________________________________

Empecemos.

Para sobrevivir y adaptarnos al medio, los mamíferos tenemos que aprender qué es positivo y negativo para nosotros. Este aprendizaje es el que permite establecer contingencias. Es decir, asociaciones predictivas entre la aparición de estímulos (por ejemplo, un agujero en el suelo), nuestras respuestas (saltarlo, rodearlo, descender y luego trepar…), y las consecuencias derivadas de nuestras acciones (si lo salto, no llego y me caigo; si lo rodeo, tardo más, pero es más seguro; si desciendo, es costoso, cuesta trabajo y no sé si podré volver a subir). Así aprendemos qué entorno es más provechoso, qué estrategia es más eficiente para superar obstáculos y lograr objetivos, cuándo es mejor realizar un cortejo para maximizar la probabilidad de copular… Conductas básicas y necesarias para la supervivencia, tanto como individuo como especie.

Esto que parece tan obvio depende del complejo mecanismo que es la motivación. En su versión más básica, la conducta motivada se entiende como un proceso con cuatro fases: activación, orientación/dirección, vigor y consumación. Todas las conductas y acciones pasan necesariamente por estas fases para llevarse a cabo: una vez se percibe el estímulo (0), se activa el organismo (1), se dirige/orienta la conducta hacia el estímulo (o en dirección opuesta) (2), se vigoriza (3) y se consuma la conducta (4). Una analogía muy sencilla es el uso del coche: primero se presenta una necesidad (ir hasta el punto X → percepción del estímulo), se arranca el coche (= activación), se orienta/dirige la marcha (= marcha atrás, hacia adelante), se aprieta el acelerador (= vigor) y se maniobra hasta llegar al destino (= consumación). Aquí es donde entra en juego la dopamina.

La dopamina (DA) es un neurotransmisor/neuromodulador con múltiples funciones, pero con especial importancia en el control del movimiento y en la conducta motivada. En el ejemplo anterior, la DA es la gasolina del coche. Sin gasolina, el coche no arranca, no avanza y no puede mantenerse en marcha hasta llegar al punto X. Curiosamente, con lo que no tiene que ver la DA es con las maniobras (con la consumación de la conducta). Muchos hemos jugado de niños a conducir y mover el volante de un coche aparcado.

Se ha repetido hasta la saciedad (incluso en artículos en revistas de alto impacto) que la DA es el neurotransmisor del placer y que es causante de la recompensa. Sencillamente, esto no es así. La DA es el neurotransmisor de la novedad y la importancia. Cuando un estímulo es novedoso o se evalúa como suficientemente importante, se libera DA, independientemente de que ese estímulo sea agradable (cause placer) o no. El estrés, por ejemplo, libera DA porque los estresores son estímulos importantes para el organismo, en tanto que se debe de lidiar con ellos. Y aunque parezca una tontería, esto es importante para entender la diferencia entre un refuerzo y una recompensa.

Un refuerzo es todo estímulo capaz de aumentar la probabilidad de que la conducta realizada para su obtención se repita en el futuro en circunstancias similares. Una recompensa es todo estímulo capaz de generar un cambio fisiológico acompañado de una experiencia subjetiva positiva y/o placentera. El primero tiene que ver con la liberación de DA en la corteza prefrontal, en el estriado y en el núcleo accumbens (Figura 1).

Figura 1. Circuito de refuerzo (cerebro humano). Vías dopaminérgicas principales en la motivación.

La segunda tiene que ver con la liberación de opioides en el núcleo accumbens, el pálido ventral, y el núcleo parabraquial de la médula (Figura 2).

Figura 2. Circuito de recompensa (cerebro de roedor). Centros hedónicos donde la liberación de opioides genera la sensación subjetiva de placer.

Siguiendo con la analogía, un refuerzo sería una ruta que permite llegar antes al destino, y una recompensa una ruta que sea bonita y con buena vista. Como véis, aunque relacionados, estos fenómenos no son lo mismo, conceptual ni neurobiológicamente. Por ejemplo, en estudios en los que se entrena a animales a recorrer un laberinto para obtener una bebida azucarada (reforzante y recompensante), los animales tardan más en llegar y se esfuerzan menos en recorrer el trayecto cuando se les administra un antagonista de DA… Pero no hay diferencias a la hora de consumir la bebida. Los refuerzos pueden ser naturales (comida), artificiales (dinero), positivos (ganar algo), negativos (eliminar un malestar)…

Ahora que ha quedado claro esto (espero =b), veamos por qué es importante en el contexto de la adicción.

La adicción es una alteración del aprendizaje que conlleva la aparición y mantenimiento de una motivación tóxica. Muy resumidamente, cuando una persona desarrolla adicción a una sustancia, o una adicción conductual (ludopatía, juego online, sexo…), se suceden tres fenómenos: alteración en los procesos de motivación, progresión hacia el hábito y desregulación emocional.

Por una parte, el aprendizaje de asociaciones entre el estímulo, la respuesta y el contexto se fortalecen progresivamente hasta el punto en que (1) la mera presencia de esas claves son capaces de activar la respuesta, y (2) la respuesta se automatiza. Es decir, se genera de forma automática ante la presencia de esas claves, con una pérdida muy significativa del control sobre la conducta. Esto es lo que se conoce como hipofrontalidad, o la pérdida de la capacidad de la corteza prefrontal para regular la conducta y no ceder ante la impulsividad, poder frenar la compulsión, evaluar las consecuencias negativas de nuestras acciones en el futuro, valorar el pro y el contra de determinada decisión, etc.

Así, se puede observar una secuencia similar a esta:

Consumo inicial (se libera DA en las vías de refuerzo por la novedad) → Consumo ocasional (se libera DA en las vías de refuerzo y se comienza a generar asociaciones entre estímulo-respuesta-ambiente; se crean contingencias) → Consumo frecuente (se fortalecen las asociaciones de contingencia y los estímulos reforzantes adquieren cada vez más valor; esto se conoce como la sensibilización de incentivo) → Hábito / Automatización de la conducta (ya no se necesita el reforzador, sino que la mera presencia de claves que predicen su aparición es capaz de activar la conducta de forma automática debido a una pérdida de la capacidad prefrontal para regular la conducta).

Esta fase se caracteriza por una sensibilización al incentivo: el fortalecimiento progresivo de las asociaciones provoca que el valor y la importancia atribuída al estímulo y sus claves asociadas sea cada vez mayor. Al mismo tiempo, el repertorio conductual de la persona se ve reducido para priorizar y ejecutar únicamente las conductas necesarias y más eficientes para lograr el reforzador.

El segundo fenómeno que ocurre es que se genera una tolerancia a la recompensa que produce el reforzador. A diferencia de lo que ocurre con la DA y el refuerzo, la experiencia subjetiva de placer se reduce con la exposición progresiva. De ahí que cada vez se consuma más cantidad para lograr el mismo efecto. Así pues, se dan dos procesos simultáneos y contrapuestos que se promueven recíprocamente agravando la situación. Esto lo explica muy elegantemente el modelo de wanting y liking de Robinson y Berridge, actualmente el paradigma principal que explica la adicción (Figura 3).

Figura 3. Modelo de adicción Wanting/Liking (Robinson & Berridge, 2002). Se observa cómo con el progreso del consumo y su cronicidad, se producen dos fenómenos simultáneos que se fortalecen recíprocamente en un ciclo continuo.

Por último, se produce un deterioro en la capacidad de regulación emocional. Debido a las neuroadaptaciones provocadas durante el desarrollo de la adicción, el cerebro pasa de un estado de control prefrontal, inhibición de la conducta y evaluación afectiva de los estímulos adaptativa, a un estado en el que la corteza prefrontal está inhibida y la amígdala y el hipocampo (principales iniciadores de la respuesta emocional) se ven hiperactivados. En este momento, la ausencia de la droga es un potente estresor, lo que desata un estado de afecto negativo. Este malestar, unido a la presencia de las claves contextuales asociadas a la respuesta adictiva, inician un proceso de anticipación y preocupación caracterizado por pensamientos recurrentes acerca del consumo. A esto es a lo que se denomina cravings, que es algo muy distinto a un antojo, en el caso de la comida. Llegado a este punto, la persona busca el consumo para paliar el estado de malestar en el que se encuentra, favoreciendo de nuevo el ciclo de sensibilización y tolerancia.

________________________________________________________

tl;dr: la conducta motivada es un mecanismo adaptativo para la obtención de estímulos provechosos y la creación de memorias y aprendizajes (asociaciones) relacionados con su obtención. Dos componentes de la motivación son el refuerzo (que consolida los patrones de conducta necesarios para obtener el estímulo y aumenta la probabilidad de repetir la conducta) y la recompensa (respuesta subjetiva placentera como premio a la obtención del reforzador). Aunque relacionados, son fenómenos distintos y diferenciables, tanto conceptualmente como en sustrato neurobiológico, especialmente en relación al papel de la dopamina. Las drogas de abuso y cierta clase de estímulos son capaces de reclutar los mecanismos de la conducta motivada. La repetición y exposición constante a estos estímulos propicia la aparición de una motivación tóxica por la que el repertorio conductual se ve reducido únicamente a aquellas acciones que permiten conseguir ese estímulo. Se entra en un ciclo en el que el estímulo es cada vez más reforzante y menos recompensante, lo que empuja a una búsqueda mayor para obtener los efectos iniciales. Cuando se entra en una fase de abstinencia, se dispara un estado de afecto negativo y malestar que lleva a la recaída, reiniciando y reforzando el ciclo.

Los cambios ocurridos en estos tres procesos (alteración de la motivación, automatización de la conducta, desregulación afectiva) explican lo que se observa en aquellas personas que no son capaces de restringir su conducta y, a pesar de conocer las consecuencias negativas de sus acciones, las realizan igualmente. Sin embargo, no todo es tan sencillo. Si esto fuera así, cualquier persona con un consumo recurrente de alguna sustancia se volvería adicta. La verdad es que existen muchas variables que intervienen en el desarrollo de la adicción. Al final, como me enseñaron a mí y ahora intento explicar siempre yo en clase, uso (de drogas) no es abuso, y abuso no es adicción. No existe una causalidad lineal entre el consumo abusivo de una sustancia y la adicción a la misma. Del mismo modo que tampoco es cierta la hipótesis de la escalada de consumo. Entonces, ¿por qué unas personas se hacen adictas y otras no? ¿Se puede ser adicto a estímulos como la comida, los videojuegos, o el sexo?

Lo primero que hay que decir aquí es que el criterio para diagnosticar un trastorno adictivo es estadístico. Es decir, cuando se acumula un cierto número de datos consistentes en todo el mundo con unos patrones similares, se puede considerar la categoría de trastorno. La cuestión es qué lleva a un individuo a concentrar tanto su energía y su conducta en una serie de objetivos tan limitados.

Gracias a los estudios de varios grupos en adicción y al establecimiento de políticas antiprohibicionistas, en los últimos años ha surgido una ola de pensamiento que pone un gran énfasis en el contexto y en la necesidad de conexión, en la importancia de crear sentido en la vida de las personas. Respecto al contexto, es totalmente cierto: es determinante para adquirir una adicción. Dos ejemplos muy ilustrativos son la guerra de Vietnam y las estancias Erasmus.

Durante la guerra de Vietnam, los soldados destinados allí consumían opio (heroína) de forma abusiva y recurrente. Tanto era así que surgió un serio debate en EE.UU. sobre qué hacer con el problema de los adictos que iban a tener cuando volvieran todos esos soldados de la guerra. La realidad es que la inmensa mayoría de personas que volvió no mostró ningún síntoma de abstinencia, ni recaída, ni cravings. De manera similar, cuando uno se va de Erasmus es bastante frecuente tener fiestas con grandes cantidades de alcohol día sí, día no, durante varios meses. Suficiente como para desarrollar un alcoholismo considerable. Sin embargo, al volver a la situación normal, estos patrones cesan y no hay signos de alcoholismo en la gran mayoría de casos.

Ambos ejemplos ponen de manifiesto dos cosas: una, el contexto es clave. Dos, cuando existen alternativas, la droga no es tan atractiva ni tiene tanto poder sobre la conducta. Según esta visión, la adicción (y más ampliamente, conductas desadaptativas autodestructivas similares) surgen como una necesidad de paliar una situación de desasosiego y falta de alternativas que se perciben como posibles. Cuando a los adictos se les ofrecen alternativas, se les dota de recursos y posibilidades para desarrollarse personalmente, se les proporciona una red de estabilidad social y afectiva, el consumo desaparece o se reduce significativamente.

Johann Hari es uno de los más populares defensores de esta idea. Podéis ver su famosa charla TED pinchando aquí.

Existe polémica a la hora de reconciliar ambas visiones, una más cientificista y otra más social. Personalmente, me parece que ambas son compatibles. Puesto en el contexto de la comida, por ejemplo, se podría decir que las personas adictas a la comida encuentran en determinados alimentos un alivio al malestar emocional que puede estar causando determinada serie de factores en su vida. La falta de recursos para lidiar con la fuente de esos problemas de forma eficiente propicia el fortalecimiento de las asociaciones entre comida y ausencia de malestar (refuerzo negativo), dando lugar con el tiempo a las neuroadaptaciones que facilitan la sensibilización de incentivo y la automatización de la conducta. Igualmente, del mismo modo que existen drogas más potentes que otras, existirían alimentos con mayor capacidad de recompensa, siendo a su vez más reforzantes, lo que aumentaría la probabilidad de elección de estos alimentos sobre otros.

De todas formas, estoy todavía por convencer en dos puntos al respecto. Uno, no he visto estudios convincentes que demuestren una respuesta neurobiológica similar, ni cambios a largo plazo a nivel neuronal comparables a los observados con drogas de abuso. En mi opinión, no se puede hablar de adicción si no existen estos cambios. Dos, cuando se come, se ingieren multitud de nutrientes. No está nada claro que la adicción a la comida se produzca a uno o varios de estos componentes. No hay claridad acerca de la dosis, de la composición, de la combinación…; el azúcar parece el más plausible de momento, pero creo que todavía hay demasiadas lagunas metodológicas para afirmar que el azúcar puede causar adicción. Entre otras cosas, porque la gente que refiere adicción al azúcar no consume azúcar a cucharadas, sino productos azucarados (refrescos, dulces…), lo que devuelve al punto inicial de la problemática.

En fin, gracias por aguantar el chaparrón. Espero que os haya resultado interesante. Si queréis debatir, preguntar o que expanda más alguna cuestión, ¡haré lo posible! =)

¿Qué es la parabiosis?

Según el contexto, la parabiosis puede hacer referencia a diferentes cosas. Etimológicamente, proviene del griego «para» («al lado, fuera de») y «biosis» (vida). Vendría a ser algo así como «vida al lado de», o «vida fuera de». Un ejemplo de parabiosis en la naturaleza es, por ejemplo, los siameses.

Hace algunos años comenté un artículo en el que utilizaban esta técnica y mostraban una mejora en el deterioro cognitivo asociado a la edad y la plasticidad sináptica. En esta ocasión, voy a entrar en detalle en el procedimiento.

En el terreno que nos interesa, la parabiosis se refiere a un procedimiento por el cual se busca la unión de dos organismos (generalmente a través del sistema vascular) de modo que la vida o función de ambos pueda proseguir tras la intervención. Utilizo función intencionadamente, con la imagen del ser de dos cabezas y un cuerpo.

Two_Headed_Tom
Un cuerpo. Dos cabezas. No creerás lo que sucedió después

Bromas (y no tan bromas) a parte, la parabiosis no es nada nuevo. Los primeros estudios experimentales se realizon a finales del s. XIX 1 y desde principios del siglo pasado se realiza de forma recurrente. Con la experiencia se observó que el éxito del procedimiento era mayor cuanto más parecidos eran los sujetos (edad, sexo, compañeros de jaula…). Sin embargo, no se pueden poner vallas al campo, y los investigadores empezaron a preguntarse qué pasaría al exponer el entorno de un sujeto al de otro, totalmente distinto. La exploración de esta idea en el campo de la obesidad dio como resultado uno de los descubrimientos más importantes, en mi opinión, derivados del uso de esta técnica: la leptina. Aunque la hormona no se identificó hasta años después, fueron varios experimentos con parabiosis entre ratones obesos y no obesos lo que movió este hallazgo.

La popularidad de la técnica cayó en las décadas posteriores, aunque en los últimos años parece que vuelve a estar de moda. Especialmente en el campo del envejecimiento. De manera similar a lo que Coleman, Friedman y amigos 2,3 realizaron con ratones obesos y no obesos, a principios de la década pasada Weissman, Wagers y Rando, un trío calavera de la Universidad de Stanford, observaron una regeneración de tejidos en ratones viejos a partir de células madre provenientes de ratones jóvenes 4,5,6.

Parabiostudies

Número de estudios con parabiosis, por década (Fuente: PubMed)

Los estudios de heterocronicidad comenzaron a mostrar cómo factores derivados del entorno fisiológico de ratones jóvenes eran capaces de activar rutas moleculares en células madre hepáticas, musculares, etc., de parabiontes viejos y provocar regeneración de tejidos y proliferación de estas células madre. Esto fue tremendo, ya que hasta entonces la visión general era que el envejecimiento y el daño tisular asociado a la edad eran causados por un daño intrínseco en la célula. Los experimentos con parabiosis retaron esta idea y propusieron que los cambios y deterioros asociados al envejecimiento están influidos significativamente por el entorno molecular que rodea y baña al tejido.

Más allá del avance sobre órganos periféricos, la parabiosis ha servido para descubrir algunos aspectos muy interesantes del sistema nervioso central. En el estudio que refería al principio, Villeda y colaboradores lograron una reducción del deterioro cognitivo asociado a la edad, un incremento en la densidad dendrítica y una mejora de la plasticidad sináptica en el hipocampo de ratones viejos unidos a otros más jóvenes. En concreto, los resultados de estos estudios otorgan un papel especial a la activación de CREB en esta estructura.

Existen pocos estudios que exploran el comportamiento de la microbiota con esta técnica 7,8. Sin embargo, dada la validez en el estudio del cerebro y la creciente acumulación de datos que invitan a pensar en la existencia de una conexión entre el cerebro y la microflora intestinal, no es descabellada la posibilidad de aplicar este procedimiento en el estudio del eje intestino cerebro. Con total seguridad, es algo que eventualmente sucederá. Cuánto queda para ello es otra cuestión. Aunque algo me dice que no falta mucho.

Para finalizar, quería dejar clara mi opinión sobre una cosa. La parabiosis no es agradable; no es agradable de realizar, observar, ni interactuar con el resultado. Es útil, válida y bajo las condiciones de experimentación adecuadas no es necesariamente más traumática que otros protocolos ampliamente utilizados. No obstante, siempre, como con cualquier otra técnica, pero quizá especialmente en este caso, su uso debe estar unequívocamente justificado.

Eje intestino-cerebro (II)

En la entrada previa traje parte del trabajo de revisión de Hooks et al. acerca de las limitaciones y aspectos metodológicos más controvertidos del estudio del EIC. Los autores diferenciaban dos grandes categorías. La primera, los métodos de estudio más populares, fue el tema de la anterior entrega. La segunda, en la que me centro hoy, concierne la conducta y la estadística. Boy oh boy.

La conducta y las diferencias de perfil hormonal son los temas de interés principal de los veinticinco artículos más citados sobre el EIC. Si se analizan en conjunto, se puede extraer fundamentalmente cinco focos de atención:

  1. Eje neuroendocrino de la respuesta de estrés. Aproximadamente la mitad de los Top 25 exploran la activación del eje neuroendocrino en la respuesta al estrés, la consecuente producción de glucocorticoides y la relación con otras variables biológicas y conductuales 1,2,3.
  2. Afecto-emoción: ansiedad. Aproximadamente la mitad de los Top 25 se centran en la ansiedad como variable de observación 4,5.
  3. Alteraciones del afecto: depresión. Aproximadamente un cuarto se centra en el estudio de la depresión y su relación con el EIC (REFS). Curiosamente, es sobre la relación entre la depresión y el EIC donde la evidencia parece más sólida 6,7.
  4. Trastornos del desarrollo/Espectro autista. Dos artículos del Top 25 investigan la relación entre la microbiota intestinal y el autismo, en modelos animales 8,9.
  5. Cognición. Seis artículos de entre los más citados sobre el EIC estudian algún tipo de cognición 10,11.

Es especialmente importante mencionar que la mayoría de estos Top 25 no aportan justificación suficiente para el uso de una u otra metodología a la hora de poner a prueba sus hipótesis. Ocasionalmente afrontan los potenciales factores de confusión que podrían comprometer la interpretación de los resultados y limitan la generalización de los hallazgos. Y esto parece la norma tanto para las pruebas bioquímicas como conductuales, ya que en pocas ocasiones se discute la idoneidad de los paradigmas utilizados. El argumento más extendido suele ser la referencia a trabajos previos en que se utiliza tal o cual técnica. Lo que en absoluto es garantía de nada. Y en particular cuando se trata de estudios preclínicos. Un ejemplo es la memoria. Existen diferentes tipos de memoria y diferenets paradigmas para estudiarla, siendo unos más eficientes que otros. Así pues, si la hipótesis que se plantea tiene como centro la memoria espacial, es mucho más adecuado (en mi humilde opinión) utilizar un test como el laberinto de Morris que el reconocimiento de objeto, por más común que sea este último.

Sin embargo, quizá el aspecto más importante a tener en cuenta desde el punto de vista metodológico es la translacionalidad. Es decir, la capacidad de extrapolar los resultados obtenidos en modelos animales a humanos. Cuando se estudia la conducta, esto es algo que ha de determinarse y tenerse en cuenta con cuidado. Desafortunadamente, en el campo de estudio del EIC la translacionalidad parece obviarse más de lo que se debería.

Por último, los autores de esta revisión llaman la atención sobre la estadística utilizada para analizar los datos en la mayoría de estos artículos. Las dos pruebas más comunes son el ANOVA de un factor y la prueba t de Student, incluso en diseños en que se introducen más de una variable independiente (en cuyo caso habría que utilizar un ANOVA de dos o tres factores). En el contexto de la investigación biomédica es poco frecuente encontrar resultados que se deban únicamente a un factor o variable. En el estudio del EIC, por ejemplo, cuando se estudia el estrés, ya son como mínimo dos factores que se han de analizar de forma independiente primero (estrés, microbiota), además de su posible interacción después.

A parte, no sólo en este Top 25, sino en otras muchas publicaciones, el uso que se hace de las pruebas estadísticas deja bastante que desear; interacciones que no se siguen de un análisis post hoc, pruebas post hoc sin existir una interacción significativa, pruebas post hoc inadecuadas para el diseño que se ha planteado, falta de correcciones, falta de información sobre el tamaño del efecto… Más aún, algunos artículos utilizan los resultados negativos como un argumento a favor. Por ejemplo, que la falta de resultados significativos tras una intervención sobre la microbiota es un argumento a favor del potencial efecto de la misma 12. Pero este es un tema diferente y que sin duda afecta a más campos que el EIC.

En resumen, los problemas que acucian a la investigación del EIC se pueden agrupar en los siguientes:

  • Afirmaciones sobre causalidad y determinismo.
  • Afirmaciones sobre los beneficios que la evolución de la microbiota ha significado para el el estado del cerebro.
  • Afirmaciones sobre la evolución paralela y simbiótica en el desarrollo y los periodos críticos.
  • Problemas con los probióticos.
  • Problemas con la comunicación de la ciencia.

Para mí no cabe duda de que en los próximos años el estudio del EIC aportará resultados e información con potencial para cambiar totalmente lo que se conoce acerca del comportamiento… Pero también creo que antes de que eso ocurra habrá mucho que trillar. La clave, como en tantas otras ocasiones, es contar con buenos diseños, buenas preguntas y procesos de análisis adecuados para minimizar el riesgo de publicar artículos poco rigurosos.

Pero esto es solo una opinión, vaya.

 

 

Eje intestino-cerebro (I)

En los últimos 10, 15 años se ha presenciado un incremento reseñable en el número de estudios centrados en el eje intestino-cerebro (EIC). Me extrañaría alguien que esté leyendo esto y no lo haya oído nombrar, al menos.

En cualquier caso, como generalmente conviene empezar con un contexto concreto, recordaré que el EIC es «la conexión, directa e indirecta, entre el sistema nervioso central y el conjunto de microbios (bacterias) que pueblan el tracto digestivo (microbiota) y que considera los efectos que la actividad de uno ejerce sobre el otro.»  ̶  Esto entre comillas y en cursiva no es una cita, es mi propia definición. Por tanto, podéis criticarla.

Numerosos trabajos demuestran la importancia de la microbiota en problemas como la obesidad 1, la diabetes 2, la colitis ulcerosa y el síndrome del intestino irritable 3 y muchas otras patologías asociadas al metabolismo energético y la alimentación. Sin embargo, hasta cierto punto esto es poco sorprendente. Al fin y al cabo, alimentación e intestino son conceptos intrínsecamente relacionados.

pesobacteria

(Imagen del The New Yorker. El pie de foto es propio)

Lo que levanta más curiosidad es saber que estudios preclínicos demuestran que esa misma flora bacteriana es crítica para el desarrollo del sistema nervioso central y ciertas conductas complejas 4. Así como que existe una relación directa entre la salud de la microbiota y la depresión 5, la ansiedad 6, o la esquizofrenia 7. Esta conexión entre las tripas y el cerebro no es tan intuitiva y mucha gente se sorprende (cuando no te miran con cara de que les estás vacilando). Sin embargo, a pesar de lo extraño que pueda parecer, resulta igualmente importante cuando se abordan cuestiones de salud en general y de salud mental en concreto.

A pesar de que este campo ha estallado recientemente, la cantidad de información acumulada es digna de mención. Así pues, hoy se sabe que los mecanismos fundamentales por los que se establece la conexión intestino-cerebro son especialmente dos: neuroendocrino y neuroinmune, a través de dos rutas de comunicación principales: el nervio vago y la circulación sistémica.

Pero bueno, hablar de microbiota en general es como no hablar de nada. No sólo porque existe una increíble variabilidad y variedad entre especies, géneros, cepas… sino porque parece que los números no son tan dramáticos como se ha comunicado. Los primeros estudios informaban de una relación de 10:1 entre células bacterianas y “humanas” (por cada célula humana, 10 microbios) 8. Y afirmaban que sólo las bacterias que se hayan en el tracto digestivo representan entre 1 y 1,5 kgs del peso corporal. Estudios más recientes 9,10 han demostrado que eso no es así; que la relación está más cerca del 1:1, o 1:2, y que el peso de las bacterias totales en el cuerpo es de 200 gr. aproximadamente, en una persona de 70 kgs.

pesomicrobiota

Distribución del número y peso de distintos tipos de células en el cuerpo (Fuente: Sender et al., 2013)

Pero esta cantidad es, como decía, increíblemente variada. No obstante, en lo que respecta a la microbiota intestinal, son tres los filos más importantes: Firmicutes (65% de la población), Bacteriodetes (23% de la población) y Actinobacteria (5% de la población); el 7% restante lo completan microbios de más de 127 géneros distintos. Aunque, de nuevo, esta relación puede cambiar no sólo en función de los hábitos de vida, sino en la misma persona con el paso del tiempo.

Cambios en la microbiota con el paso del tiempo (Fuente: Ottman et al., 2012)

Se ha demostrado que estos bichitos son capaces de alterar los niveles de neurotransmisores, bien mediante la producción directa o a través de la regulación de precursores. Resulta sorprendente que más del 90% de la serotonina del cuerpo se genera en el intestino. También que, por ejemplo, las Bifidobacterium infantis pueden elevar el nivel de triptófano (precursor de la serotonina) en plasma, lo que influye en niveles de serotonina a nivel cerebral 11.  Por su parte, otras como la Bifidobacterium spp. o algunas Lactobacillus pueden producir GABA, acetilcolina y dopamina 12. No está claro que estos neurotransmisores puedan cruzar la barrera hematoencefálica y alcanzar el cerebro, pero también existen receptores de estas moléculas en tejidos periféricos, con sus respectivas funciones.

Uno de los productos principales del metabolismo bacteriano son los ácidos grasos de cadena corta (SCFAs, por sus siglas en inglés). Estas moléculas (también de moda) están implicadas en la homeostasis y el metabolismo energético, y pueden modular las funciones del tejido adiposo, hepático y musculoesquelético 13.

La investigación del EIC es un campo de rápido crecimiento. Presenta importantes implicaciones para comprender cómo funcionan el cerebro y la conducta humanas.

Básicamente, la investigación se basa en manipular las bacterias del intestino para desvelar conexiones entre estas y la función cerebral normal (cognición, emoción, aprendizaje…) o patológica (ansiedad y depresión, autismo, adicción…).

Se han emitido múltiples afirmaciones acerca de la naturaleza causal de la relación entre la microbiota y la conducta humana. Desvelando estas relaciones, la investigación del EIC pretende aportar nuevas explicaciones sobre la salud mental, así como sobre potenciales vías de tratamiento.

Hasta ahora, no ha habido mucho examen a los métodos utilizados en este campo de investigación. Y cuando lo ha habido, se ha limitado principalmente a reiterar lo recogido en la vasta cantidad de revisiones sobre el tema. Esto ha propiciado un entorno en el que la mayoría de las personas, tanto académicas como no, ha aceptado de forma abierta y con ausencia de crítica los descubrimientos en este campo. Tanto los medios de comunicación globales como los medios especializados se centran en el potencial de la intervención dietética en la salud mental, asumiendo relaciones causales entre una y otra, cuando en la mayoría de las ocasiones no necesariamente se da el caso.

En su revisión «Microbiota-Gut-Brain research: a critical analysis», Hooks, Konsman y O’Malley abordan esta problemática y examinan, de forma crítica y rigurosa, los distintos métodos utilizados en las principales investigaciones sobre el EIC, así como la validez de los argumentos utilizados para concluir causalidad en las relaciones descubiertas en estos trabajos. Por ejemplo, estos autores llaman la atención acerca de que los neurotransmisores producidos por las bacterias en el intestino carecen de las características necesarias para ser designados como tales 14.

En concreto, estos autores se centraron en analizar dos categorías: (1) métodos de análisis de microbioma y (2) pruebas conductuales y estadística.

Con respecto al primer punto, los autores hacen hincapié en que la abundancia relativa y la diversidad de la microbiota puede variar de forma considerable entre personas. La dificultad que esto representa a la hora de interpretar diversas y complejas secuencias de datos hace que la inmensa mayoría de estudios sean de asociación. La correlación a estos niveles puede aportar información muy interesante, sobre todo a la hora de plantear hipótesis, pero no se puede establecer una causalidad entre la abundancia de determinada cepa y estados patológicos mediante este tipo de estudios.

Otra cuestión a tener en cuenta es que las muestras a partir de las que se estudia la microbiota en estos trabajos es materia fecal. Si ciertamente contiene microbios, es lícito cuestionar hasta qué punto representan la realidad de la flora intestinal.

De los 25 artículos más citados sobre el EIC se puede extraer cuatro grandes categorías de métodos de análisis.

  1. Comparación del comportamiento de roedores convencionales con el de roedores libres de gérmenes (Germ Free, GF) o libres de patógenos específicos (Specific Pathogen Free, SPF). Este método se utiliza en estudios en los que se realiza un transplante de microbiota de roedor convencional a uno GF o SPF y se observa si la conducta cambia 15.
  2. Estudios de roedores convencionales tratados con antibióticos. En estos estudios muchas veces se compara el comportamiento de ratones estándar antes y después de la administración de antibióticos. O entre dos grupos, uno con y uno sin antibióticos. También se utiliza este método para examinar la influencia de la recolonización posterior 16.
  3. Estudios en el que se administra proe/probióticos o placebo a la muestra (humanos o animales). Aquí, los más populares son los Bifidobacterium sp. y los Lactobacillus sp. No obstante, es importante mencionar que muchos de estos trabajos no son estudios de microbiota per se, dado que no incluyen un análisis posterior de esta.
  4. Estudios estándar de microbiota en que se evalúa las manipulaciones experimentales de la flora bacteriana. Muchos de los estudios de este tipo utilizan técnicas antiguas, lo cual limita todavía más la claridad de la interpretación de los datos.

A pesar de los avances en la tecnología de análisis, parece que la investigación en microbiota (y en concreto la investigación del EIC) continua con un claro problema de causalidad. Sin embargo, como otras veces se ha demostrado, «cuando el río suena, agua lleva». Y eso es independiente del hype del tema. No olvidemos que este campo es relativamente nuevo, por lo que no sólo hay que ser paciente con la tecnología, sino también con el desarrollo de conceptos, ideas y diseños capaces de contemplar la complejidad de la relación entre las bacterias intestinales y el cerebro.

Hasta aquí hoy. En la próxima entrega me centraré en el segundo punto mencionado antes: la conducta y la estadística.

Sistema endocanabinoide y preferencia alimentaria

En otras entradas he hablado sobre el sistema endocanabinoide (SEC), así que no me extenderé demasiado en presentaciones. Sólo un poco de memoria para recordar que este sistema lo componen principalmente los receptores CB1 y CB2, los ligandos anandamida (AEA) y 2-araquidoniglicerol (2-AG), y las enzimas que los degradan: la FAAH, que convierte la AEA en ácido araquidónico y etanolamina, y la MAGL, que convierte 2-AG en ácido araquidónico y glicerol.

Para terminar, mencionar que ambos receptores están presentes tanto en el cerebro como en tejido periférico: tejido adiposo, hígado, tracto gastrointestinal…

Figure1

Monteleone y colaboradores describieron recientemente el papel que juega el SEC en la respuesta hedónica asociada a la comida 1,2. Un aspecto fundamental en el establecimiento de la preferencia es la palatabilidad, una característica frecuente en los alimentos dulces. Así pues, parece que los endocanabinoides aumentan la sensibilidad al dulce a través de la acción de los CB1 3,4. Es más, lo hacen en función de la concentración, sin afectar, además, a otros sabores.

No obstante, en una entrada anterior ya se dejó entrever que el sabor, la experiencia y la respuesta al dulce es muy compleja. La palatabilidad no sólo depende de receptores en la lengua, sino también de hormonas endocrinas y paracrinas, como la leptina, la CCK, la insulina o la galanina 5. Es más, se ha descrito que los endocanabinoides actúan de manera opuesta a como lo hace la leptina en la sensibilidad al dulce 6, lo que sugiere un diálogo entre el SEC y esta hormona en lo que respecta a la ingesta y la homeostasis energética a través de mecanismos centrales y periféricos.

También es interesante comprobar que variaciones genéticas en diferentes elementos del SEC se han relacionado con la preferencia alimentaria 7; así como con otros fenómenos relevantes en la conducta alimentaria, como la sensibilidad a la recompensa 8, los atracones 9 y los cravings 10.

Por ejemplo, se ha demostrado que en el polimorfismo rs1049353 del CNR1, gen que codifica para el CB1, las mujeres con obesidad portadoras de la variante GG muestran una ingesta de grasa saturada y colesterol superior a las portadoras de las variantes GA o AA 11. También, que los portadores del alelo C (CC o CT) en el polimorfismo rs806365 del mismo gen presentan un riesgo mayor de resistencia a la indulina, diabetes tipo 2 y enfermedad coronaria 12.

Pero no todo es alegría. A diferencia de estos trabajos centrados en la ingesta o en umbrales de sensibilidad, la relación entre variaciones del CNR1 y diversos marcadores de obesidad es bastante controvertida en lo que a literatura se refiere. Así algunos estudios describen una asociación con marcadores antropométricos de reisgo cardiovascular, como la adiposidad abdominal 15, la masa grasa intramuscular 16, o el riesgo de desarrollar síndrome metabólico 17; mientras que otros no hallan ninguna relación significativa 18,19,20.

cnr1

Localización y representación del CNR1 (locus 6q15) (Fuente: Hutchison et al., 2008)

También se ha descrito que en el polimorfismo rs2023239 de este mismo gen, la presencia de un alelo G aumenta la reactividad en la COF y el CCA cuando se presentan estímulos asociados a marihuana, en comparación con individuos portadores de variantes A (GA o AA) 21. Si os interesa saber porqué esas dos regiones son especialmente relevantes en este contexto, podéis (re)leer «Dulce, respuesta hedónica y preferencia alimentaria».

¿Por qué menciono la relación entre polimorfismos del SEC y el abuso de drogas? Bueno, el craving por el dulce se ha comparado con la abstinencia provocada por la retirada de drogas recreacionales y existen multitud de estudios que comparan la respuesta cerebral al azúcar con la respuesta a diversas sustancias de abuso 22. De hecho, la repetición del triplete AAT en el CNR1 se asocia con una predisposición al abuso de cocaína 23, pero también a una reducción en el umbral de dulzor en mujeres con obesidad 24. Curiosamente, catorce, pero no trece repeticiones de este alelo se han asociado con atracones y purgas en mujeres con anorexia 25. Sería pues interesante comprobar si este polimorfismo también afecta concretamente a los cravings por la comida… Pero esa es una cuestión todavía por avanzar.

Por su parte, el tipo de comida consumida puede también afectar al SEC. Un estudio en 2013 demostró cómo la suplementación continuada con DHA y EPA redujeron niveles de AEA en sangre 26. También se ha visto que dietas altas en ácidos grasos ω-6 pero bajas en ω-3 aumentan los niveles tanto de AEA como 2-AG en el cerebro. Esto resulta relevante dado que una de las características de la dieta occidental actual es un desequilibrio significativo en favor del ω-6 con respecto al ω-3 27.

Merece la pena mencionar también otros experimentos que describen cómo el consumo de una comida favorita, habitualmente alta en azúcar libre y grasas, se relaciona con una concentración elevada de 2-AG en sangre en sujetos sanos, que, además, correlaciona con un nivel elevado de grelina 28. Esto sugiere que directa o indirectamente, la comida palatable tiene un efecto sobre la concentración de endocanabinoides. Más resultados que apoyan esta idea provienen de estudios que muestran un aumento en la concentración de 2-AG cinco minutos antes del consumo de una comida favorita, lo que apunta que este lípido podría utilizarse como biomarcador de preferencia alimentaria en la fase cefálica de la ingesta. Más aún dado que la exposición a alimentos amargos no provoca un incremento de 2-AG (ni AEA, ya que estamos). Aumento que, además, está directamente relacionado con la puntuación de preferencia subjetiva 29.

En conjunto, esto da pie a pensar que los mecanismos de anticipación implicados en la fase cefálica de la ingesta de alimentos palatables (particularmente, dulces) están relacionados muy de cerca con la modulación del SEC. Lo cual tiene sentido, si se tiene en cuenta el papel fundamental de este sistema en la regulación de la ingesta y la homeostasis energética, tanto central como periféricamente 30. Y no menciono «periféricamente» de casualidad. Un dato muy interesante es el descubrimiento de la coexistencia de receptores T1R2/T1R3, CB1 y Ob-Rb (receptores de leptina) en diferentes tejidos 31.

Esto es especialmente relevante porque invita a pensar que no sólo a nivel central se gestiona la sensibilidad al dulce, sino también a través de sistemas implicados en procesos metabólicamente relevantes en el resto del organismo, como la regulación emocional (sí, la regulación emocional también se promueve desde señales periféricas) o la inflamación, aspecto clave en el desarrollo y mantenimiento de alteraciones como la obesidad o la diabetes tipo 2.

fgure 3

Receptores CB y T1R2/T1R3 están implicados en el desarrollo de inflamación crónica de bajo grado, clave en la patogénesis de la obesidad y la diabetes tipo 2.

Es más, existen resultados muy llamativos que indican que el consumo de azúcar tiene cierto efecto analgésico, el cual se ve atemperado en personas con obesidad 32. De nuevo se observa la relación entre el consumo de dulce y la regulación del ECS, dado que este último es uno de los sistemas principales en la respuesta al dolor.

Sin embargo, a pesar de la enorme cantidad de investigación que se ha realizado y se realiza actualmente sobre la relación entre el SEC y la respuesta al dulce y la comida palatable, no hay muchos estudios que se centren, por ejemplo, en explorar las consecuencias metabólicas de bloquear o inhibir estos receptores T1R2/T1R3. O sobre la interacción entre el SEC y otros agentes importantes relacionados con la percepción del sabor y la preferencia alimentaria, como polimorfismos del GNAT3. Y sería interesante, creo yo, dada la evidencia precedente y la importancia que pueden tener para la salud conocer mejor la forma en que funcionan y se relacionan estos sistemas entre ellos en algo tan complejo como la preferencia.

Genética de la percepción y preferencia por el dulce

Si superasteis la entrada anterior, quedaría claro que muchos factores juegan un papel importante en la preferencia alimentaria y la experiencia del gusto. En la entrega de hoy me centraré en uno de esos aspectos: la genética.

El primer paso para percibir un sabor depende de la actividad de receptores en la lengua. Sin embargo, como ya comenté, la experiencia del sabor puede variar entre personas. Sí, el aprendizaje y las expectativas son importantes, pero también los polimorfismos en los genes que codifican las proteínas que conforman esos receptores. Estos polimorfismos dan como resultado diferencias en el umbral de sensibilidad a distintos sabores y, por tanto, a la adquisición de preferencias.

En el caso que nos ocupa, el dulce, se sabe que los genes T1R presentan multitud de variaciones, sobretodo en comparación con otros genes. De hecho, T1R2 se sitúa en el percentil 90 de genes con mayor número de polimorfismos identificados, lo que dio la primera pista hacia la hipótesis de que podía estar asociado con variaciones en la percepción del dulce 1.

En efecto, parece que las personas con la variante CC del alelo son mucho más sensibles al dulce que las personas con la variante TT o CT 2. Son estas personas, en comparación con los portadores de CC, quienes muestran una preferencia mayor por lo más dulce 3,4.

tas1r3-bien

Dos cambios de nucleótido en la región promotora de TAS1R3 son suficientes para reducir la transcripción de T1R3 (Fuente: Mainland & Matsunami, 2006)

Aunque esto pueda parecer contraintuitivo, tiene sentido: en las personas menos sensibles, se necesitaría más nivel de dulce para alcanzar la misma respuesta gustativa/hedónica. Por lo tanto, niveles de dulzor que pueden resultar desagradables a portadores CC, pueden resultar agradables/tolerables a personas con otras variantes.

Estos estudios parecen indicar que la genética influye poderosamente en la forma en que las personas percibimos el dulce. Curiosamente, varios estudios encuentran una asociación directa entre las distintas variantes del TAS1R y el consumo de alimentos o productos ricos en azúcares, especialmente entre personas con sobrepeso y obesidad.

Otro de los polimorfismos más estudiados es el de GNAT3, que codifica la α-gustducina. Esta proteína es relevante porque participa en la cascada de señalización del dulce, y explica hasta el 13% de variabilidad en la sensibilidad a este sabor 5,6.

Diversos estudios realizados en niños y adolescentes aportan más pruebas en favor de esta idea. Por ejemplo, Pepino y Mennella demostraron que niños a los que se exponía a agua azucarada a una edad temprana mostraban posteriormente preferencia por esta bebida 7. Curiosamente, estos mismos autores demostraron después que, en niños, esta preferencia ocurría principalmente con la combinación de azúcar y sal, más que con azúcar solamente 8.

Estos estudios apuntan a una importancia capital de las variantes genéticas en la modulación de la conducta. Sin embargo, también parece que una sobrexposición temprana a alimentos dulces puede influir en el aprendizaje y los procesos asociativos comentados en la entrada anterior 12. Es interesante mencionar en concreto un estudio que relaciona polimorfismos en TAS2R38* con el contenido de azúcar añadido a la proporción de calorías consumidas por los  niños, pero no con el total  de calorías consumidas en conjunto 13. La tabla a continuación recoge algunos de los estudios más significativos al respecto.

Referencia

Gen

Variante

Población de estudio

Preferencia por dulce

Eny et al. 2010 TAS1R2 Ille191Val Sobrepeso y obesidad Mayor consumo de dulce
Ramos-Lopez et al. 2016 Val191Val Hombres y mujeres adultos Mayor consumo de carbohidratos. Hipertriglidericemia
Haznedaroglu et al. 2015 TAS1R2, TAS1R3 rs35874116

rs307355

Niños (7 a 12 años) Riesgo moderado (rs307355) y severo (rs35874116) de desarrollo de caries en portadores de T
Nie et al. 2005 rs307355 Niños (7 a 12 años) Mayor preferencia por sucrosa aquellos con variación en TAS1R3 que con variación en TAS1R2
Fushan et al. 2009 TAS1R3 rs307355

rs35744813

Hombres y mujeres (raza caucásica, asiática y negra) portadores T muestran menor sensibilidad a la sucrosa
Mennella et al. 2012 rs35744813 Madres e hijos Diferente umbral de preferencia en madres (no hijos) portadoras de CC/CT
Mennella et al. 2014 Madres e hijos Mayor preferencia por menos dulce en portadores CC
Joseph et al. 2015 TAS1R3, TAS2R38 rs35744813

rs713598

Niños y adultos La sucrosa enmascara el amargo en portadores CC y CT, pero no en TT
Pawellek et al. 2016 TAS2R38 rs713598 Niños Portadores de AP/PP consumen más alimentos dulces
Mennella et al. 2005 AP, PP Madres e hijos Niños (no adultos) portadores de AP/PP mayor preferencia
Keskitalo et al. 2007 Cromosoma 16p11.2 Adultos en normopeso Diferente umbral de percepción

 

Todos estos trabajos adquieren una importancia especial en el contexto actual. Demuestran que la exposición temprana afecta a la preferencia posterior. Es más, cambios en el gusto y en la preferencia que se dan en la infancia y durante la adolescencia están fuertemente relacionados con las propiedades reforzantes de los alimentos 9. Un panorama nada halagüeño cuando se considera que la base de la alimentación de la mayoría de la población (especialmente, niños) está compuesta por productos procesados repletos de sal y azúcares libres 10. Alimentar a bebés y niños con productos atiborrados de azúcar, como preparados alimenticios, papillas, potitos, cereales, etc., es comprar boletos para una lotería cuyo premio es un mayor riesgo de desarrollar obesidad.

anibes

Fuentes alimentarias de energía (%) en niños (77,3% acumulado), adolescentes (74.1% acumulado) y adultos (76.5% acumulado) españoles (Fuente: Estudio ANIBES 2016)


* El gen TAS2R38 codifica para receptores que captan sabor amargo. La relación entre el dulce y el amargo es muy cercana, ya que generalmente los umbrales de percepción y preferencia por estos sabores varían con la edad y están inversamente relacionados

La fosfatasa quemagrasa

Gracias al tuit de @GodblessNutri me enteré de la publicación de un artículo muy, muy interesante: «A Hypothalamic Phosphatase Switch Coordinates Energy Expenditure with Feeding». El título ya invita, ¿que no?

Publicado en Cell Metabolism a principios de agosto, apenas ocho meses tras su envío para publicación, el trabajo liderado por Garron Todd y Tony Tigains, de la Universidad de Monash en Australia describe un mecanismo por el cual la grasa beige se transforma en parda tras la ingesta, pero en blanca tras el ayuno. Este equilibrio entre gasto y almacenamiento de energía parece estar provocado por la acción de una fosfatasa, que activa y desactiva el receptor de insulina en las neuronas orexígenas y anorexígenas del hipotálamo mediante, parece ser, la participación del sistema glucocorticoide.

Pero vayamos por partes.

Existen tres tipos de tejido adiposo: blanco, beige y pardo (o marrón). El tejido adiposo blanco es lo que generalmente conocemos como grasa. Es el tejido que almacena energía debajo de la piel en forma de triglicéridos y, en muchos casos, alrededor de los órganos internos. Es la grasa relacionada con el riesgo de obesidad y enfermedad cardiovascular.

El tejido adiposo marrón emite calor. Es el de la termorregulación. El que se activa con el frío. Ante la necesidad de aumentar la temperatura, esta grasa se activa y genera calor. En adultos es prácticamente inexistente y su función es muy limitada hoy en día. Dado el control que tenemos sobre nuestro entorno, no necesitamos que este sistema sea prioritario. Hoy tiramos de abrigo.

El tejido adiposo beige es interesante. Se genera a partir de la grasa blanca por activación del sistema nervioso simpático 1. Esto es tremendamente llamativo, ya que sugiere que según las circunstancias, el tejido adiposo beige se puede comportar como la grasa parda, generando energía; o quedarse más cerca de su origen y comportarse como la grasa blanca, almacenando energía 2.

¿Hasta aquí bien? Vale, sigamos.

marronblancaparda

El balance energético es lo que determina que una persona pierda o gane peso. Después entran diversos factores en la ecuación para hacer esto más o menos eficiente, más o menos saludable. Pero es un principio aceptado. No obstante, algo que se debe tener en cuenta y mucha gente no entiende es que no existe un peso ideal. El organismo no entiende de pesos ni números. Entiende de salud. Entiende mantener al cuerpo en un rango en el que las funciones vitales no se ven comprometidas y en el que el rendimiento se vea garantizado. Este rango es lo que se conoce como set point.

Aunque existe cierta discrepancia con respecto a la existencia del set point 3,4, aquellos que defienden su existencia afirman que, aunque no es inamovible, sí está ajustado genéticamente. Esto quiere decir que cada persona se mueve en un rango de peso con extremos a partir de los cuales resulta mucho más difícil ganar o perder. Como ejemplo personal, mi set point se sitúa entre 71 y 74 Kgs, aproximadamente.

La cuestión del rango sobre una cifra concreta tiene sentido. Dado que no todos los días uno come lo mismo, ni gasta la misma energía. El hambre es el mecanismo guardián que vela por el bienestar del set point. Si un día no se ha gastado mucha energía, el hambre posiblemente se vea reducida, o la saciedad disparada más fácilmente, de forma que la ingesta diaria sea coherente con el gasto energético. Por el contrario, si un día se está muy activo, el hambre aumenta y facilita una ingesta mayor para recuperar la energía invertida en la actividad del día.

Todo esto se sabía ya. Es más, ya se había sugerido que la actividad opuesta de las neuronas  neuronas POMC, activadas por la insulina y la leptina, y las neuronas neuronas orexígenas AgRP/NPY, activadas por la grelina, podían contribuir al mantenimiento del balance energético mediante la “marronización” del tejido adiposo blanco 5.

POMCPCPTP

En el núcleo arqueado se encuentran las neuronas orexígenas (AgRP/NPY) y anorexígenas (POMC) que, mediante la señalización de diferentes hormonas (grelina, leptina, insulina) mantienen un equilibrio en su actividad, a través del cual se regula la ingesta.

Todd y Tigains dan un paso más y aparecen con una propuesta para explicar el mecanismo por el que esto sucede, y demuestran que esta regulación funciona de manera fluctuante por la acción de la fosfatasa TCPTP, la cual inactiva el receptor de insulina en las neuronas POMC del hipotálamo.

Observaron que la actividad de esta enzima era significativamente mayor en las neuronas de ratones que habían sido expuestos a un periodo de ayuno en comparación con aquellos que habían tenido acceso a comida.

Es más demuestran que esta fluctuación ocurre únicamente durante la fase activa de los ratones. Lo que vendría siendo nuestro “de día“. A esta conclusión llegaron al comparar los resultados del grupo sometido a ayuno con aquel cuya ingesta estaba disponible, ad libitum, a partir de las 11 a.m., hora en que se fijó el inicio del ciclo de inactividad (los ratones son mamíferos nocturnos).

Otro de los hallazgos interesantes de este trabajo es la identificación de los glucocorticoides como agente activador de la TCPTP. Durante los análisis, los autores se dieron cuenta de que la concentración de coricosterona (cortisol, en humanos) estaba significativamente elevada en ratones con ayuno, pero que volvía a niveles normales tras la ingesta (fenómeno observado también en humanos). Lo que hicieron para explorar este resultado fue, por un lado, inyectar dexametasona a los animales y comprobar la actividad de la TCPTP. Por otro, administrar un antagonista de receptores glucocorticoides previo exposición al ayuno. Habían logrado demostrar que el ayuno activa la TCPTP,  por lo que si esta activación era mediada por glucocorticoides, la inhibición de estos receptores debería resultar en una ausencia de activación, a pesar del ayuno.

Y así fue. A ver si lo consigo aclarar con este esquema…

POMCPCPTPmechan

Tras la ingesta, la corticosterona en sangre disminuye manteniendo la fosfatasa TCPTP inactiva, la insulina se adhiere a sus receptores en las POMC y AgRP/NPY y se inicia la cascada de señalización que inicia la conversión del tejido beige en tejido pardo. De esta forma, mientras se tiene energía pospandrial disponible, se gasta energía en forma de calor. Durante el ayuno, en cambio, la corticosterona libre activa la TCPTP, lo que inhibe la activación de los receptores de insulina y envía una señal al sistema nerivoso simpático para que comience a almacenar energía, no vaya a ser que el ayuno se prolongue.

Si has llegado hasta aquí, quizá te preguntes «bueno, entonces, si comer inhibe la expresión de TCPTP y fomenta la conversión de tejido beige en tejido pardo, cómo es posible que la gente que come más de lo necesario engorde?». Buena pregunta.

La primera respuesta es que la obesidad es una condición multifactorial. La segunda la indican Dodd y sus colegas al demostrar que en ratones con obesidad, el interruptor TCPTP está anulado y se mantiene activo de forma constante. De este modo la desfosforilación del receptor de insulina deja de ser cíclica, lo que impide el inicio de señal para la “marronización” del tejido beige y evita el equilibrio entre consumo y gasto de energía necesario para mantener el peso.

Si te interesa el mundo de la salud, la nutrición, etc., posiblemente hayas escuchado por ahí alguna vez eso de que la insulina es la causante de la obesidad. Bueno, al menos yo sí lo he escuchado. Y lo he visto argumentado varias veces, con más o menos rigor. Habrá que ver si este mecanismo es similar en humanos, pero no deja de ser irónico que sea la misma insulina la que, al parecer, regule la señalización que permite aumentar el gasto energético. Siempre es emocionante ser testigo de nuevos descubrimientos sobre cómo funciona el organismo. Pero sobre todo, lo que este tipo de trabajos vuelve a confirmar es que todo es mucho más complejo de lo que parece.