Archivo de septiembre, 2020

COMPUTACION BIOLOGICA o el por qué una BACTERIA y un SUPER COMPUTADOR son tan parecidos

por Mario Aguilar Herrador

Alan Turing, matemático y criptógrafo británico, el cual es considerado uno de los padres de la informática, ya flirteaba en los años 50 con la posibilidad de utilizar ordenadores para entender mejor los procesos biológicos complejos. En 1959, Richard Feynman dio una visionaria charla describiendo la posibilidad de construir ordenadores que era “submicroscópicos”.
Desde el desarrollo de modelos matemáticos sobre la morfogénesis (proceso por el cual un organismo adquiere una forma determinada); hasta la inteligencia artificial, la cual pretende imitar las capacidades cognitivas de la mente humana, nacen dos ramas del conocimiento que, a pesar de sonar igual, no lo son tanto: la biología computacional y la computación biológica.
La biología computacional es una ciencia que recurre a herramientas informáticas para ayudarnos a entender los sistemas biológicos, mientras que la computación biológica estudia cómo utilizar elementos de naturaleza biológica para procesar y almacenar la información, así como inspirar nuevos algoritmos replicando los mecanismos de la evolución biológica.
Si pensamos en términos de un ordenador, el término que nos atañe utiliza como hardware las proteínas o el ADN para llevar a cabo cálculos, escribir y leer la información. Si pensamos en el software, destacamos tres principales fuentes de inspiración:
- La población. Tanto una bacteria como una persona no se comporta igual si está sola o aislada que si está en un grupo reducido o entre una multitud. La computación biológica se inspira en este concepto para entender y predecir el comportamiento de las poblaciones formadas por individuos del mismo tipo que tienen la capacidad de interactuar.
- El conexionismo. Propone que los procesos mentales que explican nuestras capacidades cognitivas, así como nuestro comportamiento, se pueden describir por unidades sencillas iguales entre sí. Biológicamente, estas unidades son las neuronas, que establecen sinapsis entre sí, enfoque que ha servido para el desarrollo de redes neuronales artificiales.
- La emergencia. O, dicho de otra forma, un organismo es más que la suma de sus partes. Las neuronas, por sí solas, no tienen consciencia, pero es el conjunto de todas las reacciones desencadenadas por la comunicación sináptica el que hace que la consciencia emerja de nuestra mente.
Aunque aún estamos lejos de que los ordenadores resuelvan problemas biológicos por nosotros, la nanobiotecnología ha impulsado esto fuertemente. Esta ciencia es la que permite ensamblar proteínas con estructuras funcionales más complejas. De esta forma, se han puesto en marcha los primeros ordenadores biológicos que tienen la capacidad de realizar cálculos manipulando el ARN (el primo hermano del ADN) de una bacteria. Expuesto así, lejos queda el silicio y el coltán de nuestros microprocesadores y móviles, pero no es ningún tipo de prestidigitación. Esta tecnología consiste en diseñar un circuito biológico manipulando moléculas de ADN como si fuera un circuito digital, implementando las mismas operaciones lógicas que llevan a cabo los procesadores de silicio convencionales.

Figura 1. Ejemplo de un circuito genético. En este caso, la resolución permite a la bacteria evaluar todas las posibilidades del grafo dirigido para encontrar un camino Hamiltoniano (a). Los constructos representan respuestas posibles al problema planteado, siendo el constructo ABC la única solución posible al obtener las secuencias de los genes RFP y GFP en orden y orientación correcta (b).

Una vez este circuito biológico está preparado, se introduce en forma de plásmido en una bacteria Escherichia coli mediante un proceso de transformación. Esta bacteria, es la bacteria modelo por antonomasia, ya que ha sido ampliamente caracterizada y estudiada, y las que se utilizan en laboratorios son idénticas a las que viven n nuestro intestino. El ADN donde está nuestro circuito biológico atraviesa la pared bacteriana mediante el proceso de transformación y llega al interior, donde se lee y se traduce a una molécula de ARN mensajero (ARNm) las cuales serán traducidas de nuevo por un orgánulo celular denominado ribosoma, fabricándose así la proteína de interés. La miga del asunto es que las proteínas se sintetizan en función de una entrada concreta (entrada estándar) y la proteína, será la salida (salida estándar), simulando el comportamiento de un transistor, y formando una puerta lógica entre el ARNm y el ribosoma, el cual es el dispositivo electrónico mínimo de nuestros microprocesadores que es capaz de llevar una operación o calculo.
Alexander A. Green y su grupo consiguió utilizar esta tecnología para poner a punto un circuito biológico constituido por cinco puertas lógicas OR, otras cinco AND y dos NOT. No es el mejor procesador del mercado (ni está cerca) pero por algún sitio se empieza para conseguir un ordenador biológico capaz de llevar a cabo procesos complejos.
La computación biológica, en el ámbito del hardware es una promesa a largo plazo, pero en el caso del software, la cosa es muy distinta. Las herramientas más interesantes proponen sistemas basados en el aprendizaje de poblaciones o en algoritmos genéticos. Sin embargo, mucho más notable es el caso de Tierra, una simulación desarrollada en 1991 por el biólogo Thomas Ray, en la que un ordenador simulado ejecuta una serie de programas informáticos que se replican, están sujetos a mutaciones y compiten entre sí por los recursos del ordenador. Esto es similar a la lectura y traducción de un genoma bacteriano a proteína. El resultado es un proceso evolutivo totalmente controlable y fácilmente  analizable. El propio Ray despertó cierta polémica al armar que los programas informáticos que evolucionaban en su simulación no imitaban procesos biológicos, sino que directamente podían considerarse como seres vivos a todos los efectos. A pesar de esto, los algoritmos genéticos no son la mejor opción para resolver cualquier problema. Su estrategia provoca que en ocasiones no nos entreguen la solución óptima, que nos devuelvan una solución que no es satisfactoria, o, incluso, que su coste en recursos y tiempo de computación sea inasumible.

Figura 2. Esquema publicado por Alexander Green y sus colaboradores. En él, se muestra un sistema de computación in vivo usando dispositivos “ribocomputadores”. Las moléculas de ARN son la entrada y la proteína es la señal, es decir, en función del tipo de molécula de ARN que se introduzca, la lógica hará que se formen estructuras determinadas que harán que se expresen proteínas diferentes. Por ejemplo, la puerta NOT, implica que, si se tiene el ARN en un sentido y su complementario, se desactivará la expresión del gen de la proteína.

Como respuesta a esto, tenemos las redes neuronales artificiales, que son una de las herramientas con mayor potencial que se utilizan para implementar sistemas de aprendizaje automático. Su funcionamiento se parece al de nuestro cerebro y la complejidad reside esencialmente en las operaciones que puede llevar a cabo cada neurona artificial a partir de los datos de entrada que recibe, como están conectadas las neuronas y como interaccionan entre ellas. Lo más asombroso es que no necesitan ser programadas de forma explícita, es decir, que son capaces de aprender por si misma a partir de un conjunto de datos de entrada que se suministren.
De hecho, esto ya se está poniendo en marcha, existiendo varias inteligencias artificiales que son capaces de ponerle nombre y apellidos a un diagnóstico, comparar los resultados de una prueba con otros y plantear la situación de cada persona para poder aplicar medicina personalizada. En relación con esto, Hirasawa y colaboradores entrenaron una red neuronal con 13.548 endoscopias de cáncer gástrico y para evaluar su precisión de diagnóstico, se analizaron otras 2296 endoscopias en 47 segundos, diagnosticando correctamente 71 de 77 lesiones por cáncer gástrico, es decir, un 98.6% de acierto.
Si bien es cierto que las inteligencias artificiales son imparables en el campo del diagnóstico al llegar donde no llega un facultativo, aún hay mucho por recorrer ya que una IA pierde el factor humano de poder pasar consulta a un paciente y la psique robótica está aún muy lejos de ser una realidad.
Lo que si es cierto, es que la computación biológica forma parte de la solución a muchos problemas que golpean nuestra sociedad actual, ya que, se podrían fabricar microprocesadores orgánicos y fácilmente biodegradables si quien hace todas las operaciones lógicas es una población de E.coli y no un trozo de silicio y otros materiales contaminantes. ¿Será posible en un futuro mandarle un mensaje de texto a tus amigos a través de una bacteria? ¿Soñó Turing con poder programar en una E.coli?

BIBLIOGRAFÍA
1. Ray, T.S., Evolution, ecology and optimization of digital organisms. 1992, Citeseer.
2. Adleman, L., Molecular computation of solutions to combinatorial problems. Science, 1994. 266(5187): p. 1021-1024.
3. Lenski, R.E., et al., The evolutionary origin of complex features. Nature, 2003. 423(6936): p. 139-44.
4. Baumgardner, J., et al., Solving a Hamiltonian Path Problem with a bacterial computer. Journal of Biological Engineering, 2009. 3(1): p. 11.
5. Green, A.A., et al., Complex cellular logic computation using ribocomputing devices. Nature, 2017. 548(7665): p. 117-121.
6. Hirasawa, T., et al., Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images. Gastric Cancer, 2018. 21(4): p. 653-660.

Etiquetas:
Categorias: Sin categoría

Células CAR-T aplicadas con éxito en la Comunidad de Madrid

.0Alfredo Rus

El pasado 9 de enero, la Consejería de Sanidad de la Comunidad de Madrid dio a conocer que se había tratado a 41 pacientes de cáncer hematológico empleando técnicas avanzadas de terapia génica y terapia celular, abundando el empleo de la tecnología de células CAR-T. Los centros responsables de estos tratamientos Unidad Infanto-juvenil del Hospital La Paz y el Servicio de Hematología del Hospital Gregorio Marañón, ambos coordinados por la Unidad de Terapias Avanzadas de la Comunidad de Madrid.

Los resultados de estos tratamientos parecen ser de lo más halagüeño, ya que de los 41 pacientes tratados hasta la fecha seis han alcanzado ya una remisión total. Si bien es aún pronto para evaluar con contundencia la eficacia de estos tratamientos, lo positivo de estos ensayos ha impulsado la financiación de nuevos ensayos con células CART-T en los hospitales 12 de octubre y Niño Jesús de Madrid a los que desde principios de este año 2020 se han añadido otros cinco: La Princesa, Ramón y Cajal, Clínico San Carlos, Puerta de Hierro y la Fundación Jiménez Díaz.

Pero, ¿en qué consiste exactamente el tratamiento con células CAR-T? Los medicamentos CAR-T se basan en la modificación genética de linfocitos T con el fin de hacerlos capaces de responder y atacar  a células cancerosas. Su nombre, proviene de Chimeric Antigen Receptor, y resulta en sí mismo bastante revelador de su naturaleza. Los linfocitos T se extraen y aíslan de la sangre del propio paciente y, posteriormente, son modificadas genéticamente para que integren en su genoma un gen que codifica para este Receptor Antigénico Quimérico, el cual es diseñado por ingeniería genética y que confiere al linfocito la capacidad de reconocer al antígeno tumoral CD-19 (en el caso de las leucemias y linfomas como el de estos 41 pacientes, es la proteína CD-19 la que se expresa en la superficie de los linfocitos B alterados por el cáncer). Estas células pueden reconocer y eliminar células tumorales sin necesidad de la participación del TCR, teniendo el receptor CAR, en su parte citosólica, elementos que permiten que se produzca señalización sin necesidad de una coestimulación por CD80/CD86.

Los tratamientos con CAR-T se encuentran en la actualidad indicados para el tratamiento de leucemias linfoblásticas agudas (ALL), siendo 2 los tratamientos aprobados a día de hoy por la FDA.

Salta a la vista, por tanto, que le tratamiento con Car-T es una combinación de terapia celular (ya que no se trata de un fármaco), inmunoterapia (puesto que son las propias células inmunes las que, en definitiva, atajaran el tumor) y de terapia génica (pues es indispensable la modificación genética de células inmunes y el diseño de todo un gen). Como tal, el tratamiento con CAR-T requieres de un total de ocho etapas bien diferenciadas:

Aféresis: se extraen por leucaféresis los glóbulos blancos de la sangre del paciente, esto incluye, lógicamente, los linfocitos T.

Reprogramación celular: se introduce un plásmido o vector retroviral en las células T que contiene el gen que codifica para el receptor CAR, permitiéndoles así reconocer las células cancerígenas junto con cualquier otra célula que exprese el antígeno específico a destruir.

Expansión: se cultiva y multiplican las células T ya modificadas y son enviadas de vuelta al hospital.

Preparación del paciente: se administra quimioterapia previa al paciente para prevenir un posible rechazo del organismo y asegurar así  la proliferación en él de las células CAR-T. En definitiva, se pretende ayudar al cuerpo a que acepte las células reprogramadas.

Infusión: se administran por vía intravenosa los linfocitos T modificados.

Ataque de las células: si todo evoluciona correctamente, una vez en el torrente sanguíneo las células CAR-T cargan contra las células B y comienzan a destruirlas.

Monitorización: en un 30-40% de los caso cabe la posibilidad de que se manifiesten efectos adversos, ya que estos linfocitos, son capaces de permanecer en el sistema inmune, con lo que se crea memoria inmunológica y pueden terminar reaccionando ante cualquier linfocito B, no solo los cancerosos.

Seguimiento y resultados. 

Como se ha comentado, existe una posibilidad, nada desdeñable, de que aparezcan efectos secundarios por el tratamiento con CAR-T , siendo el más frecuente de ellos el síndrome de liberación de citoquinas, el cual se produce a consecuencia de la gran expansión que sufren las células CAR-T una vez han detectado su antígeno, expansión esta que a su vez provoca la liberación masiva de citoquinas a la sangre lo que puede resultar en síntomas que van desde una mera fiebre al fallo multiorgánico, si bien existen fármacos para mantener esta respuesta adversa bajo control. Otro efecto secundario destacable es la toxicidad neurológica que puede abarcar desde una cefalea a un derrame cerebral, aunque esta suele derivar del síndrome de liberación de citoquinas, por lo que el tratamiento de este suele resolver esta toxicidad neurológica. Para ambos hace frente a estos escenarios y a otros derivados de una actividad descontrolada de las células CAR-T se trabaja ahora en  la tecnología GoCAR-T, que se sirve del fármaco Rimiduzid para activas las CAR-T a voluntad. 

Si atendemos a las cifras,  la tasa de respuesta al tratamiento para la ALL ronda el 90%, la de supervivencia a los dos años, el 80%; y los pacientes libres totalmente de enfermedad se aproximan a un 60%, según el Hospital Sant Joan Déu de Barcelona, uno de los centros europeos más implicados en la implementación de estas técnicas. Con todo, es importante recordar que las mayores tasas de éxito se corresponden con niños, adolescente y jóvenes menores de 25 años, por lo que aun se ha de ser prudente a la hora de juzgar la eficacia de la terapia CAR-T.

De cara al futuro, se mira con buenos ojos el desarrollo de la tecnología FasT CAR-T, que permitiría la producción rápida y a bajo coste de estas terapias para cánceres hematológicos, pasándose de los 30 días necesarios para la inyección en el paciente de las CAR-T a entorno a 10, en vista de que su manufacturación en el laboratorio es de tan solo 1 día. Además, los linfocitos anti-CD19 producidos por FasT CAR-T son más seguro y entre 20 y 40 veces más potentes que los usuales. Son todavía muchos los restos que aguardan a la tecnología CAR-T tanto para la ALL como para otras patologías pero son igualmente muchas las razones para mantener la esperanza en la lucha contra el cáncer basadas en estas técnicas.

Bibliografía:

- Comunidad de Madrid. Consejería de Salud. Acción de Gobierno. Noticias: https://www.comunidad.madrid/noticias/2020/01/09/hemos-tratado-41-pacientes-terapias-avanzadas-cancer

- Instituto Nacional del Cáncer (NIH): https://www.cancer.gov/espanol/publicaciones/diccionario/def/terapia-de-celulas-t-con-car

- Laboratorio Clinico Rafer. Terapia CAR-T, revolución en el abordaje del cáncer. Anabel Mainer | 2 Sep 2019 | Hematología: https://www.rafer.es/innovacion-laboratorio-clinico/terapia-car-t/

- Hospital Sant Joan de Déu (Barcelona). Inmunoterapia CAR-T 19.: https://www.sjdhospitalbarcelona.org/es/oncologia/inmunoterapia-cart19

- Labiotech.eu. “A Cure for Cancer? How CAR T-Cell Therapy is Revolutionizing Oncology”, Clara Rodríguez Fernández  (10/09/2019).: https://www.labiotech.eu/car-t/car-t-therapy-cancer-review/

Etiquetas:
Categorias: Sin categoría

DIEZ MINUTOS Y UNA CONSULTA RUTINARIA BASTARÁN PARA DETECTAR EL ALZHEIMER

Andrea Macías Camero y Marta Molina Alejandre

La enfermedad de Alzheimer (EA), la causa más común de demencia, es una creciente preocupación de salud mundial con enormes implicaciones para los individuos y la sociedad. Actualmente, afecta a 37 millones de personas en todo el mundo y se espera que esta cifra aumente a 131 millones en 2050.
Mientras que la gran mayoría de la EA ocurre de forma aparentemente esporádica, las mutaciones en tres genes – proteína precursora del amiloide (APP), presenilina 1 (PSEN1) y presenilina 2 (PSEN2) – causan una rara (<0,5%) forma familiar de la enfermedad de Alzheimer (FAD).

Figura 1. Recopilación de los genes que se han relacionado con la enfermedad de Alzheimer hasta la fecha.

La EA de inicio tardío probablemente se deba a una compleja interacción entre factores genéticos y ambientales, aunque se cree que aproximadamente el 70% del riesgo de la EA es atribuible a factores genéticos (Figura 1). El gen ApoE, que codifica una glicoproteína implicada en el metabolismo lipídico (Figura 2), tiene tres variantes (E2, E3 y E4) y es el de mayor riesgo de la EA esporádica: la probabilidad de desarrollar EA se incrementa entre 3 y 5 veces en presencia de un alelo ε4 y entre 15 y 20 veces en caso de homocigosis. Hasta la fecha, solo la presencia de uno o dos alelos ε4 se acepta como un biomarcador fiable y factor de riesgo para la enfermedad de Alzheimer de inicio tardío.
Este indicador de riesgo permitiría el inicio del tratamiento una vez que aparezcan los primeros síntomas y el establecimiento de intervenciones basadas en el estilo de vida de la persona que podrían prevenir o retrasar el desarrollo de la enfermedad.

Figura 2: Estructura tridimensional de la apolipoproteína E (ApoE).

Actualmente, son varias las técnicas descritas que permiten el genotipado de ApoE, incluidos análisis basados en la detección de genes, como la PCR a tiempo real (qPCR), así como métodos basados en inmunodetección, como ELISA (Enzyme-Linked ImmunoSorbent Assay). Sin embargo, todas estas técnicas plantean varias limitaciones, como la inversión en una instrumentación específica o el largo tiempo de procesamiento de las muestras, lo que dificulta su implementación en la rutina clínica de hospitales y laboratorios.
En este contexto, la compañía biotecnológica Biocross, dedicada al diseño de sistemas de diagnóstico de enfermedades neurodegenerativas, presentó su test ApoE4 Blood Marker Assay, una alternativa rápida y rentable para la determinación de ApoE4 que utiliza, al igual que otras pruebas clínicas, una muestra de sangre que no necesita ningún procesamiento adicional. Para ello, fue necesario un proceso de escalado (Figura 3).

Figura 3: Proceso de escalado de e4Risk.

La isoforma ApoE4 puede ser detectada mediante ELISA con un 100% de sensibilidad y especificidad. Sin embargo, como ya hemos comentado, presenta ciertas barreras técnicas que impiden su uso de forma rutinaria. Por ello, esta empresa describió una técnica eficaz basada en este tipo de ensayo que podía adaptarse a la inmunoturbidimetría, un proceso en el que se mide la pérdida de intensidad de la luz transmitida debido al efecto de dispersión de las partículas suspendidas en ella.
Este ensayo para la determinación de ApoE4 puede ser muy fácilmente implementado dentro de la rutina clínica, ya que utiliza la misma muestra que otras pruebas de laboratorio de rutina, sin ningún otro procesamiento, y que puede ser ejecutado en cualquier analizador químico, incluyendo los analizadores de química clínica de alto rendimiento presentes en hospitales y laboratorios clínicos.
Se llevaron a cabo ensayos para determinar la versatilidad de uso aplicada a tres analizadores químicos: Selectra Vital Junior (SpinReact, 110 tests/hora), LIDA 300 (Linear Chemicals, 300 tests/hora) y Architect c16000 (Abbott, 1600 tests/hora). Este prototipo mostró una gran sensibilidad y especificidad de detección, por lo que posteriormente se llevó a cabo la optimización de dos analizadores químicos hasta conseguir casi un 100% de precisión en el análisis (Tabla 1).

Tabla 1: Rendimiento analítico del prototipo de prueba y formulación final e4Risk en analizadores con diferente capacidad de rendimiento.

Con ello, se alcanzó el objetivo del proceso de adaptación: el uso de estos kits de detección química (e4Risk) para su implementación en análisis de rutina en el ámbito hospitalario mediante utilización de analizadores químicos, y con una precisión cercana al 100%. Esto permitiría el inicio del tratamiento una vez aparezcan los primeros síntomas y el establecimiento de intervenciones basadas en el estilo de vida de la persona que podrían prevenir o retrasar el desarrollo del Alzheimer, así como el diagnóstico de otras enfermedades neurodegenerativas (Figura 4).

Figura 4: Cronología del diagnóstico de enfermedades neurodegenerativas.

BIBLIOGRAFÍA
Lane, C.A., Hardy, J. and Schott, J.M. (2018), Alzheimer’s disease. Eur J Neurol, 25: 59-70.
Veiga, S., Rodríguez-Martín, A., Garcia-Ribas, G. et al. (2020), Validation of a novel and accurate ApoE4 assay for automated chemistry analyzers. Sci Rep 10, 2138
Hatters, Danny M., et al. (2006), Apolipoprotein

Etiquetas:
Categorias: Sin categoría