Director del Centro de Investigación Biomédica en Red de Enfermedades Raras (CIBERER)
Desde su experiencia en diagnóstico genético de enfermedades raras, ¿qué oportunidades ofrece el Big Data para mejorar la identificación de variantes genéticas y acelerar el diagnóstico de los pacientes?
JMM: Estamos en una era en la que ya trabajamos en investigación con genomas completos. Esto quiere decir que vamos a encontrarnos una media de 5.000.000 de variantes genéticas por genoma. El Big Data es fundamental para poder interpretar estas variantes, filtrarlas o categorizarlas como benignas, probablemente benignas, de significado incierto, probablemente patogénicas o patogénicas. Además, va a permitir la integración de otros datos ómicos, como la transcriptómica, la metabolómica, etc., para dilucidar si estas variantes son causantes de la enfermedad o no. Es decir, es muy importante para integrar todos estos datos.
Cada vez se habla más de la necesidad de combinar información clínica, genética y molecular en grandes bases de datos. ¿Qué barreras existen actualmente para integrar estos datos y qué avances serían prioritarios para superarlas?
JMM: Las barreras en estos momentos son fundamentalmente técnicas, y creo que una de las más importantes es la estandarización de los datos. Estamos hablando de que, dependiendo de las comunidades autónomas, hay historias clínicas en atención primaria que no pueden ser leídas en atención hospitalaria; incluso dentro de los mismos hospitales de una comunidad autónoma puede haber distintos tipos de historias clínicas, y no hablemos ya entre distintas comunidades autónomas.
Esto es clave para que los datos clínicos sean interoperables, y considero que la interoperabilidad es fundamental. Lo mismo ocurre con los datos genéticos: hay comunidades autónomas y laboratorios que los procesan con un determinado secuenciador, otros con otro; los sistemas o pipelines bioinformáticos que se utilizan también son diferentes. Esto hace que sea muy difícil lograr que estos datos sean interoperables, algo fundamental para que puedan ser compartidos y realmente sirvan para mejorar la medicina de precisión. Y luego hay un segundo plano, que es el de la protección de los datos y todos los aspectos éticos y legales que implica la cesión de datos personales. Hay que tener en cuenta que un genoma es prácticamente inanonimizable (todos tenemos el nuestro y es único).
¿Cómo cree que el uso de herramientas de análisis masivo de datos podría contribuir a una medicina más personalizada en enfermedades raras, especialmente en la interpretación de variantes de significado incierto?
JMM: Estamos hablando de variantes de significado incierto, que efectivamente son la tortura de los investigadores, de los profesionales y de los pacientes, porque generan ansiedad y no permiten dar una respuesta clara sobre si están o no relacionadas con la enfermedad. Se ha visto que la variación genética entre poblaciones es mucho mayor de lo que se pensaba. Tener datos globales, y globales me refiero no solo a España, sino internacionalmente, puede permitir ver que, quizá, una variante que aparece en nuestra población con una frecuencia muy baja y que podríamos considerar candidata a ser patogénica, en otra población es bastante más frecuente y no produce la enfermedad que presentan nuestros pacientes.
Por lo tanto, es muy importante disponer de datos de este tipo: cuanto más globales, mejor. Un ejemplo para la investigación es Genomics England, una base de datos del Reino Unido en la que pacientes y controles voluntariamente aportan todos sus datos: genómicos, de salud, y además son seguidos clínicamente. De manera que cualquier investigador que presente un proyecto aprobado tiene acceso a esos datos para su uso en investigación. Esto ha permitido, en muchos casos, encontrar nuevos genes.
Iniciativas como la Red Únicas o los espacios de datos federados buscan compartir información entre centros de referencia. ¿Qué papel considera que deben tener los laboratorios de genética y los centros de investigación en este tipo de redes?
JMM: Los laboratorios de genética, junto con la genética médica, constituyen el material sobre el cual los laboratorios de investigación y la bioinformática permitirán que estos datos sean interoperables y, de alguna manera, faciliten la medicina personalizada y de precisión. No podemos olvidar que no hacemos nada teniendo un genoma si no tenemos a qué fenotipo asociarlo, en diferentes códigos, como el código de Ontología del Fenotipo Humano (HPO), que es el que más utilizamos.
La gestión de información genómica plantea cuestiones éticas complejas. Desde su punto de vista, ¿cómo puede garantizarse el equilibrio entre la protección de la privacidad del paciente y la necesidad de compartir datos para avanzar en la investigación?
JMM: Es muy difícil anonimizar un genoma humano; es menos difícil un exoma o los datos de un panel de genes. A veces, describiendo simplemente que una persona tiene una determinada enfermedad rara, su sexo y, sobre todo, si pertenece a una pequeña población, es fácil identificar a esa persona. Para evitar esto, necesitamos, en primer lugar, la autorización del paciente: el consentimiento informado. El consentimiento informado es fundamental para que estos datos sean compartidos. En España, en general, es necesario un consentimiento específico para cada proyecto de investigación y es muy estático. Sería muy importante disponer de consentimientos informados dinámicos… y que fueran mucho más amplios, de modo que permitieran realizar no un único proyecto de investigación, sino varios.
En este sentido, en la Comunidad Valenciana hay una iniciativa llamada Crineo, que permite que el paciente dé su permiso para hacer cualquier investigación sobre su muestra, que puede ser una muestra de tumor, sangre, etc.
En el ámbito de las terapias génicas o avanzadas, ¿qué papel pueden tener los grandes conjuntos de datos en la identificación de dianas terapéuticas o en la evaluación de la eficacia y seguridad de nuevos tratamientos?
JMM: En la identificación de nuevas dianas terapéuticas, creo que la integración de todos los datos genómicos y ómicos en general (la transcriptómica, la metabolómica, etc.), junto con estudios funcionales, es fundamental, y también la farmacogenética a la hora de evaluar qué tratamiento puede recibir un paciente e incluso en qué dosis.
Muy importante, para los resultados de un ensayo clínico y el seguimiento, es la farmacovigilancia de los pacientes a los que se les administran estas terapias avanzadas, ya sea terapia génica, terapia celular, etc.
Por otro lado, los datos genómicos, ómicos en general y el Big Data, pueden ser clave para el objetivo que se persigue actualmente: encontrar terapias que no sean válidas solo para una enfermedad o un gen (que es lo que encarece este tipo de tratamientos), sino que funcionen para distintos tipos de enfermedades o genes, más enfocadas a una terapia frente a un tipo de mutación concreta. Estas son las llamadas terapias agnósticas, y es lo que se está buscando ahora para intentar abaratar este tipo de terapias. En este sentido, el Big Data puede ser muy importante.
¿Qué pasos considera esenciales para que España consolide una estrategia sólida de integración de datos genéticos y clínicos en enfermedades raras, y qué beneficios cree que podría aportar a pacientes y familias?
JMM: Como he comentado, es muy importante la estandarización: hablar todos el mismo idioma o, si no es posible, que haya una traducción entre los distintos datos clínicos: HPO, las diferentes codificaciones de enfermedades raras como CIE-10, ORPHA, etc. La estandarización debe aplicarse a todo tipo de datos genómicos: interpretación bioinformática, filtrado, etc.
Por otro lado, es esencial establecer, mediante proyectos de datos federados, una interoperabilidad en todo el territorio español. Y, por supuesto, es muy importante tener cuantos más datos mejor y, por lo tanto, facilitar de alguna manera estos consentimientos informados dinámicos y amplios, además de proteger los datos del paciente y evitar su identificación.






















