View
227
Download
1
Category
Preview:
Citation preview
Celebra la UNAM 150 años de la Biblioteca Nacional de México 3
Diseñan politécnicos software para el aprendizaje de química 6
El gato autor de un artículo en Physical Review Letters 8
Locura instantánea, un rompecabezas con cubos de colores 10
La línea de luz y sombra 21
Diseñan universitarios cimentación para suelos expansivos 26
Paula Hawkins: "Me considero feminista y creo que mi libro también lo es" 28
Carnot y los comienzos de la termodinámica (2) 32
Se inspiran en la biología para resolver problemas complejos en cómputo 34
Municipios: Arcaicos e ineficientes 36
Evolución de los sistemas nerviosos: anélidos y artrópodos 42
La ley de la frontera 45
Jóvenes mexicanos crean parche para detectar cáncer de mama 47
Contra todos los pronósticos, el israelí David Grossman ganó el premio Man Booker 51
Aislantes topológicos en sólidos amorfos 54
Contraejemplo a la conjetura de Conway sobre el ascenso a primos 56
La sabiduría de la medicina tradicional maya 57
¿Cómo funciona un grupo de investigación? 59
Adiós a las microesferas de plástico en los cosméticos 62
Conoce el centro pionero en computación y tecnología de vanguardia 67
El problema de la constante de Hubble 73
Dudas sobre las vacunas: problemas y soluciones 74
Mario García Carrasco, experto en lupus 82
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
2 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Un nuevo mecanismo de resistencia antifúngico 86
Breve historia de la desecación de los lagos del Valle de México 88
La divulgación y retos de la ingeniería 96
Turquía prohíbe la enseñanza de la evolución – pero la ciencia no es un sistema de creencias 100
CMS no observa el efecto magnético quiral sugerido por STAR y ALICE 103
Ubican nueva especie de orquídea en México 107
Miel y siropes, ¿son mejores que el azúcar? 109
En Escuela Latinoamericana rinden homenaje a Atanacio Pani 114
Duro varapalo al supuesto noveno planeta del Sistema Solar 117
La ciencia y la competencia 121
Estudian vulnerabilidad genética de huicholes 124
La regla de Bergmann 127
ADN basura: negacionismo y malentendidos (con cebolla) Segunda parte 129
Viajes estelares y un archivo extraterrestre 134
Avances en el tratamiento de las inmunodeficiencias primarias 137
Más allá del modelo estándar con Quim Matías 142
¿Qué debemos saber sobre las lesiones cerebrales? 146
El teorema de Morcom 150
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
3 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Celebra la UNAM 150 años de la Biblioteca Nacional de México
• Coloquios internacionales, un proyecto de norma para conservación de material bibliográfico y
mayor presencia nacional e internacional, son parte de los festejos
La Biblioteca Nacional de México (BNM) de la UNAM celebra 150 años de vida. Con uno de los acervos
más ricos del mundo, y de los más importantes en América Latina, este espacio universitario fomenta el
intercambio de conocimientos entre especialistas.
Su misión es integrar, custodiar, preservar y poner a disposición, para su consulta, las colecciones que
resguarda, así como realizar investigación sobre sus colecciones.
Coloquios internacionales, un proyecto de norma para conservación de material bibliográfico y mayor
presencia nacional e internacional, son parte de los festejos, informó Pablo Mora Pérez-Tejada, director del
Instituto de Investigaciones Bibliográficas (IIB).
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
4 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
“Queremos que todos sepan que tenemos una de las bibliotecas más ricas del mundo, que la mayor parte de
nuestro patrimonio bibliográfico-documental, nuestra memoria, está resguardada en la Biblioteca Nacional de
México, un lugar abierto al público en general”, dijo.
El recinto cuenta con un Fondo Reservado, cuyo objetivo es preservar y organizar los acervos de la BNM que,
debido a su rareza, limitación de ejemplares o valor, requieren resguardo especial. Se organizan en cuatro
colecciones: Obras Raras y Curiosas, Fondo de Origen, Archivos y Manuscritos, y Colecciones Especiales.
En agosto de 1993, los materiales bibliográficos que se encontraban en el antiguo templo de San Agustín, en
el centro histórico de la Ciudad de México, fueron trasladados a su nueva sede, en Ciudad Universitaria. Aquí
se protegen fondos y colecciones (libros, archivos y manuscritos, principalmente) que por su valor,
características y trascendencia son de consulta restringida.
En tanto, el Fondo Contemporáneo está integrado por obras monográficas impresas, modernas y
contemporáneas, que ocupan tres pisos de depósitos y áreas de lectura, además de seis salas especiales y una
sección, distribuidas en dos niveles del edifico principal de la institución.
Aquí se ubican la Colección General, Revolución Mexicana, Sala de consulta, Sala de Bibliografía, Sala de
Mapoteca, Sala de Fonoteca, Sala de Tiflológico, Sala de Materiales Didácticos y Sala de Videoteca.
Entre las joyas de la BNM se pueden mencionar colecciones especiales como Boris Rosen y Javier Sánchez
Gámiz, o los fondos Gilberto Bosques y Ángel María Garibay, además de ejemplares como la primera edición
de la obra de Sor Juana Inés de la Cruz; un incunable de la “Divina Comedia”, de Dante Alighieri; o textos
que pertenecieron a Carlos de Sigüenza y Góngora, entre otros.
Norma mexicana
El festejo por el 150 aniversario de la Biblioteca es compartido con el IIB, que celebra 50 años de su creación,
lo que motiva a su comunidad a trabajar para mejorar los sistemas de preservación de materiales, no sólo en
papel, sino digital, así como crear una norma mexicana de preservación documental.
“Apostamos por la consolidación de los formatos impresos y digitales, pues ambos son parte de la sociedad y
tenemos que garantizar que ese patrimonio se transmita por generaciones”, enfatizó Mora Pérez-Tejada.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
5 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Adriana Gómez Llorente, jefa del Departamento de Conservación y Restauración de la BNM, y coordinadora
del encuentro, añadió que a través de la norma se espera que exista una gestión, con programas y proyectos,
para la protección de los materiales, pues “independientemente de que haya libros electrónicos, y otro tipo de
tendencias, el impreso difícilmente pasará de moda o desaparecerá”.
Desde 2010, la UNAM trabaja en la elaboración de la norma. Ahora, tras revisar una serie de detalles de
formato, a finales de 2017 se entregará el documento a la Cámara de Diputados para que sea revisado y, en su
caso, aprobado.
“Si bien no será una norma obligatoria, hará recomendaciones a instituciones que tienen acervos
documentales sobre cómo actuar para el cuidado de sus colecciones”, subrayó.
Continúa “Tradición de tinta”
“Tradición de tinta” sigue presente en la BNM. En esta exposición se muestra la historia del libro a través de
las colecciones de la Biblioteca, y obras que nunca antes se habían exhibido.
La primera parte fue inaugurada en marzo pasado, con ejemplares únicos de los siglos XVI y XVIII; la
segunda, dedicada al siglo XIX, abrió sus puertas en agosto; y el 11 de septiembre habrá una actualización, en
la que se sumarán los siglos XX y XXI.
“Vale la pena que la gente se acerque, porque representa el auge de la cultura impresa a nivel mundial.
México participó a través de una tradición de gran arraigo y con la incorporación de grandes impresores como
Ignacio Cumplido, Mariano Galván y Reyes Espíndola”, expuso Mora Pérez-Tejada.
Los visitantes podrán apreciar, en un solo espacio, la historia del libro mexicano y europeo, a través de las
colecciones que resguarda este espacio, remarcó.
Finalmente, comentó que la BNM ha comenzado a trabajar con la Federación Internacional de Asociaciones
de Bibliotecarios y Bibliotecas (IFLA, por sus siglas en inglés), a fin de tener mayor presencia en catálogos
colectivos. .
http://www.dgcs.unam.mx/boletin/bdboletin/2017_571.html
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
6 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Diseñan politécnicos software para el aprendizaje de química
INSTITUTO POLÍTECNICO NACIONAL
COMUNICADO DE PRENSA C-541
Los temas que involucra son aquellos en los que los alumnos presentan mayores problemas
Atomic es el nuevo software diseñado por Estudiantes del Centro de Estudios Científicos y Tecnológicos
(CECyT) 9 “Juan de Dios Bátiz” que mediante juegos didácticos funciona como una herramienta de apoyo para
facilitar el aprendizaje de química.
Ana Paula Sánchez Rodríguez, Javier Alejandro Aguilar Báez, Bryan Yosafat Martínez Coronel, Héctor
Eduardo Vargas Correa y Jair Aguilar Báez crearon este programa de cómputo con base en sus errores los
estudiantes logran comprender los temas más complicados de esta materia, ya que en los juegos, cuando el
usuario se equivoca, el sistema muestra la respuesta correcta.
El proyecto consta de cinco juegos y se enfoca en los temas: balanceo de ecuaciones, química orgánica,
nomenclatura de compuestos orgánicos y símbolos de la tabla periódica, los cuales son los contenidos que más
trabajo les cuesta aprender a los jóvenes.
Vargas Correa explicó que la dificultad de los juegos fue programada para que el usuario tuviera el desafío de
ganar, ya que al momento de perder, el sistema manda una pregunta de química.
El primer juego de Atomic es Snape Químico y fue programado para el aprendizaje de Química Orgánica, en
éste, el usuario mediante las flechas del teclado controla los movimiento de la víbora para que coma la mayor
cantidad de comida que aparece de manera aleatoria, cuando no llega a consumir lo suficiente automáticamente
pierde y aparece una pregunta para responder el nombre correcto del alcano.
La siguiente actividad se enfoca en nomenclatura de compuestos orgánicos, en este módulo se estableció un
cuestionario con tres opciones de respuesta, si el jugador contesta correctamente su puntuación aumenta; en
caso de fallar, aparece la información correcta, de este modo recordará la composición. Otro módulo de juegos
es el memorama de elementos, en el cual el estudiante debe encontrar el nombre que corresponde a cada símbolo
de la tabla periódica.
En el laberinto químico, los jóvenes controlan una partícula que representa un átomo, el cual debe evitar tocar
los elementos enemigos, de lo contrario aparece una pregunta de Química Orgánica. El último juego se llama
Escapa, donde el jugador debe huir de las partículas.
Los politécnicos comentaron que el uso de la página es de dos formas, en la primera cualquier persona puede
conocer los contenidos de Atomic sin tener que crear una cuenta o en la segunda puede registrarse y conocer
todas sus funciones: juegos, tutoriales, sección de preguntas, redes sociales y un espacio para describir quejas
o fallas que presente la página.
Martínez Coronel mencionó que su programa funciona sin internet, ya que solamente emplearon diversas líneas
de código para cada una de las secciones.
===000===
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
7 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Para mayor información:
Departamento de Prensa
prensa@ipn.mx
Tel. 57.29.60.00 Ext. 50041
http://www.conacytprensa.mx/index.php/centros-conacyt/cinvestav/16782-disenan-politecnicos-software-
para-el-aprendizaje-de-quimica
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
8 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El gato autor de un artículo en Physical Review Letters
Francisco R. Villatoro
El físico Jack H. Hetherington de la Universidad Estatal de Michigan (EE.UU.) publicó en noviembre de 1975
un artículo con dos autores en la revista Physical Review Letters. El segundo autor era su gato F. D. C.
Willard. ¿Por qué lo hizo? Según el propio autor, como había usado el plural de autoría en su artículo, debería
haber otro autor. Así que, ni corto ni perezoso, añadió a su gato Willard como autor. Para que quedara más
cachondo, le añadió como nombre de pila F. D. C. por Felis Domesticus Catus.
En algunas conferencias, el autor decidió repartir copias impresas del artículo que estaban firmadas por ambos
autores, siendo la firma del gato su pezuña (como se observa en la imagen que abre esta entrada). ¿Por qué
algunos científicos se toman a cachondeo las publicaciones científicas? Hay artículos firmados por fetos antes
de nacer, bebés recién nacidos, niños pequeños, autores ficticios, etc. ¿Por qué a un científico se le ocurre tal
…? Conozco a algún científico que lo ha hecho y tras preguntarle no me convencen sus argumentos. La
verdad, yo no lo entiendo…
Me lo ha recordado Rae Paoletta, “The Secret History of the Cat Who Authored a Physics Paper,” Gizmodo,
09 Jun 2017. El artículo es J. H. Hetherington, F. D. C. Willard, “Two-, Three-, and Four-Atom Exchange
Effects in bcc 3He,” Phys. Rev. Lett. 35: 1442 (1975), doi: 10.1103/PhysRevLett.35.1442.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
9 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Fotografía de F. D. C. Willard (fuente).
http://francis.naukas.com/2017/06/13/el-gato-que-fue-autor-de-un-articulo-en-physical-review-
letters/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+naukas%2Ffrancis+%28L
a+Ciencia+de+la+Mula+Francis%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
10 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Locura instantánea, un rompecabezas con cubos de colores
Por César Tomé
Locura instantánea es el nombre de un juego de ingenio de la familia de los solitarios. Es un juego que me gusta
mucho, que suelo utilizar en algunas de mis charlas y que incluí en mi libro sobre las matemáticas de los juegos
de ingenio, Del ajedrez a los grafos, que es el último libro de la colección El mundo es matemático (National
Geographic, 2015). Mencioné este juego de pasada en mi entrada del Cuaderno de Cultura Científica, Blanche
Descartes y la cuadratura del cuadrado, pero en aquella ocasión no entramos a analizarlo.
Rompecabezas “Locura instantánea”, formado por los cuatro cubos con caras de colores, junto con la caja
para guardar los cubos
El rompecabezas Locura instantánea, nombre con el que fue comercializado por la empresa de juguetes Parker
Brothers en 1967 y del que se vendieron más de doce millones, consta de cuatro cubos, cada una de cuyas caras
está coloreada con uno de los cuatro colores del juego (en la imagen anterior, rojo, azul, verde y amarillo),
siguiendo un patrón determinado, que se muestra más abajo.
El objetivo del solitario es colocar los cuatro cubos, uno encima (o a continuación) del otro, formando una torre
(o un prisma rectangular de tamaño 1 x 1 x 4) de manera que cada uno de los cuatro colores aparece exactamente
una vez en cada una de las cuatro caras de la torre.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
11 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En la página Sources in recreational mathematics, an annotated bibliography, el matemático estadounidense
David Singmaster menciona que este juego aparece por primera vez en 1890, patentado por Frederick A.
Schossow (con corazones, picas, tréboles y diamantes, en lugar de colores), con el nombre Katzenjammer(que
puede traducirse como conmoción, o también, resaca), y que volvería a aparecer a lo largo del siglo XX con
diferentes nombres, en los años 1940 con el nombre El gran suplicio de Tántalo, pero también Cubo 4, Cubo
diabólico, Cuatro ases, rompecabezas de Symington y muchos otros.
El rompecabezas “Katzenjammer” (conmoción), patentado por Frederick A. Schossow en 1890, en cuyas
caras están los cuatro palos del poker, picas, corazones, rombos y tréboles
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
12 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El “locura instantánea”, fue utilizado bajo el nombre de “rompecabezas de Symington”, para hacer publicidad
de los cubitos de sopa de Symington
A continuación, mostramos el esquema plano de la distribución de los colores del juego Locura
instantánea (exactamente la distribución de los dados de la primera imagen), al desplegar en el plano los cuatro
cubos en sus seis caras.
Una primera cuestión que nos podemos plantear en relación a este rompecabezas, antes de ir a lo importante
que es jugar y resolver el puzzle, es la siguiente: ¿Cuál es el número de formas distintas (en relación al juego)
de colocar los cuatro cubos de colores formando una torre (o una a continuación del otro)? El objetivo del juego
es encontrar cual, o cuales, de ellas son una solución del rompecabezas.
Teniendo en cuenta que, de cara a su resolución, lo importante son las cuatro caras de cada cubo que van a
quedar en los laterales visibles de la torre, y que es irrelevante el orden de colocación de los cubos, se puede
observar que esencialmente hay tres formas distintas de colocar el primer cubo de la torre, dependiendo de cuál
de las tres parejas de caras opuestas ocultemos. Y como es la primera pieza en ser colocada, da lo mismo cuál
de las dos caras ocultas vaya arriba y cuál abajo.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
13 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
“Locura instantánea” gigante realizada por el artista griego Dimitris Ioannou, para una exposición en Atenas
en 2007. Los cubos están colocados en una posición que no resuelve el solitario ya que en el lado más visible
hay tres caras verdes y una roja, es decir, sobran dos verdes y faltan una amarilla y una azul
Una vez colocado el primer cubo, hay veinticuatro formas de colocar el segundo cubo. Seis caras tiene el cubo,
luego tenemos seis opciones para la cara de abajo (o equivalentemente, tenemos tres parejas de caras opuestas,
pero ahora, fijada ya la posición del primer cubo, si es diferente cual de las caras va debajo), y para cada una
de esas seis posiciones, puede rotarse el cubo, dando lugar a cuatro posiciones distintas, ya que hay cuatro caras
laterales. Lo mismo ocurre para el tercer y cuatro cubos. En consecuencia, existen 3 x 24 x 24 x 24 = 41.472
formas distintas (desde la perspectiva del solitario) de colocar los cuatro cubos.
El método del ensayo y error, es decir, el ir probando diferentes alternativas de colocación de los cuatro cubos
y ver si se ha resuelto el solitario, no parece ser muy apropiado para la resolución de este juego a la vista de las
41.472 configuraciones distintas que existen de los cubos. El recorrido por todas ellas en busca de la solución
será tedioso y llevará bastante tiempo. Si utilizásemos unos 5 minutos de media para cada posición, recorrer
todas llevaría 3.456 horas, más o menos, dos años y medio, dedicando cuatro horas todos los días.
Si el método de ensayo y error no parece ser el más adecuado, esto nos lleva a plantear algún otro método de
resolución del juego. Para empezar podemos intentar conocer más en profundidad este solitario y extraer
información útil que nos simplifique la búsqueda o nos ayude a plantear algún método de resolución.
Para empezar, veamos cuántas caras hay de cada color. Si miramos a los cuatro cubos (por ejemplo, en la
imagen de los desarrollos planos) se verá que en este solitario hay 7 caras azules, 6 rojas, 5 amarillas y 6 verdes.
Puesto que en la solución del rompecabezas cada color aparece una sola vez en cada lateral de la torre, serán
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
14 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
cuatro caras de cada color, y el resto permanecerán ocultas, es decir, sabemos que van a tener que quedar ocultas
3 caras azules, 2 rojas, 1 amarilla y 2 verdes.
Versión “Cubos locos” del juego “locura instantánea”, en la cual se utilizaban números en lugar de colores
La anterior información nos da una pista de cómo podríamos intentar resolver el juego, buscando distribuciones
de los cubos que oculten 3 caras azules, 2 rojas, 1 amarilla y 2 verdes.
Esta información, y el camino que nos abre, es interesante, pero se necesita complementarla con algún dato
más, como por ejemplo, cuales son los pares de caras opuestas de cada cubo (que se mostrarán u ocultarán de
forma conjunta, lo cual es relevante). A continuación, detallamos cuales son estos pares de caras opuestas,
según su color.
Cubo 1: [azul – azul] + [azul – rojo] + [amarillo – verde]
Cubo 2: [verde – azul] + [verde – rojo] + [amarillo – azul]
Cubo 3: [amarillo – verde] + [amarillo – azul] + [rojo – rojo]
Cubo 4: [verde – rojo] + [verde – amarillo] + [rojo – azul]
Y ya tenemos una información que puede ser muy útil. Ahora, para intentar resolver el rompecabezas, se trata
de elegir pares de caras opuestas de cada cubo de forma que sus colores sumen las 3 caras azules, 2 rojas, 1
amarilla y 2 verdes, que son las que deben permanecer ocultas. Es una cuestión combinatoria muy sencilla.
Por ejemplo, la combinación [azul – azul] (cubo 1), [verde – azul] (cubo 2), [rojo – rojo] (cubo 3) y [verde –
amarillo] (cubo 4) resulta que, como se observa fácilmente colocando convenientemente los cubos, ya nos
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
15 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
genera una solución, de hecho, la única.
Este es un método muy sencillo, que es el que yo utilicé para resolver el Cubo 4 cuando me enfrenté a su
resolución. No es tan elegante como la solución con grafos que vamos a mostrar a continuación, ni podemos
extraer información muy relevante de cara a posibles generalizaciones o rompecabezas relacionados, pero
cumple una de las máximas principales de la resolución de problemas, lo primero es resolverlo. Además, nos
ha permitido rápidamente no solo encontrar una solución, sino saber que es única.
Antes de abordar la resolución del juego mediante grafos, recordemos qué es un grafo etiquetado.
Grafo etiquetado: Un grafo al que le asignamos etiquetas a las aristas, o a los vértices, es un grafo etiquetado.
Las etiquetas pueden ser números, colores u otras informaciones.
El rompecabezas Locura instantánea puede ser modelizado con grafos etiquetados de la siguiente forma. Los
vértices del grafo son cada uno de los colores, rojo, azul, verde y amarillo. Además, para cada cubo, dos vértices
van a estar unidos por una arista si esos dos colores están en caras opuestas del cubo. En nuestro caso, los grafos
etiquetados (las etiquetas en los vértices son los colores) asociados a los 4 cubos son:
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
16 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Para juntar toda esa información en un único grafo se etiquetan también las aristas con un número que se
corresponde con el del cubo en el que se establece dicha arista. Así, el grafo etiquetado que modeliza El gran
suplicio de Tántalo es el siguiente.
Una vez que el rompecabezas ha sido modelizado mediante este grafo, hay que utilizarlo para construir una
solución, y en general, estudiar el espacio de soluciones.
Dada una solución del solitario, en particular, los cuatro colores aparecerán en la parte de delante, y también en
la de detrás, de la torre. Esto se suele llamar una solución parcial, ya que no se imponen condiciones sobre los
laterales de la torre. Y construir una solución parcial del Cubo diabólico es equivalente a encontrar un “subgrafo
bueno” del grafo original, es decir, un subgrafo H que contiene los cuatro vértices (colores), con grado 2
(número de aristas que inciden en el vértice) con una arista etiquetada para cada uno de los números (que se
corresponden con los cuatro cubos). Como cada vértice en un tal subgrafo bueno H tiene grado 2, cada color
aparece exactamente dos veces, y se pueden colocar los cubos para que cada color aparezca una vez en la parte
delantera y una en la de atrás.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
17 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Subgrafo bueno del grafo etiquetado asociado al rompecabezas “Locura instantánea”, con los
correspondientes colores, según el subgrafo bueno, en las caras opuestas, delantera y trasera, de cada cubo
Si ahora podemos encontrar otro subgrafo bueno que no utilice las mismas aristas que el primero, es decir, en
cada cubo nos va a dar otra pareja, distinta de la anterior, de caras opuestas, entonces podemos rotar cada cubo
de manera que estas parejas aparezcan en las caras laterales de la torre, pero sin deshacer las caras de delante y
detrás, lo que resolverá completamente el Cubo 4. Es decir, la solución de El suplicio de Tántalo se corresponde
con dos soluciones parciales que encajan bien la una con la otra.
Otro subgrafo bueno, que no comparte aristas con el anterior, y la solución que se genera teniendo en cuenta
la información proporcionada por los dos
Puede formularse así el resultado.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
18 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Teorema (F. de Canterblanche): El rompecabezas Locura instantánea tiene solución si, y sólo si, el grafo
etiquetado asociado admite dos subgrafos buenos que no comparten aristas.
F. de Carteblanche es un seudónimo. En los años 1940, cuatro matemáticos de la Universidad de Cambridge
adoptaron el seudónimo Blanche Descartes, y también el de su marido F. de Carteblanche, para publicar sobre
matemáticas, pero también sobre poesía y humor matemático. Probaron algunos teoremas sobre teselaciones,
publicaron sobre el coloreado de grafos, resolvieron la cuadratura del cuadrado, o descubrieron la disección de
Blanche. A ellos se debe el estudio con grafos del (Gran) “suplicio de Tántalo”.
Una vez resuelto el rompecabezas, podemos ver si existen más soluciones al mismo. Calculando todos los
subgrafos buenos y viendo qué parejas de subgrafos no comparten aristas obtendríamos todas las soluciones del
rompecabezas. En el caso del Conmoción solo hay otro subgrafo bueno, además de los dos anteriores, y
comparte aristas con ambos, luego no genera ninguna nueva solución. Es decir, la solución es única, como ya
sabíamos.
Tercer subgrafo bueno del grafo asociado a los “Cuatro ases”, pero que no genera ninguna solución
Como hemos estudiado, el Locura instantánea admite una única solución, pero pueden existir otros
rompecabezas con cuatro cubos de colores que no admitan soluciones o que admitan varias soluciones, como
los dos mostrados en la siguiente imagen.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
19 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Estos dos solitarios con cuatro cubos de colores, uno no admite solución y el otro admite tres soluciones,
como puede comprobarse analizando los grafos etiquetados asociados, sus subgrafos buenos y cuántos de
ellos no comparten aristas dos a dos
Una cuestión interesante relacionada con la creación de este tipo de rompecabezas es el cálculo del número de
formas distintas que hay de colorear un cubo con 4 colores (o en general, con un número k de colores), que son
los cubos con los que podemos formar, a priori, rompecabezas como el Locura instantánea. Este cálculo es
posible gracias al lema de Burnside, pero esa es otra historia y debe ser contada en otra ocasión.
Bibliografía
1.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, colección El mundo es
matemático, National Geographic, 2015.
2.- David Singmaster, Sources in recreational mathematics, an annotated bibliography
3.- Página web de rompecabezas de James A. Storer
4.- Página web del artista griego Dimitris Ioannou
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la
Cátedra de Cultura Científica
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
20 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Existen versiones del “Locura Instantánea” incluso con gatitos, como este juego de 1996 llamado “el puzzle
del gato”
https://culturacientifica.com/2017/06/14/locura-instantanea-rompecabezas-cubos-
colores/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaCient
fica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
21 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Ilustración> Ana Juan
La línea de luz y sombra
Es valenciana y estuvo en Buenos Aires para presentar su nuevo libro, la Trilogía del Mar del Norte
(Edelvives) que la ubica como una de las ilustradoras más importantes de la actualidad. Ya hizo unas veinte
tapas para The New Yorker, ilustra clásicos, sus propios relatos y muestras interactivas. En esta entrevista
Ana Juan habla de la movida madrileña –de la que fue parte–, de los dibujos para El hombre del traje negro de
Stephen King que saldrá por Nórdica y de cómo es ser una ilustradora profesional que pasa más tiempo en
aviones que en su estudio sin perder la pasión y el deseo.
Por Débora Campos
“La ilustración es una forma de relacionarme con el mundo y, entonces, es inevitable que haya un poquito de
mí en todos los personajes de mis trabajos”, dice la ilustradora española Ana Juan y con un lápiz negro, en
una cafetería de Palermo, traza dos líneas que podrían ser una rama, un vestido, una mirada. Que podrían ser
casi todas las cosas de este mundo. De paso por Buenos Aires para presentar el último volumen de la Trilogía
del Mar del Norte, hablará de sus dibujos, de las muchas tapas que diseñó para revistas como The New
Yorker o Babelia, de afiches, de una exposición revolucionaria, de sus tiempos en la prensa y de treinta años
de labor profesional que comenzaron en una casita baja de un barrio de Valencia.
El lápiz va y viene. Algunas veces deja una estela negra, pero otras no: apenas sobrevuela. En cambio,
siempre suena como si exhalara un suspiro ronco, seco. Hace frío esta mañana porteña y Ana Juan cuenta de
una bronquitis que la persigue con insistencia mientras, ahora, entre las líneas aparece una raja que podría ser
un ojo o un temor. “Yo no soy una persona virtuosa en lo absoluto –dice y lo repetirá varias veces–.
Técnicamente, tengo mis problemas porque aún hay muchas cosas que no puedo contar como quisiera. Por
eso, creo que mi estilo no es más que el resultado de intentar superar todas esas carencias buscando caminos
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
22 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
diferentes”. El Premio Nacional de Ilustración de España en 2010; tres medallas de Plata y dos de Oro en la
categoría de ilustración de la Society of Newspaper Design consecutivas entre los años 1995 y 1999; y el
premio Ezra Jack Keats de 2004 se amontonan entre sus muchos reconocimientos. La ilustradora realizó,
además, más de 20 tapas para la revista The New Yorker, de la que es una de sus principales ilustradoras,
entre ellas Solidariteìe, con ocasioìn del atentado terrorista en la redacción de Charlie Hebdo en enero 2015.
Porque la prensa es un universo que conoce bien. Apenas graduada en Bellas Artes por la antigua Escuela
Superior de Bellas Artes de Valencia y con 20 años, si es que los tenía, dejó la casa con limonero sobre una
calle serena en la que creció para sumarse al tren bala de la movida madrileña de los años ‘80. “Tuve
oportunidades y las aproveché”, sintetiza. Pero el recorrido fue más complejo y sorprendente, sobre todo para
una chica que, en poco tiempo, ya colaboraba en un universo de hombres: las publicaciones Madriz y La Luna
o los diarios El País y El Mundo. “¡Pasaba todo en Madrid! Había muerto Franco, todo el mundo era de lo
más moderno, aquello era muy divertido, y nosotros, con la arrogancia de la juventud, nos creíamos que todo
era posible”, recuerda ahora y se ríe con ganas. Mientras la capital española hervía de libertad, ella esperaba
en su piso la llegada del cadete que le enviaban los periódicos. “El mundo de los dibujantes de prensa estaba
en las redacciones. Ellos trabajaban ahí mientras que yo lo hacía desde mi casa. Me mandaban el texto con un
mensajero, lo leía y hacía la imagen en cuestión de un par de horas. Luego, volvías a llamar al hombre de los
recados que pasaba a retirar la ilustración”, narra y se interrumpe con cara de estupor: “Ahora mismo, no me
explico cómo, pero aquello ¡funcionaba! Muchas veces lo pienso y me pregunto cómo podíamos trabajar sin
internet o sin ordenador, solamente con papel y tinta”, dice.
Ana Juan dice que aquellas jornadas de vértigo le dieron un entrenamiento para ver las ideas con rapidez. Y
también para aceptar otras miradas, pedidos, interpretaciones. Algunas veces tiene días para ilustrar una tapa;
otras, apenas un par de horas. Hace tiempo, contó a El País: “Cuando sucedió el atentado en Londres, me
llamaron para que enviara algo ese mismo día y luego no lo publicaron. Estas son las reglas del juego y yo las
acepto. Si no las aguantas, mejor no participes porque son peculiares”. De todos modos, no son tantos los
trabajos nonatos desde sus primeros pasos en esa publicación en 1995: la Torre Eiffel con forma de lápiz
sobre un mar rojo, que también dibujó a contrarreloj, quedó en la tapa de la edición de enero de 2015. Su
perfil nocturno de la ciudad de Nueva York con las ausentes torres Gemelas reflejadas sobre el río en
septiembre de 2011. Un soldado que apunta con el lente de una cámara fotográfica en abril de 2003.
Ana Juan trabaja en un estudio que funciona en su casa de Madrid. A pocos metros, su pareja, el dibujante y
autor de cómics alemán Matz Mainka, hace lo mismo en otro espacio. Dice que no tienen una rutina porque
los viajes, las campañas de promoción o los compromisos la desarman en cuanto consiguen ponerla a
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
23 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
funcionar. Pero, en todo caso, el lápiz se pone en marcha luego de hacer un poco de deporte por las mañanas
para que las horas frente al tablero sean menos difíciles. Así, a cuatro manos pero desde habitaciones
distintas, compusieron los libros de la Trilogía del Mar del Norte (Edelvives), una saga de historias con
evocaciones tradicionales e ilustraciones vibrantes, sombrías, inquietantes. La saga nació en 2009 a pedido de
la editorial japonesa Kodansha. “Pensamos en contar cuentos, empezamos a buscar hipotéticas leyendas
olvidadas y las plasmamos de forma que parecía que sí habían existido, aunque los acontecimientos
posteriores a la Primera Guerra Mundial las habían llevado al olvido”, dijo varias veces. Semanas atrás contó
en España que le gusta pensar esta dupla con su pareja como unos renovados Hermanos Grimm “de
pacotilla”. Y ahora se ríe. Con energía.
Pero los libros no son alegres. No es ese su territorio. Ella misma las definió como “historias de amor y
fantasmas”. Situadas en algún lugar de las germano danesas Islas Halligen, y en algún momento impreciso de
la Gran Guerra, estas tres historias, Promesas, La isla y Hermanas, se proponen como supuestas leyendas
centroeuropeas que, en realidad, no lo son. Pero podrían serlo. Cada historia, en la que se imbrican paisajes
desoladores, personajes perturbadores y situaciones terminales, explora un lenguaje común así como detalles
de particularidad. Ana Juan explicó los secretos de este trabajo al sitio especializado Un periodista en el
bolsillo: “En Promesas, una historia de amor y olvido, la técnica utilizada es muy sencilla: lápiz carbón sobre
papel, reservando el acento de color para los tatuajes en rojo dándoles así una identidad propia. Utilizando el
color rojo como un elemento más en el lenguaje de la historia”. Por su parte, en La isla, “lo más importante
era potenciar el ambiente frío, opresivo y solitario de una isla en mitad de la nada. Para ello escogimos colores
que se fundiesen en una grisalla que cercase a unos personajes sin futuro, enjaulados en una isla deshabitada.
También hay algún pequeño acento de color pero siempre intencionado”.
Hermanas es el tercer libro, el que presenta ahora en Buenos Aires. Cuenta la historia de unas gemelas que
nacen unidas por sus cabellos rojo-fuego, “enredados como fuertes raíces”, dicen los autores. De amor y de
traición va el asunto. Y de muerte, claro. “Detrás de cada una de estas historias, siempre hay un pequeño
germen, una foto, una situación. Y, a partir de ahí, normalmente Matz procura construir el argumento
mientras yo trabajo con las imágenes”, dice mientras el té se enfría en esta mañana otoñal y brillante. Según
parece, de todos modos, los terrenos tienen fronteras permeables porque también ella aportó elementos a la
historia y Mainka comenta y corrige las ilustraciones. “No hay rivalidad entre nosotros y nadie intenta
imponerme algo. Por el contrario, hay mucho diálogo y, poco a poco, podemos ir construyendo una historia”,
completa.
De ojos profundos como un pozo misterioso, rulos prolijos de color azabache, y ropas oscuras, esta valenciana
que nació en 1961 perfectamente podría haber sido ilustrada por ella misma. Pero no, Ana Juan dibuja ahora,
rasgando con la mina del lápiz inclinada, trazos anchos que dan cuerpo al ala de un ave. Un ave de mirada
torva. Inquisidora. Cuando haya cumplido con su frenética agenda argentina, retomará el trabajo para el libro
que elabora con el escritor francés Sebastien Perez . Hace poco, ella terminó la ilustración de uno de los
cuentos más célebres de Stephen King para Nórdica, El hombre del traje negro, del que dice que “es una de
las primeras veces que se hace y acaba de salir en Europa”. Se adivina un entusiasmo mayúsculo que ella
apaga con pudor. En la tapa gris topo del volumen, la cabeza de un pez con cuerpo en llamas ha sido atrapada
por un anzuelo que es una cruz invertida.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
24 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En algunos casos, los libros nacen de una propuesta editorial. De Nórdica o de Penguin Random House,
fueron las últimas. Pero de vez en cuando, ella pone un freno de mano y se apodera de su tiempo. “También
hay momentos en los que quiero hacer cosas personales. Snowhite (como llama a su singular versión de
Blancanieves) es mío. Y Demeter también. Si no me hubiese propuesto hacerlos, no estarían aquí. Y si
fracasas, fracasas. Mi vida personal está más llena de tropiezos que de éxitos, pero siempre se gana porque
has aprendido mucho”. De éxitos también habla la singular muestra Dibujando al otro lado, elaborada junto al
grupo UNIT Experimental de la Universitat Politècnica de Valencia, que mezcla los personajes de Ana Juan
con una plataforma interactiva diseñada especialmente. La exposición está terminando por estas semanas en el
Museo ABC de Dibujo e Ilustración de Madrid y dio que hablar. Para los visitantes tradicionales, proponía un
recorrido por el proceso creativo de la autora a través de sus bocetos para los libros Snowhite y Otra vuelta de
tuerca, de Henry James, que ella ilustró. Sin embargo, hay otra posibilidad: el videojuego Erthaland,
Snowhite’s Mystery Tale, desarrollado por el equipo de Unit y que permite pasear por la muestra escapando
de la madrastra malísima y cruzándose con los enanitos como si se fuera la propia Blancanieves. La sala, así,
se transforma en una sala de juego en la que el público sortea dificultades y resuelve situaciones. “Como no
pienso demasiado las cosas dije que sí a la propuesta, pero luego no lo veía muy claro. Mi trabajo está más
basado en la atmósfera, el ambiente, en luces y en sombras, y no veía yo cómo esos personajes y esos
universos podrían tener cuerpo. Además, animarlo me parecía un poco difícil. Pero no, ha dado buen
resultado”, explica.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
25 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Pasaron tres décadas desde que desembarcó en Madrid dejando atrás la casa natal en la que creció junto un
padre pastelero, dos hermanas mucho mayores que ella y una madre enfermera que imprimió a fuego en sus
hijas el mandato de tener un oficio para no depender de nadie frente a un mal momento. “Ella misma, ante las
dificultades, se animó a estudiar para emplearse luego en un hospital. Mi madre me empujó a seguir con el
dibujo y luego a preparar durante años el ingreso a la Escuela de Bellas Artes”, le reconoce. Eran los últimos
años ´60 y los primeros ´70 y los días se sucedían en un barrio construido antes de la Guerra Civil por una
cooperativa del gremio de los impresores. Entonces, le llamaban El camino del Cementerio. Hoy lleva el
nombre de Patraix. Y Ana Juan dice que, tras la guerra, “ahí quedó mucha mujer sola y mucho hombre triste,
cuando volvían, claro”. Mira hacia atrás pero es severa con la jovencita que ella fue y sus primeros trabajos
publicados: “Reconozco a la persona que soy y que estaba ahí. Y reconozco cómo quería expresarse y cómo
se equivocaba. Soy muy crítica conmigo misma y entonces noto que era muy joven y quería contar las cosas a
gritos. Luego, pasaron los años y me di cuenta de que una palabra en el tono justo y en el momento adecuado
puede ser más eficaz que aquellas ganas de romper el mundo. No, no hay que romper –se dice a la que fue–.
Primero, hay que conocer para luego romper”.
https://www.pagina12.com.ar/43195-la-linea-de-luz-y-sombra
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
26 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Diseñan universitarios cimentación para suelos expansivos
UNIVERSIDAD AUTÓNOMA DE QUERÉTARO
Boletín 4123 julio 04, 2017.
y gran
cantidad de demandas contra inmobiliarias
Fisuras, grietas y fracturas que ponen en riesgo la estabilidad de las viviendas, son algunos de los problemas
que ocasiona la construcción de fraccionamientos sobre suelos expansivos. Estos materiales son suelos
arcillosos volumétricamente inestables en presencia de agua, cuya característica principal es que las placas
arcillosas experimentan grandes incrementos de volumen cuando se humedecen, por ejemplo, durante una
lluvia intensa o bien por fugas en los sistemas de agua potable o drenaje.
Generalmente, estos suelos expansivos se encuentran en los alrededores de las zonas que tuvieron actividad
volcánica, como en el caso de la Zona Metropolitana de Querétaro en cuya cercanía se encuentra el extinto
volcán Cimatario, explicó el Dr. Eduardo Rojas González, catedrático investigador de la Facultad de
Ingeniería (FI) de la Universidad Autónoma de Querétaro (UAQ).
El Dr. Rojas González encabeza un proyecto de investigación para diseñar una alternativa de cimentación que
sea económica y segura para este tipo de suelos, con el objetivo de reducir o erradicar los problemas que
causa el cambio de contenido de agua del suelo sobre las estructuras, ya que al expandirse o contraerse -
dependiendo de la humedad que absorba- ocasiona daños en las construcciones que pueden poner en peligro
la integridad de sus habitantes.
“Las constructoras locales saben dónde se localizan los suelos expansivos y tratan de evitarlos o bien utilizan
técnicas de construcción especiales. El problema más grave surge con las constructoras foráneas que carecen
de información sobre el comportamiento de estos suelos. El desconocimiento de estos materiales, y el no
asesorarse con un especialista en geotecnia que conozca el comportamiento de estos suelos ocasiona que haya
problemas en las viviendas y se generen una gran cantidad de demandas”, señaló el académico universitario.
Recientemente, explicó el investigador, se ha utilizado la técnica de presaturación, que consiste en inundar el
suelo y saturarlo permitiéndole que se expanda hasta su máximo potencial, tratando de mantener la condición
de saturación de suelo a lo largo del tiempo. Esto evitaría los cambios volumétricos, por lo que, en teoría, no
se tendrían daños en la estructura en ningún momento.
Sin embargo, esta técnica presenta varias desventajas como que al paso del tiempo, el suelo busca su
equilibrio y filtra la humedad, con lo que de todos modos se presenta el cambio de volumen.
Asímismo, existe el método de sustitución del material expansivo; aunque, de acuerdo con el Dr. Eduardo
Rojas, esto puede resultar muy caro cuando el espesor de las capas de suelo son superiores a dos metros,
como en el caso de Jurica donde existen estratos de hasta de ocho o nueve metros.
Ante esta problemática, el Dr. Rojas y el Dr. Jaime Orta Rangel desarrollan, junto con alumnos de la maestría
en Geotecnia, una metodología basada en la técnica del elemento finito, en donde se simulan la construcción
de una estructura sobre un suelo expansivo y su posterior humedecimiento. Esto permite probar diversas
técnicas constructivas para determinar cuál es la mejor manera de construir una estructura ligera sobre estos
materiales.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
27 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
“Estamos buscando una alternativa económica y que sea 100 por ciento segura, a través de un modelo
matemático de esfuerzos efectivos, que actualmente no existe en ninguna parte del mundo”, indicó el Dr.
Rojas, ganador del premio Alejandrina 2016 que entrega la UAQ a investigadores destacados.
El Dr. Eduardo Rojas manifestó que a la par del desarrollo de esta cimentación también impulsa la inclusión
en el Reglamento de Construcción de la figura de un Perito en Mecánica de Suelos que deberá ser especialista
en Geotecnia y que será el responsable de la seguridad de la cimentación de cualquier tipo de estructura y
durante toda vida útil.
PIE DE FOTO:
1. El Dr. Eduardo Rojas González encabeza un proyecto de investigación que permitiría construir de forma
segura sobre suelos expansivos, mismos que se encuentran en la Zona Metropolitana de Querétaro.
Contacto prensa: Coordinación de prensa Tel. (442) 1921200 Ext. 3171
prensa@uaq.edu.mx
http://www.conacytprensa.mx/index.php/centros-conacyt/cinvestav/16802-disenan-universitarios-
cimentacion-para-suelos-expansivos
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
28 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Paula Hawkins: "Me considero feminista y creo que mi libro también lo es"
La chica del tren, su fenómeno de 2015, sigue entre los más vendidos en un ranking que hoy encabeza su
nuevo libro, Escrito en el agua; viene a presentarlo a la Argentina en agosto
Laura Ventura
PARA LA NACION
MADRID.- Antes de emprender un tour organizado por su editorial, precavida y entusiasta,
emitió su voto por correo. Paula Hawkins no quería perder la oportunidad de que su voz y
posición, por pequeña que fuese dentro del océano de electores, quedasen acalladas. "Esto no
es lo que todos esperaban. Ha sido nuevamente una sorpresa, una evidente reacción contra el
partido conservador y su aproximación al Brexit, así como a su política de la austeridad", opina
con una sonrisa sobre los resultados del jueves último en los que la primera ministra Theresa
May sufrió un revés. Donde no hay austeridad es en su nueva apuesta a la que define como
ambiciosa. Después del suceso mundial de La chica del tren, se encerró a darle vida a su nuevo
libro, Escrito en el agua, para cuya presentación oficial en la Argentina viajará en agosto.
La autora británica está sentada frente a un ventanal que la separa, del lado de la sombra y del
aire acondicionado, del asfalto y del trajín de la Gran Vía. Su cartera descansa en el suelo,
aunque hay varios cuerpos libres de un sillón blanco a su alrededor. Relajada y curiosa,
Hawkins se interesa por su interlocutor y recuerda las décadas que ejerció como periodista.
"¿Ahora mismo vas escribir la nota? Uy, buena suerte. Ojalá no te cause mucho lío escribirla",
dice con calidez precisamente la autora de la novela más vendida en este momento en la
Argentina. Hawkins publicó La chica del tren en 2015, un thriller psicológico que vendió más
de 20 millones de ejemplares en el mundo -en la Argentina ocupa el cuarto puesto de ficciones
más vendidas- y fue traducido a 42 idiomas. Además, Tate Taylor (Historias cruzadas) llevó la
novela al cine, adaptada por Erin Cressida Wilson (guionista de La secretaria), y protagonizada
por Emily Blunt.
Escrito en el agua transcurre en el ficticio pueblo inglés de Beckford, el "Mayhem Parva", en
la jerga de los lectores de policiales. Hawkins retrata en este un universo, a orillas de un río y
oxigenado por amplios acantilados, una historia asfixiante ya que allí ocurrieron varios
crímenes y muertes sospechosas. La tragedia no es sólo reciente, sino que desde hace siglos,
esas coordenadas están malditas. Allí aparece La Poza de las Ahogadas "un lugar al que iban
mujeres perseguidas, rebeldes, inadaptadas que habían incumplido el mandato patriarcal".
Jules regresa a su pueblo natal luego de que su hermana, a quien no veía hacía muchos años a
causa de un rencor añejo, muere en circunstancias confusas. Escrito en el agua tiene una
protagonista, Jules, pero muchas voces. Si La chica del tren estaba construida con tres
narradoras, quienes alternaban el hilo de la trama, Escrito en el agua es más compleja aún,
porque se suman más voces y, por lo tanto, perspectivas. Si bien la primera persona del
discurso es la más recurrente, no es la única, ya que algunos fragmentos de la novela son
relatados por una voz omnisciente, no sólo física, a través de un personaje, sino, por ejemplo,
con los retazos de un libro que escribía la víctima antes de morir. "Es necesaria una extraña
vanidad para ser capaz de tomar la tragedia de otra persona y escribirla como si te
perteneciera", dice un personaje y así se construye desde distintos ángulos un mosaico donde
están incrustados el suspenso y el drama familiar. Escrito en el agua también tendrá su versión
cinematográfica.
-¿Quiénes son "las conflictivas" a las que les dedicás el libro?
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
29 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
-Todas las mujeres. En el libro aparecen mujeres que han sido acusadas de problemáticas, hoy
y siempre, por el sólo hecho de ser mujeres. Lo que quería transmitirles con la dedicatoria es:
"Sigan siendo como son, que no les importe lo que los demás digan de ustedes". Me considero
feminista y el libro también lo es, ya que muestra la presión que la sociedad ejerce sobre las
mujeres y el modo en el que trata de silenciarlas y cómo son constantemente juzgadas.
-¿Sentís esa presión como autora?
-Sí, en cierto grado. Hoy mucho menos que cuando era más joven. Hay preguntas que a veces
se les hacen a las escritoras, vinculadas a sus familias y a su decisión de tener hijos o no, que
no se las harían a escritores. ¿O le hacen ese tipo de preguntas a Martin Amis?
-Utilizás la primera persona del discurso, ¿qué encontrás en este recurso?
-Me gusta su inmediatez. Es un gran modo de contar una historia, pero a la vez te genera
problemas porque el mundo no está hecho desde una perspectiva sola. Sí considero que se crea
un vínculo instantáneo entre el lector y el narrador.
-La protagonista lee El secreto, ¿qué opinas de este libro que genera tantos debates sobre su
naturaleza?
-Lo leí cuando estaba en la universidad y lo amé. Fue la primera vez que leí una especie de
thriller que a la vez contenía un misterio de esta índole. Para mí es literatura de la más
compleja que existe. Es maravilloso.
-El libro tiene un halo que escapa de lo meramente realista.
-Quería que tuviera la atmósfera de una historia de fantasmas, pero no quería que fuese
sobrenatural. No creo en fantasmas, aunque me asustan.
-Sí está la idea de que los muertos pueden hablar con los vivos.
-No creo en la vida después de la muerte. Pero sí hay gente que perdió a un ser querido y que
lo imagina, o que tiene conversaciones con ellos para entender cuestiones complejas de sus
vidas.
Recuerdos de África
Hija de un catedrático en Economía, Hawkins vivió hasta los 17 años en Zimbabue, cuando se
marchó a Londres para estudiar periodismo. Durante muchos años escribió sobre impuestos e
hipotecas y concebía algunas novelas románticas bajo el seudónimo de Amy Silver. La chica
del tren es su primera novela firmada bajo su nombre real, una historia que escribió durante
una licencia de su trabajo, y con una pequeña ayuda económica de su padre para dedicar sus
esfuerzos y agenda completa a la ficción y a la novela policial. Hawkins le hizo caso a su
intuición y ahora es una escritora de ficción a tiempo completo.
-El tema de Escrito en el agua es la memoria, ¿qué recordás de tu infancia en Zimbabue?
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
30 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
-Tuve una infancia muy feliz, en un suburbio muy seguro, siempre había sol... sin embargo,
ahora que crecí me doy cuenta de cuán conflictiva era la sociedad, donde aún había apartheid y
los privilegios que teníamos tenían un alto precio para otras personas.
-¿Qué libros la impactaron cuando era joven y qué autores lee ahora?
Foto: LA NACION
Escrito en el agua
Autor: Paula Hawkins
Editorial: Planeta
-Agatha Christie fue mi primera experiencia como lectora de novelas negras. Amo cómo
creaba esos personajes, ninguno de ellos inocente, todos son culpables en cierto modo. Mi
favorita hoy es Kate Atkinson, quien escribe novelas sobre crimen, pero también explora otros
géneros. También me gustan Pat Barker, con sus novelas ambientadas en un contexto bélico,
Megan Abbott y Donna Tartt. Bueno, y Margaret Atwood, claro.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
31 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
-¿Viste The Handsmaid's Tale [la adaptación de HBO de su novela]?
-¿Si la vi? Quedan sólo dos capítulos y estoy muy emocionada. Leí la historia cuando estaba en
la universidad y escribí muchos trabajos sobre el libro. Me encanta la serie.
-¿En qué evolucionaste desde la publicación de La chica del tren a esta parte?
Escrito en el agua es un libro mucho más ambicioso que La chica del tren y espero que el
próximo lo sea más aún. Quiero hacer algo nuevo, no me gustaría repetirme, aunque hay temas
que me gustan mucho, como meterme en temas psicológicos.
-¿Te vas a involucrar en la adaptación de Escrito en el agua?
-Con La chica del tren no participé en absoluto, pero con Escrito en el agua sí lo haré, aunque
no voy a adaptarla, porque quiero escribir una nueva novela. Sí voy a ser la productora
ejecutiva y me gustaría hablar con los escritores y ayudar a darle forma a esta historia. No
tenemos ni director ni actores confirmados.
-Algunos lectores se disgustaron con la adaptación de La chica del tren.
-Lo sé. Estaban enojados con el hecho de que la historia que ocurría en Londres se trasladara a
Nueva York, pero la gente tiene que entender que son cosas diferentes y que nunca podrá
reproducir una película lo que te imaginaste en tu cabeza.
http://www.lanacion.com.ar/2032468-paula-hawkins-me-considero-feminista-y-creo-que-mi-libro-tambien-
lo-es
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
32 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Carnot y los comienzos de la termodinámica (2)
Por César Tomé
La máquina ideal de Carnot, tan sencilla como es, explica algunos aspectos fundamentales del funcionamiento
de máquinas y motores de todo tipo y permite formular un principio fundamental de la naturaleza.
Las chimeneas anchas de la derecha en realidad son torres de refrigeración. las chimeneas auténticas por las
que salen los gases de la combustión del carbón de esta planta de generación eléctrica son las altas y delgadas.
Cualquier máquina que derive su energía mecánica del calor se debe enfriar para eliminar el “desperdicio” de
calor a una temperatura más baja. Si hay alguna fricción u otra ineficiencia en la máquina, agregarán más calor
residual y reducirá la eficiencia por debajo del límite teórico de la máquina ideal.
Sin embargo, a pesar de las ineficiencias de todas las máquinas reales, es importante saber que nada de la energía
total se destruye. Lo que ocurre con la parte de la energía de entrada que llamamos residual es que no se puede
emplear para hacer trabajo útil. Así, el calor residual no puede ser reciclado como energía de entrada para hacer
funcionar la máquina para producir más trabajo útil y así aumentar la eficiencia del motor a base de reducir la
cantidad de energía residual, porque el depósito de calor de entrada está a una temperatura más alta que el de
salida, y el calor no fluye por sí mismo de frío a caliente.
La observación de Carnot, que parece tan obvia, esa de que el calor no fluye por sí solo de un cuerpo frío a uno
caliente, y que la necesidad de acondicionadores de aire y refrigeradores ilustra tan bien, no es más, si se
generaliza, que una forma de expresar un principio fundamental de la naturaleza: la segunda ley de la
termodinámica. Esta ley es una de las más potentes que conocemos, dada su capacidad para explicar cosas:
desde cómo y en qué sentido ocurren los fenómenos naturales a los límites fundamentales de la tecnología.
Volveremos a ella repetidamente en esta serie.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
33 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Un ejemplo paradójico del resultado de Carnot
Si quemamos gasóil para calefacción en una caldera en el sótano de nuestro edificio, sabemos que parte del
calor se pierde por la chimenea en forma de gases calientes y otra como calor perdido porque el propio quemador
no puede estar aislado por completo. Con todo, los recientes avances en tecnología de calderas han dado como
resultado calderas con una eficiencia nominal de hasta 0,86, o 86%.
Ahora bien, si preferimos radiadores eléctricos, nos encontramos con que es probable que la compañía de
energía eléctrica todavía tenga que quemar petróleo, carbón o gas natural en una caldera, Y después conseguir
que esa electricidad generada llegue a nuestra casa. Debido a que los metales se funden por encima de una cierta
temperatura (por lo que la sustancia caliente no puede superar la temperatura de fusión de su contenedor) y
debido a que el agua de refrigeración nunca puede bajar por debajo del punto de congelación (porque entonces
sería sólida y no fluiría, lo que pone un límite inferior de temperatura a nuestra sustancia fría), el hallazgo de
Carnot hace imposible que la eficiencia de la generación eléctrica supere el 60%. Dado que la caldera de la
compañía de energía también pierde parte de su energía por la chimenea, y dado que existen pérdidas de
electricidad en el camino desde la planta que la genera, sólo alrededor de un cuarto a un tercio de la energía que
había originalmente en el combustible llega realmente a tu casa. Una eficiencia, en el mejor de los casos, del
33 %. Paradójicamente, la calefacción eléctrica es mucho menos sostenible que una caldera de gasóil si las
plantas que generan energía emplean combustibles fósiles.
Debido a los límites encontrados por Carnot para las máquinas térmicas, a veces es importante no sólo dar la
eficiencia real de una máquina térmica, sino también especificar lo cerca que está del máximo posible. Los
aparatos de calefacción domésticos y muchos aparatos eléctricos de gran potencia, como frigoríficos y
acondicionadores de aire, vienen ahora con una etiqueta que indica la eficiencia relativa del aparato y el
potencial de ahorro anual en coste de electricidad.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
https://culturacientifica.com/2017/06/13/carnot-los-comienzos-la-termodinamica-
2/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaCientfica+
%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
34 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Se inspiran en la biología para resolver problemas complejos en cómputo
CENTRO DE INVESTIGACIÓN Y DE ESTUDIOS AVANZADOS
Boletín No. 53 06 de julio de 2017
ciberseguridad e ingeniería aeronáutica, entre muchas otras áreas.
Los movimientos de las hormigas, los patrones de
vuelo de las aves, el proceso de evolución natural planteado por Charles Darwin o el funcionamiento del
sistema inmune, entre otros conceptos biológicos, están ayudando a encontrar soluciones a problemas
complejos y desafiantes en ciencias de la computación.
A este método empleado por los expertos en el área de computación, de física o hasta de matemáticas
aplicadas, que toma su inspiración de ciertos fenómenos biológicos para crear reglas que hagan más eficientes
la búsqueda de soluciones se le llama metaheurísticas bioinspirada.
De acuerdo con Carlos Coello Coello, investigador del Departamento de Computación del Cinvestav, este no
es sólo un término científico abstracto. Se ha aplicado en la solución de problemas muy complejos de
optimización y clasificación que han ayudado, por ejemplo, a mejorar la detección de cáncer de mama, a
incrementar la velocidad del tren bala de Japón, al mejoramiento de redes de distribución de potencia eléctrica
y para resolver problemas de ingeniería aeroespacial, incluyendo un proyecto en el que participa el mismo
Coello con la Japan Aerospace Exploration Agency (JAXA), en el que se pretende enviar un avión a
fotografiar la superficie de Marte en el 2020.
Para entenderlo mejor, dice el también Premio Nacional de Ciencias y Artes 2012, hay que tener en mente
que una heurística es una técnica que busca soluciones buenas a un costo computacional razonable (dispuestos
a esperar minutos, horas o días por una respuesta). A cambio de estas ventajas, no se garantiza que la solución
a encontrar sea óptima, válida o factible, y en algunos casos, ni siquiera puede determinarse qué tan cerca se
encuentra de la mejor solución posible.
Pese a esta limitante, existen muchos problemas de optimización en el mundo en los que es imposible usar un
método exacto que garantice encontrar siempre el óptimo. Además, el rápido crecimiento de la velocidad de
los procesadores y el abaratamiento de las memorias de las computadoras que experimentamos hacia finales
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
35 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
del siglo XX han contribuido a popularizar el uso de las metaheurísticas, término acuñado por Fred Glover en
1986, que se refiere a procedimientos de búsqueda de alto nivel, en los que se combinan varias reglas
heurísticas para resolver un problema.
La flexibilidad y facilidad de uso que ofrecen las metaheurísticas, las han vuelto una opción recurrente para
resolver problemas (sobre todo de optimización) de alta complejidad. Sin embargo, debe evitarse su uso
indiscriminado, pues no son adecuadas para todo tipo de problemas. Como dice el propio Coello “no se debe
intentar matar una mosca usando una escopeta”.
Para los que trabajamos en computación, destaca el investigador del Cinvestav, este siglo es el de las
metaheurísticas, ya que construir mejores algoritmos (pasos que seguimos para resolver una tarea en
particular), permite abrir un abanico de posibilidades y retos, desde optimizar los sistemas de control
(robótica, estructuras, etcétera), programación de horarios, bioinformática, minería de datos (sobre todo con
grandes volúmenes de datos), calibración de modelos y redes hidráulicas, ingeniería aeronáutica, clasificación
y reconocimiento de patrones, problemas de transporte, hasta algoritmos para resolver la sincronización de
semáforos en una avenida.
Hay varios ejemplos de metaheurísticas bioinspiradas: los algoritmos evolutivos, los cúmulos de partículas,
los sistemas inmunes artificiales, y la colonia de hormigas.
De entre las metaheurísticas bioinspiradas, las más usadas son los algoritmos evolutivos, que se basan en el
principio de “supervivencia del más apto” de Charles Darwin. Dentro de éstos existen tres paradigmas
principales: la programación evolutiva, las estrategias evolutivas y los algoritmos genéticos. Estos últimos son
los más populares en la actualidad.
Atención a medios: Imágenes disponibles en:
Tel: 57 47 38 00 ext: 3359 www. flickr.com/photos/cinvestav
http://www.conacytprensa.mx/index.php/centros-conacyt/cinvestav/16793-se-inspiran-en-la-biologia-para-
resolver-problemas-complejos-en-computo
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
36 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Municipios: Arcaicos e ineficientes
1 JUNIO, 2015
Oliver D. Meza
Para nuestros legisladores, ante el reto de promover la eficacia gubernativa de los municipios, no ha existido
otra medicina más que alterar las reglas electorales. Sin antes cuestionar siquiera el diseño que rige la
gobernanza de los ayuntamientos. En efecto, se ha vertido mucha energía en discutir reglas para procurar más
pluralidad en los cabildos, más partidos políticos, ahora candidatos independientes y nuevas formas de elegir
al regidor. Pero el resultado positivo de estas reformas político-electorales se ha visto socavado por el
conjunto arcaico de reglas que siguen imperando en los ayuntamientos.
Vale la pena reflexionar justo sobre este tema ahora que estamos a unas semanas de ir a votar para renovar
cerca de mil nueve ayuntamientos.1 Pues aunque cada tres o cuatro años renovamos alrededor de 22 mil
funcionarios que integran los dos mil 441 cabildos de México,2 la verdad es que conocemos poco o
absolutamente nada sobre el trabajo que desempeñan. Hemos combatido ferozmente el presidencialismo
federal pero no el local, hemos impulsado mecanismos de transparencia y rendición de cuentas, de evaluación
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
37 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
y supervisión gubernamental, de combate a la corrupción, pero nada hemos hecho para modificar un
ayuntamiento que prácticamente funciona igual desde el siglo XIX. Sin menoscabo, entonces, de la relevancia
que tienen las reglas electorales, es decisivo tener claro que otras reformas están pendientes y que éstas
condicionan la efectividad de los cabildos para trabajar en función del interés público.
En este sentido, ¿qué significa para un ciudadano cualquiera ir a votar por su presidente municipal o regidor?
Para los partidos las elecciones municipales permiten medir la confianza que las personas depositan en ellos.
Por ejemplo, los comicios en este 2015 se conocen como elecciones intermedias. Para los analistas se trata de
un termómetro natural de la situación política en el país. Los resultados en los ayuntamientos ofrecerán
información sobre los deseos del ciudadano para facilitar el poder que ejerce el nivel federal o estatal u
ofrecer un contrapeso decidido.
Pero para el ciudadano ¿qué significa votar por su ayuntamiento? ¿Acaso asocia expectativas entre su voto y
su bienestar, su situación económica o la de su colonia, o los espacios que día con día debe cruzar para llegar
a su trabajo, escuela o familia? ¿Qué hacen los regidores? ¿Para quién trabajan? ¿Cómo se eligen?
En principio, las atribuciones entre presidentes y regidores municipales establecen una división de trabajo
clara y tajante. El Instituto Nacional para el Federalismo y el Desarrollo Municipal (INAFED) explica que los
regidores tienen funciones de carácter deliberativo y de representación pública. En efecto, la Constitución
señala que los regidores son representantes populares que conforman el ayuntamiento y que éste último
gobierna al municipio pero son los presidentes municipales el brazo ejecutor de las decisiones del
ayuntamiento. De ahí que formalmente los regidores deliberan y los presidentes ejecutan. No hay que perder
este dato de vista, pues más adelante veremos cómo esta dinámica afecta las decisiones municipales.
En la mayoría de los estados los regidores se eligen por listas de candidatos que acompañan al prospecto del
presidente municipal. La regla es sencilla, el partido ofrece una lista de candidatos y el votante, con un
plumazo, avala la selección. En dicha lista el orden de los nombres sí tiene importancia pues de ello depende
la probabilidad de tener un lugar en el ayuntamiento. El primero en la lista sería el presidente municipal (si
gana su partido), y los que siguen serían los regidores dependiendo de la proporción de votos que el partido (o
coalición) logre recibir durante los comicios.3
Habría que preguntarnos si este mecanismo favorece a los ciudadanos, pues en realidad quienes deciden son
los partidos. El votante tiene nulas posibilidades de alterar quién sería su representante y, por otro lado, los
candidatos a regidor no necesitan cortejar al ciudadano. Basta observar cómo la propaganda municipal se
concentra en la figura del presidente, mientras que el candidato a regidor es ignorado. De ahí que para
ubicarse en una buena posición en esa lista el potencial regidor tiene que ganarse el favor de su partido o del
candidato a presidente municipal. Pero en ningún momento debe congraciarse con el electorado.
Esto altera profundamente la dinámica al interior del ayuntamiento. Ya que si el regidor debe el cargo a su
partido político o al presidente municipal es muy probable que se vuelva un defensor a ultranza de las
propuestas de éstos, lo cual resulta en que las discusiones de los ayuntamientos se politizan y tal circunstancia
motiva negociar “en lo oscurito”. Esta deliberación debería ser pública y transparente pero no lo es, y eso
tiene costos invaluables.
El ayuntamiento tiene dos tipos de costos. Los que incurren sus miembros como parte de las nóminas que
devengan y los que incurren por su ineficacia gubernativa. La segunda es mucho más grave, pero no sobra
mencionar algunos de los problemas que giran alrededor de la nómina municipal.
Según datos del INEGI, para el año 2010 sólo 10 estados4 reportaron información de nómina de las regidurías
y sindicaturas. Las cifras señalan que por concepto de nómina se erogó un total de 370 millones 566 mil 601
pesos (regidores y síndicos). El monto parece ser cuantioso, sin embargo el dato subestima la realidad.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
38 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Primero, porque tan sólo aplica para una tercera parte de las entidades federativas que reportaron cifras;
además, porque si hacemos el cálculo tendríamos que resignarnos con que los regidores viven con cinco mil
147 pesos al mes. Es cierto que los municipios son diversos entre sí, y seguramente algunas áreas rurales
pagarán una cifra similar a la reportada, pero éste no es el caso para los lugares sobre los que se tiene
información. Entendamos que las dietas de los regidores se componen de varios rubros, lo que en ocasiones
llega a triplicar el salario base que reciben. Así, en un municipio de Aguascalientes, por ejemplo, los regidores
reportan un salario de 15 mil pesos más una compensación equivalente a otros 15 mil, más una gratificación
de 33 mil, una ayuda adicional de mil 800, otra ayuda de despensa de 170 pesos, lo que da un total de
aproximadamente 64 mil pesos al mes. Quitando los impuestos, queda un ingreso neto de 48 mil pesos
mensuales; tres veces más de lo inicialmente reportado.5
El segundo costo, todavía menos explorado, es tener ayuntamientos que en términos prácticos no velan por el
interés público. Es decir, hemos discutido cómo se eligen los regidores, también hemos comentado que el
regidor es deliberativo con nulas facultades para incidir en el desempeño de la administración pública local.
Ante esta circunstancia, ¿qué costo tiene para nuestra democracia local tener regidores asignados por los
partidos y amarrados en sus facultades para incidir en los asuntos locales?
La pluralidad política en los ayuntamientos, se ha dicho, favorece la representación de los ciudadanos y
refleja la diversidad ideológica de las sociedades. En 1983 una reforma al artículo 115 de la Constitución
permitió a los estados optar por la regla de representación proporcional (RP) para seleccionar a los miembros
de los ayuntamientos.6 El propósito fue promover la pluralidad partidista a nivel local. Desde entonces la
interpretación que hicieron los legisladores locales de esta figura resultó en que en México existan dos tipos
de ayuntamientos: 1) los que asignan mediante la regla de RP a más del 50% de los integrantes del
ayuntamiento, mientras que la minoría restante le corresponde al partido político del presidente municipal
electo, y 2) los que asignan gracias a la regla de RP a menos del 50% del ayuntamiento y la mayoría es para el
partido político del presidente electo. Los primeros son estrictamente ayuntamientos RP y los segundos son
más de tipo mayoría relativa (MR).7
Ahora bien, en teoría los ayuntamientos de RP tendrían un colegio más diverso, más plural y más
representativo de la sociedad. Según las teorías democráticas un ayuntamiento RP tendría más beneficios que
uno de MR, pero la evidencia en México podría señalar lo contrario (ver gráfica 1).
Una comparativa simple señala que los ayuntamientos RP recaudan menos ingresos propios y mantienen
menor autonomía financiera frente a los gobiernos estatales y federales. La gráfica 1 muestra cómo los dos
tipos disminuyen su autonomía financiera, pero los ayuntamientos de RP presentan una disminución más
pronunciada en términos porcentuales. En el mismo periodo los ayuntamientos con MR presentan mejores
niveles en los ingresos propios (per cápita) que los que obtienen los de RP.
Cabe aclarar que no necesariamente es mejor recaudar más, o depender en menor medida de transferencias
estatales y federales. Especialmente en la recaudación, los ciudadanos pueden estar sujetos a altos indicios de
rapiña gubernamental y, por ello, recaudar más ingresos puede ser que no se vea reflejado en los servicios
públicos. Lo cierto, sin embargo, es que para ningún gobierno local es mejor depender de lo que otros
gobiernos le otorguen. Ello en parte significa estar sujeto a los designios políticos de lo que acontece en otros
niveles de gobierno. Lo cual no siempre refleja los intereses locales de la ciudadanía. Un gobierno que no
asume el costo de financiar sus propias acciones no rinde cuentas al ciudadano, que es de quien extrae los
medios para su existencia. En este sentido, perder autonomía financiera significa renunciar al gobierno propio
y dado que los regidores son elegidos por los partidos políticos nacionales, son generalmente éstos los
intereses que se imponen sobre los del ciudadano.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
39 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Vale mencionar que en algunos estados la ley cambió con la intención de representar mejor al ciudadano. Éste
es el caso de las recientes reformas electorales de Nayarit y Guerrero. Aunque Guerrero no ha logrado
implementarlas, en Nayarit sí se logró y los regidores se eligen por demarcaciones. Es decir, el municipio se
dividió en pequeñas circunscripciones para que éstas elijan al regidor que les represente en el ayuntamiento.
Ello haría que el regidor rindiera cuentas al ciudadano pues, en este caso, él es elegido por la circunscripción
votante (ver gráfica 2).
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
40 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En una comparación entre municipios de Nayarit con regidores por demarcación (RXD) y otros municipios
colindantes8 (sin RXD), observamos patrones preocupantes. Ambos tipos de ayuntamientos incrementan el
gasto total virtualmente igual entre el 2004 y el 2011. Recuerdo al lector que 2007 fue el año en que se
inauguró la figura de regidor por demarcación. El incremento en el gasto es el mismo, pero no su
composición. Los ayuntamientos con RXD no incrementaron sus ingresos propios como sí lo hicieron los
otros ayuntamientos. Además, la autonomía financiera que gozan los primeros está muy por debajo de la que
gozan los ayuntamientos sin la figura de regidores por demarcación.
Por otro lado, la limitada capacidad de acción de los regidores se puede observar claramente en otro ejemplo:
la participación ciudadana. Los regidores por demarcación deberían ser facilitadores de los medios para
incrementar el involucramiento del ciudadano en los asuntos públicos del municipio. Pero el número de
mecanismos municipales para detectar necesidades sociales y el número de áreas de políticas municipales con
participación de la ciudadanía es relativamente la misma entre 2004 y 2011 en ayuntamientos con y sin la
presencia de RXD. Y es que ante la dicotomía entre ejecutores y deliberadores es el presidente municipal
quien puede ordenar a la burocracia hacer “miércoles ciudadanos” o instalar un “buzón de sugerencias”. El
regidor puede hacer lo que quiera mientras no altere o se meta a la arena del presidente municipal, lo que
implica acciones aisladas, descoordinadas y de muy bajo impacto.
Si las teorías democratizadoras obtuvieran evidencia a su favor, el regidor por demarcación, que teóricamente
podría rendir mejor cuentas a la ciudadanía, estaría posibilitado en un ayuntamiento con finanzas más
sustentables y una administración municipal más receptiva pues el futuro de su carrera política se juega, en
parte, en esos resultados. Pero las reglas actuales del ayuntamiento inhiben el potencial efecto de la reforma.
Si los partidos mantienen el monopolio de las candidaturas, y si no existen mecanismos transparentes para que
los regidores incidan efectivamente en las decisiones del ayuntamiento, el regidor electo se verá en la
disyuntiva de jugar a favor de su partido en lugar de sus representados.
La figura del candidato independiente y la reelección para autoridades municipales son dos reformas que se
han instalado recientemente. La primera con el propósito de brindar mayor representatividad y para disminuir
el monopolio que tienen los partidos políticos sobre las candidaturas. La segunda con el propósito de
modificar los incentivos de corto plazo que imponen las administraciones en México.
Ambas reformas, como las anteriores, ofrecen prometedores dividendos. En teoría son los ciudadanos quienes
tendrían los beneficios. Los candidatos independientes permiten a la sociedad postular perfiles que no hayan
sido considerados por los partidos y la reelección de presidentes municipales ofrece la posibilidad de castigar
o sancionar el desempeño de las administraciones locales en curso.
Sobre el papel que puedan desempeñar los candidatos independientes cabe hacer la siguiente reflexión,
especialmente en caso de no ganar la silla presidencial. Entrarían al cabildo, ciertamente, pero como cualquier
otro regidor quedarían institucionalmente cancelados; con nula capacidad de influir en las decisiones del
ayuntamiento. Peor aún, al no tener el respaldo de algún partido, sus capacidades serán aún menores.
Habiendo resuelto el tema de la representatividad ciudadana quedaría pendiente el de la capacidad para
gobernar.
La reelección, por otro lado, plantea la posibilidad de combatir el cortoplacismo que prevalece en los
ayuntamientos. Esta reforma señala que los estados a través de sus constituciones podrán establecer la
elección consecutiva de presidentes municipales, síndicos y regidores. Los frutos de la reelección dependerán
de la interpretación que hagan los legisladores locales en la implementación. Pero es común ver, ante una
reforma de gran calado, cómo los gobernadores y legisladores locales hacen de las suyas para cumplir con la
ley sin hacerlo. Una brillante tragedia sería la de aplicar una regla cuya implementación cancele los efectos
esperados de la política original.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
41 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Aun así, los beneficios de la reelección corren el riesgo de agotarse con rapidez si no brindamos alternativas
al problema interno de la toma de decisiones. La reelección podría inhibir algunas decisiones perversas pero
generaría otras más frente a la nula transparencia y rendición de cuentas al interior de los ayuntamientos. No
hay contrapesos al presidente municipal ¿Qué lo detendrá de usar los recursos públicos en las contiendas
electorales para mantenerse en el poder si los regidores tienen incidencia nula en las decisiones ejecutivas?
Hace falta reflexionar sobre la gobernanza del ayuntamiento, sobre los contrapesos locales y la rendición de
cuentas al interior del gobierno municipal. Éstos nunca serán subsanados con meras alteraciones a las reglas
electorales.
Oliver D. Meza
Profesor invitado del Departamento de Administración Pública, CIDE, Región Centro.
El autor agradece la ayuda de Ana María Topete y Francisco Javier Alba Valadez. La responsabilidad de este
trabajo es completamente del autor.
1 Esta información está disponible en el Centro de Estudios de la Democracia y
Elecciones: http://csh.izt.uam.mx/cen_doc/cede/
2 Es el dato oficial que ofrece INEGI
en: http://www.inegi.org.mx/geo/contenidos/geoestadistica/catalogoclaves.aspx
3 Se eligen síndicos y regidores pero por cuestión de simplificación únicamente mencioné regidores.
4 Aguascalientes, Campeche, Chihuahua, Guanajuato, Guerrero, Morelos, Puebla, Sinaloa, Veracruz de
Ignacio de la Llave, Zacatecas.
5 Se agradece la claridad del sitio http://www.aguascalientes.gob.mx/transparencia
6 Acedo, Blanca (2000), Agenda de la reforma municipal. Representación política y sistemas electorales
municipales, Centro de Estudios para la Reforma del Estado, México.
7 Estados con regla RP son Durango, Guanajuato, Morelos, Guerrero, Tlaxcala, Veracruz.
8 Los municipios seleccionados para este ejercicio de comparación fueron Durango: Mezquital, Pueblo
Nuevo. Jalisco: Bolaños, Etzatlán, Guachinango, Hostotipaquillo, Magdalena, Mezquitic, Puerto Vallarta, San
Marcos, San Martín de Bolaños, San Sebastián del Oeste, Tequila. Sinaloa: Escuinapa, Rosario. Zacatecas:
Valparaíso.
http://www.nexos.com.mx/?p=24990#at_pco=jrcf-1.0&at_si=59429edb1636f448&at_ab=per-
2&at_pos=0&at_tot=1
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
42 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Evolución de los sistemas nerviosos: anélidos y artrópodos
Por César Tomé
Muchos invertebrados segmentados tienen sistemas nerviosos centrales “distribuidos”: están formados por los
ganglios de cada segmento corporal. Cada ganglio se ocupa del control del segmento en el que se encuentra y
además, quizás, de parte de los adyacentes. Los ganglios intercambian información a través de dos haces o
troncos de axones, denominados conectivos. Esa disposición da lugar a un cordón nervioso ventral característico
de anélidos y artrópodos. En el extremo anterior una o varias grandes agrupaciones de cuerpos celulares
neuronales dan lugar a la formación de un cerebro. Ese cerebro recibe información de los sistemas sensoriales
localizados en la cabeza y controla sus movimientos, pero los axones de varios somas neuronales del cerebro
se extienden a lo largo del cordón ventral y ejercen un cierto control sobre sus ganglios; así coordina el cerebro
los movimientos del conjunto del organismo.
Los anélidos fueron el primer gran grupo zoológico con un sistema nervioso central condensado de un modo
significativo. En algunas especies los ganglios están fusionados. Merece la pena citar una curiosa excepción a
la disposición general del sistema nervioso central en este grupo: las sanguijuelas tienen, además del cerebro
anterior, un cerebro caudal, en el extremo posterior, que es de mayor tamaño que el anterior. En lo que se refiere
al sistema nervioso periférico, muchos anélidos cuentan con un sistema somatogástrico muy desarrollado y en
los gusanos de tierra hay además una extensa red subepidérmica de nervios finos.
Las formas de comportamiento mejor estudiadas en anélidos son las siguientes: (1) Las respuestas de huida,
que son patrones de acción fijados en los que participan interneuronas y motoneuronas del sistema nervioso
central con axones gigantes. (2) La regulación del latido cardiaco en los corazones tubulares de sanguijuelas,
que constituyen un ejemplo de control nervioso de comportamiento rítmico. En éste participan motoneuronas
del sistema periférico cuya actividad puede ser influenciada por inputs sensoriales directos o por interneuronas
del sistema central que permiten ajustar el latido a las necesidades del animal. (3) Movimientos locomotores,
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
43 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
que están bajo el control de una red del sistema central que recibe señales de receptores sensoriales periféricos
(nociceptores, barorreceptores y receptores táctiles).
Los sistemas nerviosos de los artrópodos se asemejan a los de los anélidos. En las formas más primitivas
consisten en una cadena de ganglios ventrales unidos por conexiones horizontales. En muchas especies, los
ganglios de la cabeza y los del segmento abdominal terminal se forman por fusión de los ganglios de varios
segmentos. Los artrópodos más evolucionados, como cangrejos y algunos insectos, presentan una única masa
ganglionar torácica, además de la de la cabeza. Se trata de un sistema nervioso muy complejo, con numerosas
neuronas y, por lo tanto, muchas conexiones sinápticas. Por ello, es capaz de desarrollar una gran variedad de
comportamientos de gran complejidad.
Muchos movimientos de ajuste de la posición corporal y del movimiento de las extremidades están controlados
por señales sensoriales que son sometidas a una integración considerable por parte del sistema central, aunque
también hay circuitos de ámbito local.
En artrópodos hay comportamientos rítmicos motores y digestivos. Las actividades rítmicas
correspondientes a la locomoción, la natación y el vuelo dependen de Generadores Centrales de Modelos
formados por redes de neuronas del sistema nervioso central. En estos casos, la retroalimentación sensorial
juega un papel importante. En las respuestas rítmicas de huida, como los rápidos movimientos abdominales
de los cangrejos de río, participan dos neuronas gigantes motoras cuyos axones recorren toda la longitud
del cuerpo y que establecen conexión sináptica mutua en el cerebro, además de otros tres pares de
interneuronas con axones gigantes. El vuelo de las langostas es otra forma de comportamiento rítmico que
está controlado por un Generador Central de Modelos. Se trata de un comportamiento controlado por el
sistema nervioso central y dependiente de inputs sensoriales.
El sistema somatogástrico controla las actividades rítmicas implicadas en el procesamiento del alimento en el
sistema digestivo. Estas actividades están reguladas por conjuntos de interneuronas y motoneuronas del ganglio
somatogástrico. Su funcionamiento garantiza la correcta secuenciación de los movimientos implicados en la
conducción y tratamiento mecánico del alimento.
Además de los rítmicos, los artrópodos tienen comportamientos que no lo son. Los movimientos de huida
de las cucarachas constituyen el comportamiento no-rítmico mejor conocido en este filo. En él participan
pares de neuronas con axones gigantes, cuyos cuerpos celulares radican en los últimos ganglios
abdominales, pero cuyos axones terminan probablemente en los ganglios subesofágicos en la cabeza.
Además de estos, la presencia de axones gigantes que participan en movimientos de huida está muy
extendida en otros grupos de artrópodos.
Otro ejemplo de comportamiento no-rítmico es el de los movimientos de amartillamiento y salto en langostas
y saltamontes. En éstos participan inputs sensoriales de diferentes tipos (visuales, auditivos y táctiles) a través
del sistema nervioso central, a la vez que propioceptores y receptores cuticulares del sistema periférico. La red
nerviosa implicada, en la que se producen fenómenos de inhibición cruzada, da lugar a la contracción alternativa
de músculos flexores y extensores a cargo de sus correspondientes motoneuronas.
En la mayor parte de los comportamientos anteriores participan tan solo unos pocos ganglios. Sin embargo, en
los artrópodos se producen comportamientos muy elaborados y se ha demostrado capacidad de aprendizaje.
Todos aquellos aspectos del comportamiento que requieran una valoración del inicio, mantenimiento y duración
o selección, precisan del concurso de la principal masa nerviosa del cerebro, que suele estar dividido en dos
partes, el ganglio subesofágico y el superesofágico. Aunque se desconoce el funcionamiento preciso de estos
órganos, se ha comprobado que el superesofágico inhibe la actividad del subesofágico, quien, a su vez, ejerce
un efecto excitatorio en muchos comportamientos.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
44 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de
Cultura Científica de la UPV/EHU
Este es el artículo 3 de 3 de la serie “Evolución de los sistemas nerviosos”
1. Evolución de los sistemas nerviosos: cnidarios y gusanos no segmentados
2. Evolución de los sistemas nerviosos: moluscos
3. Evolución de los sistemas nerviosos: anélidos y artrópodos
https://culturacientifica.com/2017/06/13/evolucion-los-sistemas-nerviosos-anelidos-
artropodos/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaC
ientfica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
45 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Kim Ki-duk
La ley de la frontera
Alejándose tanto del imaginario budista como de las brutales explosiones del materialismo salvaje de
películas como Primavera, verano, otoño, invierno... y primavera, Hierro 3 o Piedad, que contribuyeron a su
fama internacional, el director surcoreano Kim Ki-duk sorprende con La red, donde bajo la cáscara del thriller
politico y el juego del policía bueno y el malo relata la odisea de un pescador que cruza involuntariamente la
frontera entre las dos Coreas.
Por Paula Vázquez Prieto
Ecléctico como pocos directores, el surcoreano Kim Ki-duk ha desconcertado a todos esta vez. La red, su
nueva película -presentada en el último Festival de Venecia-, se interna en caminos insospechados para una
filmografía cuyas dispersiones y excesos parecen ser la norma. Nacido en la región de Bonghwa, un área fría
y montañosa al este del territorio surcoreano, Kim ki-duk ha explorado en su cine desde el imaginario budista
y cierta melancolía pictorialista nacida de la conexión con la naturaleza, hasta las más brutales explosiones del
materialismo salvaje y demencial en el que arraigan algunos de sus civilizados personajes. Ha logrado el éxito
internacional con Primavera, verano, otoño, invierno … y primavera (2003), ha impuesto su incorrección con
Hierro 3 (2004), y ha sacudido los límites de la crueldad con Piedad (2012). Sin embargo, nada hay como La
red en su extensa filmografía, aún si nos remontamos a su debut con Crocodile (1996), también ambientada en
un río preñado de muerte y desvíos. Si entonces la vida de una mujer cambiaba de rumbo tras la elusión del
suicidio y el disfrute del sexo salvaje, en La red será la más pérfida mueca del azar la que tuerza la vida de un
pobre pescador de Corea del Norte. La cáscara del thriller político, el juego del policía bueno y el policía
malo, y la más declamada condena a la realidad política de aquella lejana península oriental le permiten a Kim
ki-duk una curiosa mirada sobre el presente de un país dividido, ceñido por conflictos irreconciliables, y
plagado de inimaginables absurdos.
La red no podía tener un comienzo más prometedor. Nam Chul-woo es un pescador norcoreano que todas las
mañanas se adentra en las aguas fronterizas a tirar la red y esperar el milagro de la pesca. La mirada atenta de
los guardias de uniforme rojo se apega a su recorrido, marcado por la marea y las mieles del pique. Pero ese
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
46 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
día la red se enreda maliciosamente en la hélice y la frágil embarcación de Chul-woo se desliza
irremediablemente en aguas enemigas. Al arribar a la costa surcoreana, tras la inicial sospecha llegará la
enloquecedora paranoia. Tratado casi como un alienígena, el joven pescador comunista pasará las de Caín: lo
despojarán de su ropa, de sus pocas pertenencias y lo someterán a los más furiosos interrogatorios que el
moderno capitalismo le tiene preparados. Cada golpe, cada caída, cada marca en el cuerpo de Chul-woo
resuena como un eco desde el fuera de campo porque, en esta ocasión, Kim ki-duk elude cualquier atisbo de
brutalidad explícita para sustituirla por su sola representación. Todo en La red parece aspirar a la metáfora,
incluso con atisbos de excesiva marcación. Y será el signo de la falsa libertad del consumismo el que se
impregne en las tonalidades de ese recinto ascético y casi espacial en el que Chul-woo espera el próximo
capítulo de su odisea.
En ese infierno en la Tierra que se replica en sospechas sobre su lealtad ideológica, amenazas a su mujer e
hija y en el fantasma de la deserción a su patria norcoreana, Chul-woo encontrará un inesperado aliado. Oh
Jim-woo es el guardia asignado para su cuidado. Una especie de enfermero del primer mundo con traje y
buenos modales que le ofrece ropa deportiva nueva, le muestra la confortable cama occidental que le espera
esa noche, y lo defiende ante los brutales abusos del maniático interrogador. En la inocencia juvenil de Oh
Jim-wood se gesta la confianza y cercanía que logra establecer con el pescador a lo largo de los días que dura
el encierro. Frente a ese mundo regido por el dinero y la despersonalización, la ferviente resistencia de Chu-
woo inspira en su guardia la conciencia de un posible ideal. Su defensa de Corea del Norte, pese a las
invocaciones de dictadura y lavado de cerebro, es honesta y nunca exenta de contradicciones. Se intuye que
pesa más su familia que ese voluminoso Estado, pero pese a sus dudas resiste las tentaciones de una libertad
que revela su carácter ambiguo y tristemente condicionado.
Kim ki-duk no duda en llevar a fondo su mirada escéptica, pero la ausencia de sangre y crueldad generó más
desilusión que expectativa en su breve recorrido internacional (evidente en las coberturas de revistas como
Variety y The Hollywood Reporter). Es que su celebrado virtuosismo estético, su tendencia al éxtasis formal
como correlato de una brutalidad dolorosa e incorrecta y la lenta explotación de ese registro en sus últimas
películas (sobre todo en el humor negrísmo de Moebius) han quebrado todo los parámetros y, frente a esa
estridente mirada sobre la voracidad del capitalismo y la indolencia humana, el relato en clave de fábula de La
red resulta de tono menor y por momentos algo ingenuo. Pero Kim ki-duk no es un artista reconciliado, puede
afirmar con insistencia lo sugerido pero aún en ese reintento se produce un juego interesante. Como él mismo
lo afirmaba en sus entrevistas luego de la consagración en Venecia con Piedad, la violencia explícita de sus
películas era, entonces, un filtro para que el espectador pudiera acceder a las verdaderas consecuencias de ese
mundo alterado. Aquí todo ha cambiado: la alteración es el estado de cosas del que sale y entra Chu-woo. El
temor a la alteración es lo que la película observa como el peligro latente detrás de la más obediente
aceptación.
La imposibilidad de un futuro encuentro de dos naciones nacidas del mismo vientre es vista por Kim ki-duk
con dolorosa impotencia. Sin embargo, en el retrato de sus personajes se juega su curioso e incómodo sentido
del humor, nacido de pequeños detalles y divertidas repeticiones. Cuando Chu-woo es interrogado por el
despiadado oficial del servicio secreto surcoreano -menos preocupado por los cuestionamientos de la prensa o
los llamados de atención de los estamentos políticos que por saciar una venganza personal- le hará escribir
toda su vida en una hoja. Toda, sin saltear ningún detalle. Cuando el ceñudo policía lea el informe y no quede
satisfecho, le dirá que vuelva a hacerlo, esta vez sin omitir nada. Escribir y volver a escribir para contar una
vida. ¿Cuál de ellas será la verdadera? Esa repetición tortuosa, iniciada como tragedia, terminará derivando en
farsa: Chu-woo escribirá incansablemente sobre sí mismo, a todos los que pidan y ordenen. Y será en esa
vorágine de palabras sueltas en el papel donde su verdad se irá diluyendo, donde su destino, torcido por el
capricho de la red de pesca, le deparará la más paradójica de las burlas imaginadas.
Despierto se presenta los viernes en el teatro Beckett, Guardia vieja 3556. A las 23.
https://www.pagina12.com.ar/43194-la-ley-de-la-frontera
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
47 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Jóvenes mexicanos crean parche para detectar cáncer de mama
Por Hugo Valencia Juliao
Ciudad de México. 10 de julio de 2017 (Agencia Informativa Conacyt).- Un estudiante mexicano del Instituto
Tecnológico y de Estudios Superiores de Monterrey (ITESM), campus Monterrey, desarrolló un parche de
biosensores que se inserta bajo cualquier brasier para detectar el cáncer de mama mediante termografía, esto lo
hace mediante el mapeo del área del seno utilizando múltiples sensores que miden la textura, color y
temperatura.
El producto, denominado Eva, funciona en vinculación con un teléfono inteligente al que se envían los datos
de la usuaria, analiza la información y emite un diagnóstico respecto a la salud del seno.
Julián Ríos Cantú es estudiante de último semestre de preparatoria y desarrolló esto en colaboración de otros
tres estudiantes y su mentor, el ingeniero Víctor Melgarejo Zurutuza, quien asesoró el desarrollo del proyecto.
“Lo complicado no ha sido la parte física del producto. Lo verdaderamente complejo es la forma en que se
emite el diagnóstico, es decir, tomar los datos de la temperatura del seno y eso convertirlo en un diagnóstico
confiable. Es un proceso que involucra inteligencia artificial”, explicó en entrevista el emprendedor mexicano
de 17 años.
Agencia Informativa Conacyt (AIC): ¿Cuál es la principal ventaja de este dispositivo?
Julián Ríos Cantú (JRC): Muchos de los inventos y desarrollos que se están haciendo en la actualidad alrededor
de esta problemática olvidan la parte importante de la accesibilidad. Para que esto sea rentable y funcione, tiene
que brindar un diagnóstico sin la necesidad de que los datos sean interpretados por un médico especialista.
Si fuera el caso de este producto, no se podría escalar porque no se podría llevar a una comunidad rural donde
no hay expertos que puedan interpretar ciertos datos para emitir un diagnóstico confiable.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
48 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Julián Rios.Para crear un método portátil y no
invasivo para la detección de cáncer de mama, el software es el que debe de hacer el diagnóstico y no el médico.
Esa es nuestra principal distinción: un algoritmo de inteligencia artificial que puede obtener esos datos e ir
aprendiendo hasta tener una herramienta de diagnóstico muy precisa.
Nosotros no pretendemos reemplazar métodos diagnósticos como la mastografía. Nuestra intención es otorgar
una herramienta más de diagnóstico y profesionalizar el método de la autoexploración.
AIC: ¿Cómo surgió la idea inicial de crear este dispositivo?
JRC: La idea nace hace más o menos dos años cuando a mi mamá le detectan por segunda ocasión cáncer de
mama, y lo que sucedió fue que mi mamá se hizo una mastografía aquí en México y el oncólogo le dijo que
tenía una pequeña mancha en el seno. Le dijeron que lo más probable es que fueran tumores benignos. Pasaron
seis meses y se volvió a hacer una mastografía, ahora en Estados Unidos, en esa ocasión le dieron un diagnóstico
de cáncer.
Ahí nos dimos cuenta, primero, de la falibilidad del método diagnóstico de la mastografía y, segundo, de la
negligencia médica de los profesionales de la salud por faltas al protocolo después del primer diagnóstico.
Nos percatamos de que algo no estaba bien por lo que lo primero que me dediqué a hacer fue investigar desde
páginas de Internet pasando por libros hasta artículos científicos, ahí pude comprender bastante bien muchas
cosas alrededor de la enfermedad. Y eso aunado a mi experiencia indirecta sabía cuáles eran los métodos de
diagnóstico y los tratamientos.
Lo que siguió fue hacer una búsqueda de patentes para saber que métodos existen y cuáles ya están aprobados
por las autoridades. Lo que encontré fueron cuatro métodos: la mastografía, la termografía, la autoexploración
y el ultrasonido.
AIC: ¿Cómo este dispositivo llega al diagnóstico de cáncer de mama?
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
49 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
JRC: Tomamos el concepto de la termografía que es un método aprobado desde 1985. Lo que hace la
termografía es tomar una imagen térmica del seno de la mujer, el problema es que es algo extremadamente
complejo de interpretar porque cada pixel de la imagen representa una temperatura diferente.
Entonces, lo que hacemos es llevar ese método de termografía a una escala personal y la inteligencia artificial
interpreta los resultados para brindar un diagnóstico certero.
AIC: ¿Qué apoyos han obtenido para el desarrollo y escalamiento del proyecto?
JRC: Básicamente el apoyo obtenido ha sido por parte de la incubadora de empresas del ITESM, que nos ha
llevado a través de la empresa que fundamos, Higia Tech, a relacionarnos con innovadores en el campo médico.
Al principio todo fue lento porque no teníamos el capital para desarrollar todo, pero siempre encontramos los
métodos más económicos para esto.
Fue cuestión de inventiva, más que nada, para valernos con los pocos recursos que teníamos en ese momento.
AIC: ¿Esto es un dispositivo o una aplicación médica?
JRC: Muchos quieren catalogarlo como una aplicación médica pero eso nos eximiría de obtener la certificación
médica internacional y eso sería vender pseudociencia y no ciencia, Biosensor.por lo que nuestro producto está
catalogado como dispositivo médico para uso personal.
AIC: ¿En que etapa de desarrollo van?
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
50 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
JRC: Estamos por iniciar la segunda ronda de pruebas clínicas con un número más extenso de mujeres con una
base de datos más grande. La pruebas anteriores habían sido con un grupo reducido de mujeres, ahora nuestra
base de datos es de más de mil imágenes térmicas.
Seguimos probando la factibilidad de nuestros algoritmos, así como el hardware. En esta segunda ronda, que
terminará en julio, con los resultados que esperamos solo quedará formalizarlos para presentarlos ante las
autoridades regulatorias. Esperamos que el producto se empiece a producir y vender para el público en general
a finales de 2018 o principios de 2019.
AIC: ¿Cuál ha sido tu experiencia desarrollando una empresa de base tecnológica?
JRC: En México, solo 5.9 por ciento de las pequeñas y medianas empresas desarrollan o están inmersas en el
campo de la alta tecnología. Es decir, el campo de innovación en el país está muy reducido. Lo que mayor
impacto puede crear en una sociedad es la innovación tecnológica, por lo que para que los países en desarrollo
logren dar ese salto se debe de crear un ecosistema emprendedor para el desarrollo de tecnología e innovación.
Cada vez, por iniciativas como las del Consejo Nacional de Ciencia y Tecnología (Conacyt) y las del Instituto
Nacional del Emprendedor (Inadem), se está logrando crear este ecosistema pero todavía falta mucho.
Estoy seguro que voy a ser la última generación de emprendedores que tenga que lidiar con eso porque,
seguramente, la siguiente va a tener el camino mucho menos sinuoso, y esto va a ser posible gracias a la lucha
que las startups están haciendo por conseguir más y mejores oportunidades.
AIC: ¿Cómo te vinculaste con el equipo para desarrollar tu idea?
JRC: Los conocí en el equipo representativo de robótica de la preparatoria, entonces vi que eran chicos
extremadamente listos. Supe que era un buen equipo cuando dudaron de la factibilidad de la idea y lo primero
que hicieron fue investigar el tema.
Gracias a ello, pudimos dar una idea más amplia de lo que queríamos. De tres personas pasamos a un equipo
de 15 personas, con cuatro oncólogos, dos colaboradores internacionales y varias personas haciendo
investigación de maestría en nuestros productos.
• Higia Tech
www.higia.tech
info@higia.tech
http://www.conacytprensa.mx/index.php/ciencia/salud/14312-desarrollan-parche-detectar-cancer-mama
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
51 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Contra todos los pronósticos, el israelí David Grossman ganó el premio Man Booker
Narrador central de la literatura de su país, con Gran cabaret se impuso, entre otros, a la argentina Samantha
Schweblin
Pedro B. Rey
LA NACION
JUEVES 15 DE JUNIO DE 2017
La traductora Jessica Cohen y el autor David Grossman, las dos mitades de la fórmula ganadora.
0
El novelista israelí David Grossman obtuvo ayer la versión internacional del premio Man
Booker con su novela Gran cabaret (originalmente A Horse Walks into a Bar). Grossman era
uno de los grandes contendientes para el galardón -con su connacional Amos Oz y el francés
Mathias Énard, autor de Brújula-, aunque en las horas previas las siempre sinuosas agencias de
apuestas británicas señalaban como favorita a Samantha Schweblin. La argentina -no pudo ser-
figuraba como candidata por Distancia de rescate (Fever Dream).
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
52 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En su versión ecuménica, el Booker premiaba originalmente el conjunto de una obra. Lo
recibieron, entre otros, Ismael Kadaré, Philip Roth y Lydia Davis. Desde el año último, cuando
lo obtuvo la casi desconocida coreana Han Kang por La vegetariana, pasó a centrarse en una
única obra y en la calidad de su versión inglesa. Los casi sesenta mil euros del premio se
dividen entre autor y traductor.
El novelista israelí David Grossman obtuvo ayer la versión internacional del premio Man Booker con su
novela Gran cabaret.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
53 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
David Grossman (Jerusalén, 1954), a esta altura de su carrera un merecido coleccionista de
recompensas literarias, es, con Oz y Abraham Yehoshua, uno de los narradores israelíes
centrales de la actualidad. Sus libros (Véase: amor, 1986; El libro de la gramática interna,
1991) son amplias e impecables narraciones que buscan destilar, valiéndose del estilo como
motor clave de la literatura, los efectos que tiene sobre las vidas de sus personajes la violencia
circundante en su país y los modos de procesar el dolor, sin perder de vista la utopía del
humanismo perdido. Fue La vida entera (2010), una implacable novela de 800 páginas, la que
significó un punto de inflexión en su obra. A mitad de camino de su escritura, la imaginación
se vio obligada a abrevar en la realidad. Grossman -un intelectual comprometido con la causa
de la paz y defensor de la idea de un Estado palestino- perdió en 2006 a uno de sus hijos,
soldado, en la guerra del Líbano. Una carta pública reveló, con altura, su desolación. La
novela, sin embargo, evita la trampa confesional. Es una madre, Ora, quien entra en una fuga
perpetua para no ser alcanzada por la noticia de la devastadora muerte de su vástago, al tiempo
que el portentoso fresco de La vida entera enlaza su pasado, su presente, el de su marido y el
de un viejo amigo.
No es una paradoja, sino una consecuencia de sus presupuestos, que al Booker le haya tocado
laurear uno de los libros comparativamente menores -aunque ácido y hasta, si se quiere,
divertido- del escritor, estable aspirante al Nobel. Gran cabaret se centra en un comediante
de stand-up y emula el tiempo real de una de sus presentaciones. Grossman -subraya el
anuncio- "no sólo toma riesgos emocionales, sino también estilísticos: cada frase cuenta, cada
palabra importa en este ejemplo supremo de la destreza de un escritor". Por una vez la
definición de circunstancia de un jurado sobre un libro individual vale por toda una obra.
Gran Cabaret
Autor: David Grossman
Editorial: Lumen
Páginas: 240
http://www.lanacion.com.ar/2033662-contra-todos-los-pronosticos-el-israeli-david-grossman-gano-el-premio-
man-booker
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
54 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Aislantes topológicos en sólidos amorfos
Por César Tomé
Todos sabemos que hay materiales aislantes de la electricidad y otros que la conducen: en un cable eléctrico el
cobre del interior es conductor y la protección plástica exterior es aislante. Sin embargo, existen materiales que
son aislantes en su conjunto pero que conducen la electricidad en su superficie, son los llamados aislantes
topológicos. Esta característica se debe a unos estados cuánticos muy particulares del material en su superficie.
Lo interesante del asunto es que estos estados son robustos frente a defectos y otras imperfecciones, lo que hace
que estos materiales se estén investigando intensamente porque son potencialmente útiles en computación
cuántica y otras aplicaciones.
Todos los aislantes topológicos conocidos son cristales, es decir estructuras tridimensionales perfectamente
ordenadas. Ahora, un nuevo trabajo teórico demuestra que los materiales amorfos, los llamados vidrios, también
podrían ser aislantes topológicos. Esto podría dar lugar a la búsqueda de nuevos aislantes topológicos entre en
abanico muchísimo más amplio de materiales posibles.
Los aislantes topológicos se caracterizan por ciertas simetrías. Por ejemplo, muchos aislantes topológicos son
simétricos frente a la inversión del tiempo, lo que significa que las funciones de onda electrónicas que describen
el estado no se ven alteradas por un cambio en la dirección del tiempo. Se dice que estas simetrías “protegen”
los estados de la superficie, lo que significa que el sistema no puede cambiar a otro estado sin pasar por un
cambio de fase. Actualmente la búsqueda de nuevos aislantes topológicos asume que las simetrías deseadas se
generan en una estructura reticular ordenada, pero nada se opone a que estas simetrías aparezcan en un material
no cristalino.
Los resultados, de momento una posibilidad teórica, sugieren que los aislantes topológicos podrían hacerse
mediante la creación de vidrios con un fuerte acoplamiento espín-órbita o colocando al azar átomos de otros
elementos en el interior de un aislante normal. De comprobarse que esto es cierto significará una pequeña
revolución en el mundo de los materiales que tendrá un gran impacto en el rendimiento y el coste de los
dispositivos del futuro.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
55 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Referencia:
Adhip Agarwala and Vijay B. Shenoy (2017) Topological Insulators in Amorphous Systems Physical Review
Letters doi: 10.1103/PhysRevLett.118.236402
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
https://culturacientifica.com/2017/06/14/aislantes-topologicos-solidos-
amorfos/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaCie
ntfica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
56 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Contraejemplo a la conjetura de Conway sobre el ascenso a primos
Francisco R. Villatoro
El número 13 532 385 396 179 es un contraejemplo al quinto de los cinco problemas de 1000 dólares de John
H. Conway. El problema del ascenso hasta un primo (climb to a prime) se basa en aplicar cierta función de
forma reiterada sobre un número natural; Conway conjetura que la función siempre ofrece una sucesión de
números que acaba en un número primo como punto fijo. El contraejemplo encontrado por James Davis
demuestra que la conjetura de Conway es falsa. Conway tendrá que pagarle 1000 dólares.
La función de Conway es la siguiente. Dado un número natural, se escribe su factorización en números
primos y se transforma en un número uniendo sus dígitos eliminando las operaciones matemáticas. Por
ejemplo, la función f(n) para n = 60 = 2² · 3 · 5, es igual a f(60) = 2235; como 2235 = 3 · 5 · 149, f(2235) =
35 149, que es un número primo y, por tanto, f(35 149) = 35 149. El ascenso de 60 hasta un primo nos da 60
→ 2235 → 35 149 → 35 149 → … Otro ejemplo es 32 → 25 → 52 → 2213 → 2213 → … Para algunos
números el ascenso alcanza cientos de etapas, resultando un número de cientos de dígitos, como en el caso del
número 20 → 225 → 3252 → 223 271 → 297 699 → 399 233 → 715 623 → 3 263 907 → 32 347 303 → …
¿Todos los números ascienden a un primo? Resulta que f(13 532 385 396 179) = f(13 ⋅ 53² ⋅ 3853 ⋅ 96179) =
13 532 385 396 179. Me he enterado gracias a Christian Lawson-Perfect, “13532385396179 doesn’t climb to
a prime,” The Aperiodical, 07 Jun 2017. Los cinco problemas están en John H. Conway, “Five $1,000
Problems,” PDF. Para quienes quieran jugar en Mathematica con la función de Conway, pueden usar el
código siguiente:
f[n_] := ToExpression[ StringJoin[ ToString /@ Flatten[ FactorInteger[n] /.{a_,1}:>a] ] ]
http://francis.naukas.com/2017/06/14/contraejemplo-a-una-conjetura-de-conway-sobre-los-
primos/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+naukas%2Ffrancis+%28
La+Ciencia+de+la+Mula+Francis%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
57 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
La sabiduría de la medicina tradicional maya
Por Israel Pérez Valencia
Santiago de Querétaro, Querétaro. 10 de julio de 2017 (Agencia Informativa Conacyt).- Investigadores de la
División Académica de Ciencias Biológicas de la Universidad Juárez Autónoma de Tabasco (UJAT) realizaron
un estudio para la identificación de plantas que son parte de la medicina tradicional maya y que actualmente
son utilizadas en comunidades indígenas del estado como alternativa para atender problemas de salud.
El docente investigador a cargo del proyecto, Miguel Alberto Magaña Alejandro, informó que en el estudio
participó también la estudiante de biología Karina Ramírez Méndez y este se desarrolló en la comunidad de
Tucta, municipio de Nacajuca en Tabasco, donde se encuentra la población más numerosa de indígenas mayas-
chontales que utiliza la herbolaria tradicional prehispánica para atender diferentes tipos de padecimientos.
El investigador de la UJAT subrayó la importancia de estudiar las plantas y su papel dentro de la medicina
tradicional de orígenes prehispánicos, no solo por su fácil acceso y los beneficios a la salud de quienes las
utilizan, sino además porque pueden representar una actividad económica importante para las poblaciones
indígenas, así como la conservación y generación de mayor conocimiento sobre la herbolaria tradicional maya.
“Este es un trabajo que hemos venido realizando con grupos indígenas chontales en el estado de Tabasco. La
medicina tradicional tiene un origen prehispánico, son conocimientos que se han venido pasando de una
generación a otra, principalmente por la falta de servicios de salud en sus comunidades. Ellos recurren a la
medicina tradicional utilizando las plantas que incluso tienen sembradas dentro de sus casas, en sus patios y
jardines”, aseguró.
Biblioteca Digital de la
Medicina Tradicional Mexicana
La medicina tradicional ha sido objeto de estudio de
diversas instituciones, centros de investigación, así como
del Instituto Nacional de Antropología e Historia (INAH)
y la Universidad Nacional Autónoma de México
(UNAM) que, a través de su Biblioteca Digital de la
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
58 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Medicina Tradicional Mexicana, ofrece un diccionario
enciclopédico y un atlas de plantas, estudios de la flora y
medicina tradicional de los pueblos indígenas de México.
Magaña Alejandro detalló que en el estudio se detectaron 87 especies de plantas medicinales en la localidad,
siendo las que tienen un mayor uso el toronjil (Melissa officinalis), el maguey morado (Tradescantia spathacea),
la hierbabuena (Mentha piperita), el chocho o manzanita (Malvaviscus arboreus), el estafiate (Artemisia
mexicana), la sábila (Aloe vera), la ruda (Ruta chalepensis), el achiote (Bixa orellana), la hierba del sapo
(Epaltes mexicana Less) y el limón (Citrus × aurantifolia), que se utilizan tanto en infusiones como en baños,
remojos de pie, tratamientos óticos y en aplicaciones cutáneas.
“Muchas veces mezclan las plantas con otros ingredientes complementarios como la miel, el alcohol o
ungüentos y hasta lociones. Dentro de las afecciones más comunes en las que se emplean estas plantas son los
dolores de cabeza, problemas respiratorios como bronquitis o tos, presión alta, salpullidos, hasta el colesterol y
la diabetes", enumeró.
Conocimientos ancestrales
El investigador de la Universidad Juárez Autónoma de Tabasco resaltó que otra de las finalidades del estudio
era identificar el uso de estas plantas, así como también a las personas en la población que desempeñan la
función de médicos tradicionales y que atienden a esta población, puesto que ellos son quienes cuentan con
mayor conocimiento de la medicina tradicional maya.
“Decidimos hacer esta investigación porque en esta comunidad hay poco conocimiento sobre el uso medicinal
de las plantas en la población. La metodología la llevamos a cabo con la técnica ‘bola de nieve’, que consiste
en buscar un informante clave que te diga qué personas son las que conocen o hacen uso de las plantas
medicinales, quiénes las trabajan y de ahí se van extendiendo. Se aplicaron los cuestionarios y se recopiló la
información sobre los usos, enfermedades que cubre la forma de aplicación, además de que se colectaron
algunos de estos ejemplares que serán parte del herbario de la División Académica de Ciencias Biológicas de
la UJAT”, recordó.
Como resultado de este estudio, se logró la identificación de nueve personas en la población con conocimientos
en medicina tradicional maya, la mayoría de ellos de entre 55 a 77 años de edad. Además se identificaron 87
especies de plantas medicinales, de ellas, 60 por ciento son hierbas, 25 por ciento son árboles, así como también
arbustos y palmas.
La comunidad de Tucta, municipio de Nacajuca en Tabasco, se encuentra ubicada en el kilómetro 4.5 de la
carretera Nacajuca-Tecoluta aproximadamente a 30 kilómetros de la capital de Villahermosa. Tiene una
población de mil 790 habitantes, de los cuales 702 son indígenas que hablan la lengua chontal.
• Dr. Miguel Alberto Magaña Alejandro
Profesor investigador de la División Académica de Ciencias Biológicas
Universidad Juárez Autónoma de Tabasco (UJAT)
manglarujat@hotmail.com
http://www.conacytprensa.mx/index.php/ciencia/salud/16346-sabiduria-medicina-tradicional-maya
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
59 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
¿Cómo funciona un grupo de investigación?
Mikel Casal
En los últimos días he escuchado muchos comentarios negativos acerca del papel que desempeñan los
investigadores principales
JOSÉ MANUEL LÓPEZ NICOLÁSLunes, 12 junio 2017, 23:01
Se aprovechan los directores de los grupos de investigación del trabajo de sus colaboradores? ¿Aparece
injustamente su nombre en todos los artículos aunque no hayan participado en la obtención de resultados?
¿Hinchan sus currículums a costa del trabajo de los demás?
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
60 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En los últimos días he escuchado muchos comentarios negativos acerca del papel que desempeñan los
investigadores principales de muchos grupos científicos. La mayoría de estos comentarios proceden de
jóvenes que acaban de comenzar su carrera investigadora. Como no estoy de acuerdo con muchos de ellos, he
decidido escribir este artículo.
Hace unos años me enteré de la impactante historia de Jessica Tang, una estudiante de primer curso de
Medicina de la Universidad de California. A pesar de su corta edad, Jessica había publicado la friolera de diez
artículos científicos en revistas internacionales. Sin embargo, el último de ellos fue retirado de la revista
donde acababa de ver la luz, 'Journal of Neurosurgery'.
Tang llevó a cabo su investigación dentro del área de tecnología dirigida por Jeremi Leasure. Sin embargo, y
siempre según ella, nadie le ayudó. Por ello decidió enviar sus resultados a la revista sin informar a nadie.
Jessica Tang pensó que, al hacer el trabajo 'sola', no estaba en la obligación de contárselo al resto de
miembros del grupo. Tampoco de incluir dentro de la lista de autores del trabajo a ningún investigador. Ni
siquiera al jefe del equipo, Jeremi Leasure. Cuando recibió el trabajo el editor de 'Journal of Neurosurgery'
consideró que cumplía todos los requisitos científicos y dio el visto bueno a la publicación, desatándose una
fuerte polémica.
Al enterarse de lo ocurrido, Leausure montó en cólera. No le pareció correcta la forma de proceder de Tang y
ambos tuvieron una dura conversación. Después de la 'amigable' charla la investigadora escribió una carta a la
revista científica pidiendo la retirada de su artículo. Así ocurrió.
Tras conocerse la historia fueron muchos los jóvenes investigadores que se pusieron del lado de la joven
científica. Según ellos, Jessica Tang no debía haber retirado el artículo porque nadie había colaborado con ella
en el estudio y su jefe ni siquiera se había 'puesto la bata'.
Ustedes saben que en esta sección suelo dar mi opinión personal sobre los temas que abordo, y esta vez no va
a ser una excepción. Con la información de la que dispongo Tang se equivocó. Lo que más me preocupa es
que su actitud no es un hecho aislado y cada vez se repite más. Son muchas las voces que se están levantando
en contra de incluir a los investigadores principales dentro del grupo de autores que forman parte de un
trabajo si no han 'colaborado' en el mismo. Hasta ahí estoy totalmente de acuerdo. No seré yo quien defienda
esas actitudes. Sé que existen aunque me niego a pensar que son mayoría.
Pero la pregunta que hay que hacerse es: ¿qué significa colaborar en un trabajo de investigación?
La labor del 'jefe' de un equipo científico va mucho más allá de ponerse o no la bata. Crear un nuevo grupo de
investigación no es nada fácil. Habitualmente la mayoría de los grupos proceden de escisiones de otros
equipos previamente formados, por lo que durante los primeros años de andadura es complicado conseguir
ayudas económicas para arrancar la investigación. Las dificultades por las que atraviesa un grupo no
consolidado provocan que sean cada vez menos los investigadores que se atreven a dar el valiente paso de
separarse de sus grupos de origen... y más en estos tiempos. Por ello los que se atreven a hacerlo merecen un
primer aplauso. Este es un hecho que no deberían olvidar aquellos jóvenes que años más tarde se incorporan
al grupo una vez que todo marcha sobre ruedas.
Por otro lado, cuando un joven científico entra en un equipo para empezar su carrera se le asigna un tema de
investigación muy concreto. Pero... ¿quién ha sido la persona que ha pensado que ese trabajo era adecuado?
¿quién ha buscado la bibliografía necesaria para saber que ese es un tema que no ha sido abordado por otros
grupos nacionales o internacionales? ¿quién ha encontrado la forma de adecuar el tema a las líneas preferentes
de los diferentes planes de investigación nacionales y europeos?
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
61 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Hablando de financiación, la infraestructura, los equipos, el material y los reactivos de los que disponen los
nuevos investigadores para llevar a cabo 'sus' investigaciones... ¿cómo han sido conseguidos? En la gran
mayoría de los casos gracias a proyectos y contratos de investigación encabezados por el investigador
principal cuyo currículum vitae tiene un gran peso a la hora de la concesión de dicha financiación. No hay que
olvidar que para conseguir ese currículum son muchas las horas que esos investigadores principales han
debido de pasar previamente 'con la bata puesta' en las poyatas de diferentes laboratorios nacionales e
internacionales.
Además, hay una parte oscura del investigador principal de un grupo que pocas veces se reconoce. Para que
un equipo funcione hace falta un líder que no solamente tenga un gran currículum, sino que posea mucha
'mano izquierda'. Solo de esta forma se resolverán los problemas personales que suelen surgir entre los
diferentes integrantes de los grupos de investigación... Y esta es una de las claves del buen funcionamiento
del equipo.
Concluyo. Aunque no soy de dar grandes charlas a mis doctorandos, el primer día de trabajo siempre les
repito la misma parrafada: «Tu trabajo siempre será reconocido y jamás dejarás de estar presente en ninguna
de las publicaciones en las que hayas trabajado. Tampoco se incluirá a nadie que no haya participado en la
investigación. Pero nunca olvides que para que tú puedas sentarte en esa silla, emplear ese ordenador, acceder
a ese laboratorio, disponer de todos esos equipos, utilizar esos reactivos, abordar un trabajo previamente
diseñado y poder enviar los resultados a una revista científica, hay mucha gente que trabaja a tu alrededor sin
los que nada sería posible... ellos también merecen estar en dichas publicaciones».
http://www.laverdad.es/ababol/ciencia/funciona-grupo-investigacion-20170612002809-ntvo.html
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
62 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Adiós a las microesferas de plástico en los cosméticos
Por César Tomé
Las microesferas de plástico son las minúsculas partículas de plástico que contienen algunos productos
cosméticos, como pastas de dientes, geles de ducha o exfoliantes, que las incluyen por su capacidad abrasiva.
Los microplásticos son una parte teóricamente pequeña del problema de la contaminación por plásticos, pero
su impacto es especialmente grave porque se utilizan en productos cuyos residuos se van por el desagüe y llegan
con mucha facilidad a los sistemas de tratamiento de aguas, donde no siempre pueden ser eliminados de forma
eficaz y acaban acumulándose en el mar.
¿Para qué usamos cosméticos con microplásticos?
La mayor parte de los cosméticos que contienen microplásticos están diseñados para exfoliar la piel.
La exfoliación es un proceso de renovación natural de la piel a través del que se eliminan las células muertas
de la epidermis. Cuando las células muertas de la epidermis se acumulan (hiperqueratosis) provocan un
indeseable engrosamiento de la piel.
La exfoliación también se puede inducir utilizando productos exfoliantes. Estos cosméticos se emplean para
eliminar esas escamas o células muertas de piel mediante una acción química o física. Se usan para mejorar el
aspecto de la piel dañada por el sol, disminuir arrugas, mejorar cicatrices de acné o varicela, y decolorar o
eliminar manchas [1].
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
63 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En la exfoliación química (también denominada peeling químico) se utilizan enzimas o sustancias ácidas, como
el ácido salicílico y ácido tricloroacético. Debido a su elevada capacidad de penetración en la piel y a su poder
abrasivo, deben ser aplicados con supervisión profesional.
En la exfoliación física (también denominada exfoliación mecánica) se emplean materiales que, por roce con
la piel, ayudan a sustraer las células muertas y los contaminantes que se acumulan en la epidermis. Se emplean
sales minerales, semillas molidas, polvos de piedra pómez y, sobre todo, microplásticos. Estos microplásticos
son partículas de un milímetro de diámetro o menos que suelen ser de polietileno (PE). También los hay de
tereftalato de polietileno (PET), polipropileno (PP) y polimetacrilato de metilo (PMMA).
El mar de plástico
Han bastado un par de generaciones en las que hemos utilizado plásticos de forma masiva, para generar un
problema de contaminación marina que ahora la ciencia trata de abordar. Todavía hay muchas incógnitas, pero
algunas estimaciones ayudan a vislumbrar la magnitud del posible desastre. Cada año llegan al mar unos ocho
millones de toneladas de plástico. China, Indonesia y Filipinas encabezan la clasificación de los países que más
cantidad arrojan, y los 20 primeros –todos en Asia y África, excepto Estados Unidos y Brasil– son responsables
del 83% del plástico mal gestionado que puede acabar en el mar [2].
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
64 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
De todo el plástico que llega al mar, el 1,5% son microplásticos [3]. Parte de estos microplásticos antes eran
botellas, tapones, redes, cualquier cosa, y se han ido fragmentando hasta hacerse tan pequeños que son muy
difíciles de eliminar. Se denominan microplásticos secundarios.
A estos microplásticos secundarios que se van produciendo en el proceso de biodegradación natural, hay que
sumarles los microplásticos de los productos cosméticos.
Probablemente, el estrato de plástico que deje nuestra civilización sea uno de nuestros legados geológicos [4].
Un legado geológico de cuyas consecuencias ecológicas se tienen cada vez más indicios: la vida marina no solo
incorpora estos residuos a sus hábitos (para depositar huevos o desplazarse, por ejemplo), sino que existen
evidencias de ingestión y ahogamientos en diversidad de organismos [5].
El plástico no afecta a la salud, afecta al medioambiente
Actualmente no hay evidencias científicas suficientes para preocuparse por los efectos toxicológicos de estos
plásticos, y es por ello por lo que su uso está permitido en cosmética, porque no acarrean ningún riesgo para la
salud. El problema no es sanitario, sino de carácter medioambiental.
Esa imagen que guardamos en la memoria de plásticos formando enormes islas compactas y flotantes, aunque
sea un mito, ayudó a la concienciación sobre el problema medioambiental. Aunque existen proyectos para
‘limpiar’ el plástico de los océanos, esa tarea se ha convertido en algo inabarcable [6]. Es por ello por lo que se
ha puesto el foco en tierra, no en mar: hay que evitar que los microplásticos lleguen al mar.
Aunque sólo el 1,5% del plástico que llega al mar son microplásticos y esto no parece demasiado, la parte que
aporta el uso de estos cosméticos puede eliminarse con relativa sencillez.
¿Por qué los exfoliantes llevan microplásticos y no otras sustancias?
Los microplásticos empezaron a emplearse en los productos exfoliantes porque suponían ventajas frente al uso
de otras sustancias abrasivas. La principal ventaja estriba en su carácter inerte y su ligereza. A la hora de
formular cosméticos, es interesante que estas partículas no afecten a la estabilidad y conservación del producto.
Los plásticos que se emplean se mantienen inalterables y resulta sencillo mantenerlos en suspensión. Esto se
vuele más complejo si utilizamos partículas biodegradables, ya que son menos estables y pueden reducir la vida
útil del producto.
Otra ventaja frente a algunos exfoliantes minerales, como los que contienen piedra pómez o roca volcánica
pulverizada, es que los microplásticos son menos agresivos para la piel. Estos exfoliantes minerales no siempre
pueden utilizarse sobre el rostro, sobre pieles secas o sensibles, ya que de por sí son sustancias deshidratantes.
Los microplásticos se convirtieron en la opción idónea para formular productos cosméticos de alta calidad y
específicos para pieles sensibles.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
65 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Este exfoliante específico para pieles sensibles contenía polietileno. Actualmente contiene mineral perlita.
Los laboratorios cosméticos se alían contra los microplásticos
En Estados Unidos el uso de microplásticos en productos cosméticos estará prohibido, por motivos
medioambientales, a partir de julio de 2017 [7]. Esta ley afecta también a otras industrias que los emplean,
como el sector textil y otros sectores industriales (ingredientes de tintas de impresión, pinturas spray, molduras
de inyección y abrasivos).
En cambio, el uso de microplásticos en cosmética sigue estando permitido en la Unión Europea, ya que no
suponen ningún riesgo para la salud. Aun así, importantes laboratorios cosméticos han optado por dejar de
utilizar microplásticos y emplear otras sustancias en su lugar. La motivación de estos laboratorios radica en su
filosofía de marca. Para algunos, la cuestión medioambiental es suficientemente relevante como para modificar
sus productos.
Dependiendo de la naturaleza del producto cosmético y sus indicaciones, los microplásticos se han cambiado
por sales, semillas, minerales o cáscaras troceadas de diferentes frutas.
Este proceso de cambio es más complejo de lo que puede parecer a simple vista: implica investigar nuevas
opciones, adaptarlas a la indicación original del producto (no es lo mismo un producto para pieles secas o pieles
grasas, por ejemplo), cambiar la formulación de un gran número de productos (no sólo de la sustancia abrasiva,
sino del conjunto de componentes), volver a evaluarlos y pasar todos los controles de calidad como si se tratase
de un producto nuevo.
Algunos laboratorios han iniciado las modificaciones de sus productos hace años. Algunos emprendieron estos
cambios ya en 2013 [8]. Y durante este año, 2017, ya habrán modificado la formulación de todos sus productos
para que ninguno contenga microplásticos.
Los laboratorios de mayor impacto en el mercado cosmético y en las tendencias de consumo ya han cambiado
sus productos. Será cuestión de tiempo, de poco tiempo, que todos los demás, si quieren sobrevivir, tengan que
sumarse a esta iniciativa sin microplásticos.
A veces la responsabilidad medioambiental de las empresas se adelanta a la ley. Que sirva de precedente.
Fuentes:
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
66 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
[1] Exfoliación química. Dermatología estética. Rubin, Mark G. Editorial Elsevier España, 2007.
[2] Océanos de plástico. Reportaje de Silvia Blanco y Elsa Fernández-Santos para El País Semanal, 2016.
[3] Las microesferas cosméticas que contaminan los mares. América Valenzuela. QUO, 2016.
[4] The Arctic Ocean as a dead end for floating plastics in the North Atlantic branch of the Thermohaline
Circulation. Andrés Cózar, Elisa Martí, Carlos M. Duarte, Juan García-de-Lomas, Erik van Sebille, Thomas J.
Ballatore. Science Advances, 2017.
[5] Use of Micro-Plastic Beads in Cosmetic Products in Europe and Their Estimated Emissions to the North
Sea Environment. T. Gouin, J. Avalos, I. Brunning, K. Brzuska, J. de Graaf, J. Kaumanns, T. Koning, M.
Meyberg, K. Rettinger, H. Schlatter, J. Thomas, R. van Welie, T. Wolf. SOFW Journal, 2015.
[6] El joven holandés que está obsesionado con sacar el plástico del mar. BBC Mundo, 2015.
[7] H.R. 1321, the “Microbead-Free Waters Act of 2015,” which prohibits the manufacture and introduction
into interstate commerce of rinse-off cosmetics containing intentionally-added plastic microbeads. The White
House, Office of the Press Secretary. December 28, 2015.
[8] Eliminación gradual de las microesferas de plástico. Nota de prensa de L’Oréal, 2016.
Sobre la autora: Déborah García Bello es química y divulgadora científica
https://culturacientifica.com/2017/06/01/adios-las-microesferas-plastico-los-
cosmeticos/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaC
ientfica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
67 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Conoce el centro pionero en computación y tecnología de vanguardia
Por Janet Cacelín
Ciudad de México. 10 de julio de 2017 (Agencia Informativa Conacyt).- Conformado por 57 investigadores a
cargo de 12 laboratorios especializados, el Centro de Investigación en Computación (CIC) del Instituto
Politécnico Nacional (IPN) es una de las instituciones de mayor prestigio en México en el ámbito de las ciencias
de la computación e ingeniería de cómputo.
Aunque sus orígenes se remontan desde 1963 con la creación del Centro Nacional de Cálculo (Cenac) y a 1988
con la creación del Centro de Investigación Tecnológica en Computación (Cintec), fue hasta marzo de 1996,
cuando, tomando funciones y recursos de ambos, fue creado el Centro de Investigación en Computación.
En entrevista con la Agencia Informativa Conacyt, el actual director del centro, el doctor Marco Antonio
Ramírez Salinas, señaló que uno de los principales objetivos de la instancia es realizar investigación científica
de vanguardia orientada a la enseñanza en el posgrado, a la investigación básica y aplicada, así como al
desarrollo tecnológico.
"Este centro es dinámico, está orientado a hacer investigación con innovación. En los últimos 20 años,
manteniendo una muy alta productividad, se ha posicionado como el mejor centro de investigación del IPN,
específicamente a nivel nacional, en el campo de las tecnologías de la información y la comunicación (TIC),
como la unidad de liderazgo y referencia en estas disciplinas. Es un centro que se distingue por la alta
competitividad de sus egresados, tiene tres programas de posgrado, dos de ellos en la categoría de competencia
internacional, seguramente en las próximas evaluaciones estarán todos los programas en este nivel, de ser así,
será el primer centro de investigación que posea sus tres programas con la categoría de competencia
internacional”, afirmó el directivo.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
68 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Actualmente, el CIC, además de los proyectos de investigación científica y tecnológica que realiza para atender
las necesidades planteadas por los sectores educativo, productivo y de servicios del país, se enfoca hacia la
formación de recursos humanos en el nivel posgrado, en las áreas de ciencias de la computación e ingeniería de
cómputo, actividad que está a cargo de 54 docentes.
Los investigadores que laboran en el centro son doctores, la mayoría miembros del Sistema Nacional de
Investigadores (SNI), que tienen una alta especialidad en las ciencias de la computación, desde especialistas en
análisis de imágenes, en inteligencia artificial, robótica, mecatrónica, arquitectura de computadoras, algoritmos,
redes, internet de las cosas, entre otros.
“Hay 12 grupos de investigación que nosotros les llamamos laboratorios, que van desde microtecnología,
nanociencias, hasta inteligencia artificial, bases de datos, tecnología de software, etcétera, conformando la base
para atender con calidad el doctorado en ciencias de la computación, la maestría en ciencias de la computación
y la maestría en ciencias de ingeniería de cómputo”, detalló.
Laboratorio de Ciencia de Datos y Tecnología de Software
En este laboratorio, los investigadores desarrollan nuevas herramientas, técnicas, algoritmos y metodologías
para la creación y gestión de sistemas de información, con esquemas que integran el manejo de bases de datos,
interfaces gráficas, minería de datos, agentes e ingeniería de software.
En entrevista con la Agencia Informativa Conacyt, el doctor Gilberto Martínez, uno de los responsables del
laboratorio, señaló que en años pasados no existían las bases de datos, solo se manejaban archivos y la
información se utilizaba sin ninguna estructura, por lo que el nombre del laboratorio fue cambiando acorde con
el avance de la tecnología.
“Conforme fue pasando el tiempo, a alguien se le ocurrió organizar de una manera un poco más estructurada y
se empezaron a generar lo que son bases de datos, modelos de bases de datos que trabajan bien en un modelo
de cómputo. Vamos girando siempre sobre la parte esencial que son los datos”, detalló.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
69 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Martínez señaló que existe otra área dentro del mismo laboratorio que lleva por nombre tecnología de software,
a cargo de la maestra Dinora Orantes Jiménez, dedicada a registrar las metodologías para que los trabajos y los
procesos se entreguen de acuerdo con las especificaciones que se usan en México.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
70 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
“En este momento, el laboratorio tiene una gran aplicación. Hay un concepto que se está manejando que son
los datos abiertos, generado por las organizaciones que publican sus datos con la idea de que sean estudiados.
Desde Ecobici con datos de los viajes de los usuarios, como datos de niveles de contaminación ciudadana; tan
solo de Ecobici son 40 millones. Nuestra misión es detectar con esos datos otros problemas”, dijo.
Actualmente el laboratorio está a cargo de cuatro profesores: los doctores Adolfo Guzmán Arenas, Jesús Manuel
Olivares Ceja, Gilberto Martínez, la maestra Dinora Orantes Jiménez y los alumnos que son quienes apoyan en
los proyectos.
Laboratorio de Ciberseguridad
Se trata de un laboratorio prácticamente recién formado. Fue creado en noviembre de 2014 como el único
laboratorio a nivel nacional especializado en ciberseguridad que trabaja diferentes líneas de investigación como
criptografía, seguridad en redes, seguridad en host, forense digital, entre otros.
Eleazar Aguirre Anaya, jefe del laboratorio, dijo en entrevista con la Agencia Informativa Conacyt que el
laboratorio se centra en varias actividades, entre ellas vinculación, desarrollo tecnológico, investigación básica,
docencia y difusión de la ciencia.
“Nuestros trabajos están dirigidos a proyectos que les llamamos a mediano plazo, como ejemplo tenemos el
proyecto de análisis de malware, el cual hemos trabajado durante aproximadamente tres años. Para ello,
conseguimos recursos tanto nacionales como internacionales a partir de convocatorias como las de Conacyt o
el gobierno de Reino Unido, de quien hemos recibido dos apoyos que nos permitieron vincularnos con
investigadores internacionales, generar capacitación especializada y organizar congresos de seguridad con
efoque de investigación (Semana de la Ciberseguridad). En el país, muy pocos grupos de investigadores se
dedican al área de ciberseguridad y sería deseable que se ampliara este número”, detalló.
El laboratorio surgió como un esfuerzo para contribuir a la búsqueda de soluciones innovadoras para abordar
el problema de la seguridad del ciberespacio y sus usuarios, sobre la seguridad de la información y los activos
críticos de tecnologías de la información.
Estos son los temas principales en los que actualmente trabajan los investigadores en el laboratorio: malware,
seguridad en el internet de las cosas, seguridad en ciudades inteligentes, esteganografía, sistemas detectores de
intrusos, entre otros.
“Primero trabajamos proyectos de ciencia básica con la idea de realizar posteriormente transferencias
tecnológicas, por ejemplo con entidades como el SAT, Sedena, Gobernación, Policía Federal, Pemex, etcétera.
Generalmente nos enfocamos en problemas nacionales de ciberseguridad. Actualmente estamos participando
en una convocatoria de un fondo sectorial con el propósito de capacitar a la policía científica de México”, dijo
Aguirre.
En estos tres años, el laboratorio también ha capacitado a otras policías en Centroamérica vía la Organización
de los Estados Americanos (OEA), en una colaboración con el CICTE (Comité Interamericano contra el
Terrorismo) a través de un departamento contra el terrorismo enfocado en fortalecer las capacidades de los
países miembros para que puedan dar respuesta a este tipo de problemas.
Procesamiento Inteligente de Información Geo-espacial
Anteriormente, cuando se fundó el Centro, llevaba por nombre Laboratorio de Geoprocesamiento pero hace
algunos años los investigadores decidieron darle un nuevo nombre que reflejara los avances que han surgido
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
71 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
con el tiempo, en respuesta a las demandas de la industria nacional y de los sectores público y privado, con
necesidades de procesamiento, transmisión y almacenamiento de datos geográficos.
De acuerdo con José Giovanni Guzmán Lugo, doctor en ciencias de la computación y actual jefe del laboratorio
conocido como PIIG-Lab, el laboratorio se dedica a estudiar lo vinculado con las ciencias de la información
geográfica.
“Lo que nos interesa es desarrollar trabajos de investigación básica e investigación aplicada para poder ayudar
en la toma de decisiones. En el laboratorio hemos tenido diversos proyectos que ejemplifican esta parte”,
detalló.
Uno de esos proyectos fue desarrollado en colaboración con el Servicio Nacional de Sanidad, Inocuidad y
Calidad Agroalimentaria (Senasica), que depende de la Sagarpa. Los investigadores desarrollaron un Sistema
de Información Geográfica donde era posible visualizar información con la que el personal de la institución
podía tomar decisiones para el control de plagas como la mosca de la fruta.
“Lo que ellos hacen es definir controles para evitar que se desarrolle una plaga en cultivos. Con este Sistema
de Información Geográfica, el trampero puede capturar la información específica que requiere Senasica, llega
de una manera más rápida, se concentra en una base de datos espacial y el Sistema de Información Geográfica
refleja esa información. Entonces, pueden detectar zonas donde posiblemente está ocurriendo el brote de la
mosca de la fruta, para con ello tomar decisiones”, señaló.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
72 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En este mismo tenor, el PIIG-Lab ha desarrollado proyectos para diferentes dependencias gubernamentales y
en muy distintos ámbitos del conocimiento, desde movilidad urbana hasta logística en casos de emergencia,
pasando por temas de hidrología, ganadería o turismo.
Actualmente hay cinco investigadores laborando en este laboratorio, además del doctor Guzmán: Marco
Antonio Moreno Ibarra, Miguel Jesús Torres Ruiz, Rolando Quintero Téllez y Juan Luis Díaz de León Santiago.
De acuerdo con el director del centro, el doctor Marco Antonio Ramírez, el CIC tiene muchas fortalezas, una
de ellas es que el panorama que se ha generado es un ecosistema enfocado en la innovación y el emprendimiento,
jóvenes que piensan en hacer industria y profesores que buscan hacer investigación clave que apoye a una
industria nacional.
“Nosotros tenemos que evolucionar cada vez más, hacer más pequeña la brecha tecnológica que tenemos con
otros países y lo tenemos que hacer a través de investigación clave y ese es el reto para 2020”.
http://www.conacytprensa.mx/index.php/sociedad/politica-cientifica/14589-centro-pionero-computacion-
tecnologia-vanguardia
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
73 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El problema de la constante de Hubble
Francisco R. Villatoro
El ritmo de expansión del universo se llama constante de Hubble, aunque en rigor debería llamarse parámetro
de la ley de Hubble, porque no es constante. El valor actual H(0) ≡ H0 se estima por extrapolación. Se puede
usar la escalera de distancias para medir el valor de H(z) con z<0,2, o el fondo cósmico de microondas para
estimar el valor H(1100). El problema de la constante de Hubble es que ambos métodos conducen a un valor
diferente a unas tres sigmas. ¿Por qué? Quizás hay errores sistemáticos en estas extrapolaciones que no han
sido tenidos en cuenta; o quizás haya nueva física con un papel relevante aún por descubrir.
Edwin Hubble en 1929 estimó que H(0) = 500 km/s/Mpc, pero sobre el año 2000 sabíamos que su valor
estaba entre 50 y 100 km/s/Mpc. El telescopio espacial Hubble (HST) estimó en 2001 un valor de 72 ± 2 ±7
km/s/Mpc. En los últimos 15 años dicho valor ha tomado dos caminos separados. Las medidas basadas en la
escalera de distancias (con variables cefeidas para z ~ 0 y supernovas Ia para z ~ 0,1) conducen a un valor de
73 km/s/Mpc con un error del 2,4 %. Las medidas usando lentes gravitacionales débiles (H0LiCOW) ofrecen
un valor de 71,9 ± 2,7 km/s/Mpc (un error del 3,8 %). Sin embargo, las medidas cosmológicas de los
telescopios espaciales WMAP (NASA) y Planck (ESA), junto a los datos de oscilaciones bariónicas acústicas
(BAO), apuntan a un valor más bajo de solo 67,8 ± 0,9 km/s/Mpc (con un error de solo el 1,3 %).
¿Cuál es la causa de la discrepancia? La extrapolación más forzada es la cosmológica. Quizás haya errores
sistemáticos en nuestra manera de estimar H(0) a partir de H(1100). El universo ha cambiado mucho en los
últimos 13 400 millones de años. Se espera que el telescopio espacial James Webb (JWST) de la NASA nos
ofrezca datos sobre el universo temprano en el próximo lustro que ayuden a la solución de este problema. Nos
lo cuenta Wendy L. Freedman, “Cosmology at at Crossroads: Tension with the Hubble Constant,” Nature
Astronomy 1: 0121 (2017), doi: 10.1038/s41550-017-0121, arXiv:1706.02739 [astro-ph.CO].
http://francis.naukas.com/2017/06/12/el-problema-de-la-constante-de-
hubble/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+naukas%2Ffrancis+%28L
a+Ciencia+de+la+Mula+Francis%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
74 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Dudas sobre las vacunas: problemas y soluciones
Por César Tomé
Ignacio López Goñi
Caricatura publicada en 1802 en “The Punch” por James Gillray de una escena de la inoculación de la vacuna
de Jenner en el Hospital de St. Pancras (Londres).
Cada vez hay más padres que dudan de los beneficios de la vacunación. ¿Debería ser obligatoria? Los
profesionales de la salud son la mejor herramienta contra los anti-vacunas.
Los programas de vacunación han contribuido a que el número de casos y de muertes por enfermedades
infecciosas hayan disminuido de forma significativa en el último siglo. Las vacunas han salvado millones de
vidas humas, son responsables de la erradicación de la viruela del planeta y de que la polio esté apunto de serlo.
En general, las coberturas vacunales o tasas de vacunación infantil siguen creciendo a nivel mundial, lo que
indica que la vacunación es una medida de salud pública ampliamente aceptada.
Sin embargo, un número cada vez más creciente de padres (*) perciben la vacunación como algo insano e
innecesario. Como las vacunas se administran cuando el niño está sano, nuestro umbral del riesgo es muy bajo.
Cualquier duda, aunque sea teórica, sobre la seguridad de las vacunas puede causar que los padres rechacen o
retrasen la vacunación de sus hijos. Incluso algunos padres que vacunan a sus hijos suelen tener dudas y temores
acerca de la vacunación. Los movimientos anti-vacunas han sido responsables de la disminución de las tasas de
aceptación de las vacunas y del aumento de brotes de enfermedades infecciosas que se pueden prevenir con las
vacunas. Entre los extremos de los movimientos anti-vacunas que rechazan totalmente la inmunización y los
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
75 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
entusiastas pro-vacunas, cada vez hay más padres que dudan: padres que rechazan alguna de las vacunas pero
que aceptan otras, que retrasan la vacunación de su hijo porque dudan del calendario vacunal recomendado, o
que se sienten inseguros cuando vacunan a sus hijos.
En África entierran a los niños, en Europa enterramos a los ancianos
Por supuesto, la situación es diferente según el contexto y el país. En los países de altos ingresos donde los
programas de vacunación están bien establecidos y en gran parte son gratuitos, las vacunas son víctimas de su
propio éxito. Como gracias a las vacunas han disminuido radicalmente la frecuencia de enfermedades
infecciosas, los padres no perciben el riesgo de esas enfermedades y no ven la necesidad de las vacunas: “¿para
que voy a vacunar a mi hijo si ya no hay varicela?”. Se tiene más miedo a la vacuna que a la propia enfermedad.
Sin embargo, en los países con ingresos medios o bajos, donde este tipo de enfermedades son todavía más
frecuentes, la duda de la inmunización es menor. En países donde la mortalidad infantil es todavía muy alta
debido a las enfermedades infecciosas, todavía da más miedo la enfermedad que la vacuna.
Anti-vacunas: desde Jenner hasta Twitter
Los movimientos anti-vacunas no son algo nuevo. Nada más empezar Edward Jenner, a principios de 1800, sus
demostraciones de que la viruela de las vacas protegía contra la viruela humana, y a pesar de que más del 30%
de los casos de viruela eran mortales, comenzaron las campañas contra la vacuna. Son famosos los dibujos
satíricos publicados en 1802 en los que se ridiculizaba la vacunación de Jenner y se mostraban los bulos de sus
opositores: que al vacunarte con la viruela de las vacas te salían por el cuerpo apéndices de vaca.
Durante el siglo XIX, en el Reino Unido primero, luego en el resto de Europa y en EE.UU. después, se crearon
las primeras Ligas Anti-Vacunación y hubo varias campañas anti-vacunas que lucharon activamente contra las
leyes que obligaban a la vacunación y en defensa de la libertad personal. Sin embargo, ya en pleno siglo XX,
llegó la edad de oro de las vacunas en las décadas de los 50 y 60, durante las cuáles la aceptación de la
inmunización fue máxima. En esos años se introdujeron las vacunas contra la poliomielitis, el sarampión, las
paperas y la rubéola, con gran aceptación al comprobar cómo los casos de enfermedades y muertes se reducían
de forma espectacular. En los años 70 se comenzó un gran esfuerzo internacional para expandir los programas
de vacunación también a los países de bajos ingresos, con el objetivo de acabar con seis grandes asesinos: polio,
difteria, tuberculosis, tosferina, sarampión y tétanos. Entonces menos del 5% de la población mundial infantil
menor de un año estaba inmunizada contra estos patógenos. En los años 90 cerca del 75% de la población
mundial infantil estaba vacunada contra la polio difteria, tétanos y tosferina. Sin embargo, ese periodo de
aceptación entusiasta de las vacunas duraría poco tiempo.
A mediados de los 70 los movimientos anti-vacunas resurgieron con fuerza. La controversia comenzó en el
Reino Unido con la vacuna contra la tosferina (pertussis en inglés, por estar causada por la bacteria Bordetella
pertussis), al publicarse un trabajo que relacionada serios trastornos neurológicos en 36 niños después de haber
sido vacunados con la tripe difteria-tétano-pertusis (vacuna DTP). Este trabajo tuvo una gran repercusión
mediática e hizo que la cobertura vacunal en el Reino Unido bajara del 77 al 33%, con el consiguiente aumento
de los casos de tosferina, algunos de ellos mortales. En EE.UU. la controversia comenzó en 1982 con la emisión
de un emotivo documental periodístico “DTP: vaccination roulette” que acusaba al componente pertusis de la
DTP de causar daños cerebrales severos y retraso mental. A raíz de tal escándalo se crearon grupos de presión
anti-vacunas, se investigaron las empresas fabricantes de vacunas, aumentaron los precios y se redujeron las
tasas de vacunación. A pesar de los estudios que se hicieron posteriormente que demostraban que no había
relación alguna entre la vacuna DTP y los trastornos neurológicos, la preocupación sobre su seguridad fue un
estimulo para el desarrollo de una nueva vacuna de pertusis acelular, menos reactiva y, por lo que se está viendo
con el tiempo, con un menor poder protector contra la enfermedad. Quizá lo único bueno de todo aquello fue la
creación del Vaccine Adverse Event Report System (VAERS), un programa nacional del CDC y la FDA para
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
76 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
recoger, evaluar y publicar de forma transparente todo tipo de información sobre los efectos adversos que
puedan ocurrir por la administración de las vacunas en EE.UU.
Unos 25 años después de la controversia sobre la vacuna DTP, el Reino Unido volvió a ser el origen de una de
las mayores crisis sobre las vacunas, en esta ocasión relacionando la vacuna tripe vírica
sarampión/rubeola/paperas (SRP) con el autismo. La revista The Lancet publicó en 1998 un artículo firmado
por Andrew Wakefield y otros doce colegas en el que se sugería una posible asociación entre la vacuna y el
autismo. Aunque en el artículo no se probaba una relación causal, las afirmaciones posteriores de Wakefield no
dejaban lugar a duda de su opinión y pidió la retirada de la vacuna hasta que se hicieran más estudios. Años
después se demostró que los datos de la publicación habían sido sesgados, y que Wakefiled recibió dinero para
publicar estos datos contra las empresas farmacéuticas. En 2004, 10 de los 12 coautores del trabajo se retractaron
de la publicación. En 2010 el Consejo General Médico inglés expulsó a Wakefield y le prohibió ejercer la
medicina en el Reino Unido, y The Lancet tomó la decisión de retirar y retractarse de lo publicado en 1998.
Pero habían pasado ya doce largos años. Se han evaluado y revisado más de 20.000 artículos relacionados con
esta vacuna y más de 14 millones de casos de niños vacunados y no hay ningún indicio de que la vacuna SRP
tenga alguna relación con el autismo infantil. A pesar de ello, la relación de las vacunas con el autismo sigue
siendo una de las principales preocupaciones de muchos padres que dudan.
Como hemos comentado, en general las vacunas son mucho mejor recibidas en los países de bajos ingresos. Sin
embargo, en los últimos años ha habido también algunas controversias que han hecho disminuir las coberturas
vacunales y han supuesto un serio problema para las campañas mundiales de inmunización. En 1990 en
Camerún se extendieron rumores de que el objetivo de las campañas de vacunación era la esterilización de las
mujeres y en 2003 se boicoteó la vacuna de la polio en el norte de Nigeria también con rumores de que la vacuna
era una estrategia para extender el VIH y reducir la fertilidad entre los musulmanes. A consecuencia de estos
rumores, la polio resurgió en Nigeria y se extendió en 15 países africanos que ya habían sido declarados libres
de la enfermedad.
Desde el año 2000, Internet ha supuesto un cambio de paradigma en la relación médico/paciente. Internet ha
acelerado la velocidad de la información y ha roto barreras: la web proporciona información gratis, inmediata
y disponible todo el tiempo y anónima. Internet es una oportunidad sin precedentes para los activistas anti-
vacunas, para difundir su mensaje a una audiencia cada vez más amplia y reclutar nuevos miembros. Las
personas que son contrarias a las vacunas, aunque sean minoría, generan una cantidad desproporcionada de
contenidos anti-vacunas.
Cada mes son miles los contenidos que se vierten al ciberespacio sobre la vacunación, la inmensa mayoría
subjetivos y de contenido emocional. Internet es una de las principales fuentes de información que emplean los
padres para consultas sobre el tema de la vacunación. Desgraciadamente si se examinan los contenidos
relacionados con la vacunación en la web o en las redes sociales sobresale la información inexacta e incorrecta.
Esto hace que muchos padres pasen de dudar de las vacunas a ser resistentes a la vacunación o incluso
claramente opuestos. Muy probablemente ver una web anti-vacunas aumenta los sentimientos negativos contra
la inmunización, mientras que las webs pro-vacunas suelen tener un efecto mínimo.
En España no existen movimientos anti-vacunas como en EE.UU. pero el número de padres que dudan aumenta
En España no existen movimientos anti-vacunas bien organizados y beligerantes como los que hay en EE.UU.
o en el Reino Unido, pero el número de padres que ponen en duda la efectividad y seguridad de las vacunas
aumenta. Además, cada vez tienen más relevancia pública algunos claros anti-vacunas como Josep Pamiés o la
monja Forcades, incluso sorprendentemente con la colaboración de grandes medios de comunicación y poderes
públicos. También, en los últimos años se han publicado varios libros que claramente ponen en tela de juicio el
valor de las vacunas: Vacunas, una reflexión crítica (Enric Costa), Los peligros de las vacunas (Xavier Uriarte),
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
77 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Vacunaciones sistemáticas en cuestión, ¿son realmente necesarias? (Manuel Marín Olmos), o Vacunas las justas
(Miguel Jara).
La duda sobre las vacunas es ya un problema de salud pública
Los padres que mantiene una posición claramente anti-vacunas son una minoría, pero la proporción de los que
dudan va en aumento. Esto es preocupante porque para el éxito de las campañas de vacunación se debe mantener
una cobertura vacunal alta. Se debe conseguir que lo normal sea que un padre vacune a su hijo según el
calendario que le corresponde. La vacunación es una medida individual pero que beneficia a la comunidad. A
diferencia de otras intervenciones preventivas, si un padre rechaza las vacunas de su hijo no solo pone en riesgo
la vida de su hijo sino también de los que le rodean, de los más débiles, otros niños, los enfermos y los ancianos.
Luchar contra la oposición o la duda de las vacunas es un problema comunitario.
¿Qué impacto clínico tiene el fenómeno de los anti-vacunas? Quizá el de mayor actualidad sea el aumento de
los casos de sarampión, una de las enfermedades infecciosas más contagiosas (ver El sarampión aumente en
Europa, en microBIO). Las autoridades sanitarias han alertado que desde febrero de 2016 han aumentado los
casos de sarampión en Europa, la mayoría en niños pequeños sin vacunar. La situación en este momento es que
de los 53 países de toda la región europea solo han conseguido erradicar la enfermedad 15 países, y en 6 todavía
sigue habiendo transmisión endémica. Desde enero de 2017 ya ha habido incluso algunos casos de muertes en
Rumanía, Italia y Portugal. La ECDC alerta de que la probabilidad de que se extienda el sarampión a otros
países es alta. Casos similares también han ocurrido en el continente americano, libre de sarampión desde el
año 2002. En EE.UU. hubo tres grandes brotes en 2013 y lo mismo ocurrió en Canadá. De forma similar en los
últimos años ha habido brotes de rubéola, paperas y pertusis en Polonia, Suecia, Holanda, Rumania, Bosnia
EE.UU., etc. por la misma causa: personas que no habían sido vacunadas. En 2010, la OMS estimó el número
de muertos por enfermedades infecciosas prevenibles por las vacunas (difteria, sarampión, tétanos, pertusis y
polio) en unas 400.000. Estas muertes se podrían haber evitado con las vacunas. Es cierto, que más de la mitad
ocurren en países donde los problemas de infraestructuras son responsables de la falta de vacunación, pero en
otros casos es el rechazo a las vacunas la causa.
Entender las causas y el contexto del que duda
Los grupos anti-vacunas de hoy en día son en su mayoría gente de clase media (o media-alta) con estudios
superiores que reclaman su derecho a una decisión informada acerca de las vacunas, prefieren soluciones
“naturales”, no les gusta que les califiquen como anti-vacunas (el término “anti” es negativo) y prefieren
términos neutros, como grupo pro vacunas seguras. Pero algunos de sus argumentos son los mismos que en
1800: las vacunas no son efectivas; causan enfermedades; son un negocio y se fabrican sólo para beneficio de
las farmacéuticas; las vacunas contienen aditivos tóxicos peligrosos para la salud; los daños de las vacunas son
ocultados por las autoridades (teorías conspiratorias); la vacunación obligatoria es contraria a la libertad y a los
derechos civiles; la inmunidad natural es mucho mejor que la que inducen las vacunas; las vacunas son muchas
y se dan demasiado pronto; los productos naturales y alternativos (vida “sana”, homeopatía, vitaminas) son
mejores que las vacunas para prevenir las enfermedades; etc. En muchos casos se presentan datos incorrectos,
hechos sacados de contexto, ambiguos o medias verdades. En muchas ocasiones apelan a las emociones y
presentan historias muy duras del legitimo sufrimiento de padres que creen seriamente que sus hijos han
padecidos enfermedades graves por culpa de las vacunas.
El contexto a veces no ayuda. En los últimos años ha aumentado el número de nuevas vacunas, lo que ha
complicado los calendarios vacunales. El que no exista un mismo calendario vacunal en distintos países o, lo
que es peor, en distintas comunidades autónomas de un mismo país genera percepciones negativas. La falta de
transparencia de algunos gobiernos y empresas farmacéuticas y los errores en la forma de afrontar e informar
sobre crisis sanitarias también provoca desconfianza y susceptibilidades: la crisis de las vacas locas, la pandemia
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
78 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
de gripe aviar o el último brote de Ébola, por ejemplo. Hoy en día los pacientes quieren estar involucrados y
participar en sus propias decisiones de salud.
¿Debería ser obligatoria la vacunación?
Esta es la pregunta que hace unos días lance desde mi cuenta de Twitter, y el 94% de las respuestas fue
afirmativa. Es verdad que el resultado está sesgado y no es significativo: la mayoría de los seguidores de esa
cuenta de Twitter son claramente pro-vacunas, pero algunos comentarios fueron muy sugerentes: “si la vacuna
de la rabia es obligatoria para los perros, ¿por qué vacunar a los niños no lo es?”, “si llevar cinturón de seguridad
en el coche es obligatorio, ¿por qué no las vacunas?”, “si fumar está prohibido en muchos lugares porque es
malo para la salud, ¿por qué las vacunas no son obligatorias si son buenas para la salud?”, “si una persona no
vacunada puede poner en riesgo la salud de mi hijo, ¿por qué no obligan a vacunarse en las guarderías?”
Resultado de la encuesta “¿Debería ser obligatoria la vacunación?” en Twitter.
Los recientes brotes de sarampión y de otras enfermedades evitables por las vacunas han hecho que algunos
países cambien su legislación. En Italia ya es obligatoria la vacunación contra doce enfermedades infecciosas
para poder matricular a tu hijo en el colegio. En Portugal no son obligatorias, pero sí gratuitas y están preparando
una ley para exigir la vacunación. En Alemana, no son obligatorias, pero preparan también una ley para poder
multar si no vacunas a tus hijos. En Francia son obligatorias las del tétanos, difteria y polio, y en Bélgica solo
la de la polio. ¿Y en España? La vacunación es voluntaria, nuestro ordenamiento no incorpora explícitamente
el deber de vacunación y nadie puede, en principio, ser obligado a vacunarse. Ahora bien, hay determinadas
situaciones que permiten que los poderes públicos competentes impongan la vacunación forzosa, en caso de
brotes o epidemias y de peligro para la salud pública. ¿Debería cambiarse la ley y que la vacunación fuera
obligatoria?
Para controlar e incluso llegar a erradicar una enfermedad infecciosa, la OMS recomienda que la cobertura
vacunal para esa enfermedad sea de al menos el 95%. Según datos oficiales, las tasas de vacunación en nuestro
país en los últimos años son elevadas, superiores al 95%.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
79 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Coberturas vacunales en España desde 2006 hasta el 2015. Para más información consultar la web del MSSSI.
En España, a pesar de la no obligatoriedad, la tasa de vacunación es incluso superior a la de países en los que
la vacunación es obligatoria. Por ello, el debate planteado podría ser útil si hubiera un descenso de las tasas de
vacunación que pusieran en compromiso la protección del efecto rebaño y afectara a la salud pública. Adelantar
cambios normativos que impusieran de forma coercitiva la vacunación, podría generar un efecto contrario al
pretendido. Obligar quizá, de momento, no sea la solución.
¿Qué podemos hacer?
Para responder a los movimientos anti-vacunas o convencer a los que dudan, algunas estrategias se han basado
en campañas de educación (folletos “oficiales” o similar) con información sobre la efectividad y seguridad de
las vacunas. Si embargo, aunque necesaria, no parece que ésta sea la forma más efectiva. Educar a la gente tiene
poco efecto o impacto en cambiar la actitud anti-vacunas. La información y educación no suelen cambiar por
si solas las percepciones. Todos tenemos la tendencia de recibir mejor la información que confirma lo que
pensamos y solemos rechazar lo que contradice nuestras creencias. Para muchas personas lo que convence no
son los hechos, sino la credibilidad o autoridad de quién lo dice. En este sentido, la pieza fundamental para
conseguir la aceptación y confianza pública de las vacunas son los profesionales de la salud (de la medicina y
la enfermería). La gente cree y confía más en su médico o enfermera de lo que nos imaginamos. Muchas gente
dice que la primera razón para vacunar a su hijo es la recomendación del profesional de la salud en la consulta
de pediatria. Promover una buena relación con el paciente es fundamental.
Se han publicado algunas recomendaciones para estos profesiones de la salud, pero que nos pueden ayudar a
todos cuando nos enfrentamos a una persona que duda: ¿cómo convencer a unos padres de que no vacunar
supone un riesgo mayor?
1. Recuerda por qué nos vacunamos. Hay que explicar cómo las vacunas nos protegen de las infecciones y nos
ayudan mantener la salud; reforzar la idea de que la vacunación es una norma social, porque la gente hace lo
que cree que todo el mundo debe hacer. Da por hecho que va a vacunar a su hijo, ni si quiera ponlo en duda.
Felicítale por vacunarlo (y concreta la fecha para la siguiente cita).
2. No intentes asustar a la gente con mensajes catastrofistas, ya que te puede salir el tiro por la culata. Explica
cómo se controla de forma rigurosa la seguridad de las vacunas, algo que no se suele contar a la gente. Las
vacunas son uno de los agentes farmacéuticos mejor estudiados y más seguros del mercado. Es frecuente
confundir correlación con causalidad: que dos cosas ocurran al mismo tiempo no quiere decir que una sea la
causa de la otra. Que el autismo se manifieste los primeros años de vida al mismo tiempo que el calendario
vacunal, no demuestra que las vacunas sean la causa del autismo. Pero el sufrimiento de unos padres con un
niño autista, … es tremendo.
3. Ten empatía. Evita ser despectivo. Hazte cargo de sus preocupaciones. Si tiene dudas, escucha, deja que
hable, deja que acabe de hablar, reconoce el derecho que tiene para dudar y hacerse esas preguntas, sé positivo,
responde de forma simple, sencilla, que se te entienda (“Hay más formaldehido en una pieza de fruta que en
todas las vacunas que recibe tu niño”). Dedícale tiempo, con respeto, paciencia y confianza. Recuerda aquello
de “siempre positivo, nunca negativo”.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
80 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
4. La verdad es la piedra angular de la aceptación de las vacunas. Explica claramente las posibles reacciones
adversas que pueda haber, que no le coja por sorpresa las reacciones locales de la vacuna. Su hijo ha ido a
vacunarse estando sano, sin fiebre y las reacciones locales pueden alarmar si no se han explicado antes. La
fiebre, el malestar general, un pequeño sarpullido o enrojecimiento local no significan que la vacuna no funcione
sino todo lo contrario. Es señal de que la vacuna está activando las defensas. Y explica las posibles reacciones
adversas graves muy raras que puede haber (menos de un caso por millón de dosis administradas). Se honesto
y claro. Ningún medicamento es 100% seguro y todos tienen efectos secundarios. Reconoce los riesgos, también
hay riesgo en tomar un paracetamol, pero distingue claramente las reacciones locales de los casos graves y muy
raros. Hay que dar la información a medida, según las dudas y las preocupaciones de los padres.
5. Cuenta tu historia, tu propia experiencia, como profesional de la salud o como padre que vacuna a sus hijos:
aquel viejo amigo del colegio que tuvo polio, o por qué tus hijos no han tenido rubéola. Y cuéntalo como una
historia de ciencia. Explica que no hay nada más natural que las vacunas que inducen una inmunidad natural,
al estimular a tu propio sistema inmune a producir su propia protección. Los anticuerpos que te protegen los
produce tu propio cuerpo. La gente que está en riesgo es la que no hace nada.
6. Utiliza las redes sociales. Involúcrate de forma proactiva con los medios de comunicación y en las redes
sociales. Proporcionarles información, comentarios independientes, ayuda a los periodistas a entender los datos.
Da información, respuestas, historias, videos. Internet puede ser una herramienta muy útil para luchar contra la
duda. Los algoritmos que usa Google no ayudan. Google puede darte una información sesgada. Las palabras
“clave” que te sugiere y los contendidos web que te ofrece puede estar condicionados por tus propias
preferencias y consultas previas. Así, Google puede contribuir a crear, mantener o aumentar tus dudas o a creer
que lo que opina una minoría es mucho más frecuente que lo que realmente es. Por ejemplo, los contendidos
negativos tienden a proliferar más en internet. ¿Por qué una madre que ha vacunado a su hijo y todo ha ido
fenomenal y están los dos sanos y felices va a escribir su experiencia en un blog o va a dejar un comentario en
Internet? Por el contario, si ha habido el menor problema, esa madre compartirá sus dudas en fórums o redes
sociales y su testimonio se extenderá cómo la pólvora, generando una percepción errónea del problema. Como
ya hemos dicho, los contenidos relacionados con la vacunación en la web y redes sociales son principalmente
inexactos e incorrectos. Por eso, uno de los “campos de batalla” se libra en internet. Difundir mensajes en blogs,
redes sociales, YouTube, … está muy bien, pero es complicado. El reto no solo es que los padres tengan acceso
a la información, sino que esta se entienda y sea inteligible para cualquiera. Usa un lenguaje coloquial, muestra
empatía y escucha al público.
Conclusión: En España no hay grandes movimientos anti-vacunas pero sí un aumento de padres que dudan de
la seguridad y eficacia de las vacunas. De momento, las coberturas vacunales son altas y no se compromete el
efecto rebaño. Por ello, imponer de forma coercitiva la vacunación, podría tener un efecto contrario al
pretendido. No obstante, es necesaria una vigilancia estrecha del fenómeno anti-vacunas y su efecto en la salud
pública. Los profesionales de la salud son la principal fuente de información para los padres que dudan y la
forma más efectiva de convencerles de lo peligroso que es no vacunar a sus hijos.
Referencias y más información:
Las vacunas funcionan. Ignacio López-Goñi y Oihana Iturbide. 2015. Phylicom ediciones, Valencia. Colección
Pequeñas Guías de Salud. ISBN: 978-84-943440-0-8
Vaccine hesitancy, vaccine refusal and the anti-vaccine movement: influence, impact and implications. Dubé,
E., y col. (2015). Expert Rev Vaccines. 14(1):99-117. doi: 10.1586/14760584.2015.964212.
Identifying and addressing vaccine hesitancy. Kestenbaum, L.A., y col. (2015). Pediatr Ann. 44(4):e71-5. doi:
10.3928/00904481-20150410-07.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
81 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Promoting vaccine confidence. Smith, M.J. (2015). Infect Dis Clin North Am. 29(4):759-69. doi:
10.1016/j.idc.2015.07.004.
Vaccine hesitancy: A vade mecum v1.0. Thomson, A., y col. (2016). Vaccine. 34(17):1989-92. doi:
10.1016/j.vaccine.2015.12.049.
The impact of the web and social networks on vaccination. New challenges and opportunities offered to fight
against vaccine hesitancy. Stahl, J.P., y col. (2016). Med Mal Infect. 46(3):117-22. doi:
10.1016/j.medmal.2016.02.002.
Vaccine Adverse Event Reporting System (VAERS)
El sarampión aumenta en Europa
Coberturas de vacunación en España (MSSSI)
Nota:
(*) Cuando me refiero a “padres” e “hijos” empleo los términos en plural que según el Diccionario de Lengua
Española de la Real Academia significan “padre y madre de una persona” y “descendientes”, respectivamente.
Sobre el autor: Ignacio López Goñi es catedrático de microbiología de la Universidad de Navarra y autor del
blog microBio.
https://culturacientifica.com/2017/06/12/dudas-las-vacunas-problemas-
soluciones/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaC
ientfica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
82 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Mario García Carrasco, experto en lupus
Por Dalia Patiño González
Puebla, Puebla. 10 de julio de 2017 (Agencia Informativa Conacyt).- A veces una sola experiencia puede definir
nuestro destino, por ejemplo, ser médico y poder tener la satisfacción de disminuir en el otro un dolor físico,
mejorar su calidad de vida e incluso salvarla. Cuando el doctor Mario García Carrasco, investigador y profesor
titular de Reumatología e Inmunología de la Facultad de Medicina de la Benemérita Universidad Autónoma de
Puebla (BUAP), era solo un adolescente, presenció un accidente y el dolor que vio en un semejante fue
suficiente para saber que se dedicaría al estudio de la medicina.
“Cuando era pequeño, tendría como 12 años, a un lado de donde vivía llegaron unos señores y empezaron a
construir su casa. Cuando estaban colocando la cimbra, un muchacho cayó y lo aplastaron varias maderas. Yo
era curioso y me acerqué, pero me dio mucha tristeza verlo lastimado y me puse a llorar. Su mamá lo llevó a la
Cruz Roja y con el tiempo la señora me preguntó que por qué había llorado tanto al ver a su hijo herido. Ahí
sentí que mi función sería ayudar”, relata en entrevista para la Agencia Informativa Conacyt el doctor García
Carrasco, quien recibió en 2016 el nombramiento como miembro de la Academia Nacional de Medicina de
México, como Académico Numerario en el área de Reumatología, el máximo grado otorgado por este cuerpo
consultivo del gobierno federal.
Estudioso del lupus eritematoso sistémico
El doctor García Carrasco ha destacado a lo largo de su trayectoria como médico e investigador de enfermedades
autoinmunes sistémicas como el lupus eritematoso sistémico (LES), síndrome Sjögren (SS), síndrome
antifosfolípido (SAF), esclerodermia, miopatías inflamatorias autoinmunes, etcétera.
El LES es una enfermedad caracterizada por la presencia de autoanticuerpos que afectan una gran variedad de
tejidos del cuerpo, es decir, 'las defensas' atacan los órganos del paciente como un agente extraño ocasionando
un daño considerable.
Estas 'defensas' anormales afectan la piel y vasos sanguíneos, además de articulaciones y otros órganos internos
como pulmón, riñón, cerebro, corazón, por mencionar algunos.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
83 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El término de lupus proviene del latín lupus (lobo) y su referencia se relaciona con las manchas rojizas que
suelen aparecer en las mejillas y dorso de la nariz en los pacientes que padecen esta enfermedad. El
padecimiento puede iniciar con fiebre, pérdida de peso, cansancio, que frecuentemente se atribuyen a otras
causas diferentes a esta enfermedad.
Los estudios en medicina
El doctor García Carrasco es un poblano originario del municipio de Tepexi de Rodríguez, pero es parte de la
BUAP desde que cursaba sus estudios de nivel medio superior en la preparatoria Benito Juárez. En la década
de los 70, ingresó a la Facultad de Medicina de la BUAP y a principios de 1980 decidió hacer la especialidad
en Barcelona, donde permaneció tres años. Después, solicitó una beca al gobierno francés para estudiar
reumatología en París y es precisamente ahí donde realiza sus primeras investigaciones ya de manera más
profunda.
“Realicé la especialidad de reumatología en Barcelona, en el Centro Nacional de Enfermedades Reumáticas de
esa ciudad. Estuve del año 1980 a 1982. Posteriormente, fui al Centro de Reumatología de París, donde estuve
de 1983 a 1985, esto gracias a una beca del gobierno de Francia, de parte del CIES (Centro Internacional de
Estudios Superiores)”.
En febrero de 1986, el doctor García Carrasco regresó a México para ingresar como profesor a la Facultad de
Medicina de la BUAP para impartir la materia de inmunología, esto porque la reumatología, área en la que se
había especializado, guarda una relación muy estrecha precisamente con la inmunología.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
84 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Casi una década después, el doctor García Carrasco regresó al Hospital Clínico de Barcelona a realizar una
maestría en inmunología, además de su doctorado y posdoctorado, trabajo que se tradujo en 70 publicaciones y
varios capítulos de libros en los años que duró su estancia.
“En 1994, me fui a estudiar la maestría y el doctorado de nuevo a Barcelona y cuando regresé a la Facultad de
Medicina de la BUAP logré gestionar para que se incluyera en el currículo de la carrera de medicina la materia
de reumatología. Ahora es optativa y se imparte tres horas por semana”.
Sus líneas de investigación
Actualmente, el doctor García Carrasco, quien es miembro nivel III del Sistema Nacional de Investigadores
(SNI), así como de la Academia Nacional de Ciencias, desarrolla las siguientes líneas de investigación: lupus
eritematoso sistémico; síndrome de anticuerpos antifosfolípidos; miopatías inflamatorias autoinmunes;
esclerodermia (enfermedad autoinmune que afecta principalmente la piel y los vasos sanguíneos, aunque
también órganos).
La esclerodermia se manifiesta cuando el cuerpo produce demasiado colágeno y este hace que la piel se estire,
se endurezca y se engrose; asimismo, también estudia el síndrome de Sjögren (enfermedad crónica, autoinmune,
caracterizada por la resequedad de mucosas, principalmente oral y ocular, debido a la disminución o ausencia
de secreciones glandulares).
Dr. García Carrasco.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
85 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Al igual que años atrás, el doctor García Carrasco decidió inclinarse por la reumatología tras considerar que la
detección oportuna de ciertas enfermedades podría influir en mejorar la calidad de vida de estos pacientes,
debido a las complicaciones que presentan.
“Cuando yo estudié medicina me di cuenta que en el campo de la reumatología había mucho que aportar.
Aproximadamente las enfermedades reumáticas las sufre 10 por ciento de la población. La enfermedad
reumática más común es la artrosis, que la padece la gente mayor, y entre sus síntomas es que crujen los huesos,
los imposibilita para caminar, produce dolor en las articulaciones como rodillas, hombros, cadera, codos,
manos, etcétera”.
Como parte de su trabajo, el doctor García Carrasco también forma parte de la Red Internacional de
Autoinmunidad conjuntamente con los doctores Claudia Mendoza Pinto, Roberto Berra Romani, Luis
Guillermo Vázquez de Lara, Margarita Muñoz Guarneros y otros profesores de la Facultad de Medicina, como
las maestras en ciencia Ivet Etchegaray Morales y Norma Edith Alonso García.
En esta Red participan colaboradores externos como el doctor Alejandro Ruiz Argüelles, de Laboratorios
Clínicos de Puebla, doctor Ricard Cervera, del Hospital Clinic de Barcelona, España, y el doctor Juan Manuel
Anaya, de la Universidad del Rosario de Bogotá, Colombia.
Actualmente, la Red se encuentra trabajando en diferentes proyectos como son: deficiencia e insuficiencia de
la vitamina D en pacientes con LES y su posible relación con la actividad de la enfermedad; el virus del
papiloma humano y sus diversos genotipos asociados al cáncer cervicouterino en pacientes también con LES,
así como tratamientos oportunos para los pacientes que padezcan osteoporosis y LES, además de estudios del
síndrome metabólico, vitamina D y LES, afectación gastrointestinal y LES, calidad de vida y LES, medio
ambiente y enfermedades autoinmunes.
La satisfacción propia reflejada en el otro
Para el doctor García Carrasco, la pasión por la medicina nunca acaba, eso le ha dejado enormes satisfacciones
y observa su profesión como una parte de su propio ser. Reconoce además en la docencia la participación
entusiasta de sus estudiantes, lo que lo motiva aún más. Esa decisión con la que trabaja, le ha permitido además
tener 130 publicaciones en revistas indizadas, 80 capítulos de libros y participación en siete libros como
coeditor. En 2006, también se hizo acreedor al reconocimiento estatal en Ciencia y Tecnología por parte del
Consejo Nacional de Ciencia y Tecnología en Puebla (Concytep).
Su vida es la medicina y su mayor satisfacción, afirma, es cuando observa en sus pacientes una mejoría
importante. Sabe que los ayuda y eso lo llena de entusiasmo para seguir trabajando e investigando sobre este
tipo de enfermedades, principalmente lupus eritematoso sistémico.
Sus otras satisfacciones personales incluyen poder disfrutar conjuntamente con su familia la lectura, asistencia
a congresos, llevar a sus pequeños gemelos a jugar futbol y compartir sus logros con los familiares cercanos y
personas apreciadas que son grandes motores y orgullo en su vida diaria.
http://www.conacytprensa.mx/index.php/sociedad/personajes/16212-mario-garcia-carrasco-experto-en-lupus
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
86 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Un nuevo mecanismo de resistencia antifúngico
Por César Tomé
12JUN2017
El grupo de investigación de la UPV/EHU Fungal and Bacterial Biomics ha demostrado la existencia de un
nuevo mecanismo de resistencia que se desconocía hasta el momento en el hongo Lomentospora prolificans (L.
prolificans). Este microorganismo es multirresistente a los antifúngicos (antibióticos desarrollados frente a
hongos) utilizados actualmente y provoca una mortalidad de entre el 80 y el 100% en pacientes con el sistema
inmunológico debilitado. Gracias al estudio se podrán diseñar fármacos más efectivos para luchar contra este
hongo.
El microorganismo L. prolificans (antes conocido como Scedosporium prolificans) es un hongo filamentoso
que pertenece a un grupo conocido vulgarmente como mohos, algunos de los cuales podemos observar
creciendo en la comida en mal estado (fruta, pan, etc.) y que se diferencian de las levaduras unicelulares, tales
como Candida albicans o Saccharomyces cerevisiae, que son relevantes en práctica clínica o en la industria
alimenticia, respectivamente. El hongo L. prolificans es también común y bastante habitual en suelos de
ciudades o en zonas industriales. A pesar de estar en contacto con él, no suele producir dolencias en individuos
sanos, gracias al sistema inmunológico.
Sin embargo, explica Andoni Ramirez, uno de los autores del artículo, produce “infecciones muy graves” en
pacientes con alguna enfermedad subyacente, como la “fibrosis quística”, o con el “sistema inmunológico
debilitado”, como es el caso de pacientes que están siendo tratados con quimioterapia debido a padecer algún
tipo de cáncer, pacientes en los que se ha llevado a cabo algún trasplante de órgano, o que sufren el Síndrome
de la Inmunodeficiencia Adquirida (SIDA) por VIH.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
87 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Este hongo, revela la investigación, muestra una gran resistencia a los antifúngicos más habituales como el
voriconazol, que es uno de los “fármacos de elección para el tratamiento” de las infecciones causadas por
hongos filamentosos. “Este trabajo es muy relevante porque demuestra la existencia de un nuevo mecanismo
de resistencia que se desconocía hasta el momento en hongos. Así, observamos una gran modificación de la
pared celular en respuesta al antifúngico voriconazol, que es el que se utiliza preferentemente frente a este
hongo y frente a otras especies fúngicas. Estas modificaciones se producen tanto en el tamaño como en la
composición de su pared celular”, explica.
Este trabajo supone la primera descripción de estas respuestas como mecanismo de defensa frente a un
antifúngico, abriendo un nuevo campo de posibilidades de cara al diseño de nuevas moléculas que permitirán
un mejor tratamiento de ésta y otras infecciones fúngicas. “A diferencia de lo que ocurre con los agentes
antibacterianos, la variedad de los compuestos antifúngicos es muy escasa, y funcionan con pocos mecanismos
de acción diferentes. Así, en caso de aparición de cepas o especies resistentes, las opciones que tienen en los
hospitales pueden ser a veces muy limitadas. Por tanto, el hallazgo de nuevos mecanismos de resistencia podría,
en primer lugar, aumentar el número de dianas frente a las que dirigir fármacos; y en segundo lugar, explicar la
resistencia tanto intrínseca como adquirida en otras especies de hongos patógenos”, advierte.
Por el momento, la investigación que está llevando a cabo el grupo de la UPV/EHU Fungal and Bacterial
Biomics es básica, es decir, están generando el conocimiento necesario para que en un futuro se puedan diseñar
nuevas terapias. “En este sentido, el siguiente objetivo es el de identificar los enzimas necesarios para los
cambios que produce el hongo L. prolificans en su pared en respuesta al antifúngico, para así estudiarlos y
generar nuevas estrategias terapéuticas”.
Aunque, hay que tener en cuenta que como en cualquier área de la biomedicina, el camino desde el laboratorio
hasta el paciente es largo (de varios años) y difícil debido a la cantidad de pruebas que deben hacerse. “Además,
al igual que sucede con las denominadas enfermedades raras, las infecciones causadas por este tipo de hongos
tienen una baja incidencia en la población y, por tanto, a pesar de la elevada mortalidad que presentan, resulta
difícil que haya agentes interesados en invertir en su investigación. Por ello, el avance siempre resulta más
dificultoso y lento”, señala Ramírez.
Referencia:
Aize Pellon, Andoni Ramirez-Garcia, Idoia Buldain, Aitziber Antoran, Aitor Rementeria, Fernando L.
Hernando.. Molecular and cellular responses of the pathogenic fungus Lomentospora prolificans to the
antifungal drug voriconazole. PLOS ONE 12(3): e0174885. DOI: 10.1371/journal.pone.0174885.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
https://culturacientifica.com/2017/06/12/nuevo-mecanismo-resistencia-
antifungico/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCultura
Cientfica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
88 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Breve historia de la desecación de los lagos del Valle de México:
desde Tenochtitlan hasta el nuevo aeropuerto internacional
Francisco Gallardo Negrete
Tal cual se aprecia en los mapas hidrográficos de la región, Xochimilco, Tláhuac y Milpa Alta conforman la
esquina sudeste de la Ciudad de México. En conjunto, estas tres delegaciones tienen una superficie
aproximada de 433 km2, cifra que constituye una tercera parte del territorio capitalino. En la franja superior
del área que contemplan, una longilínea y otra más bien poliédrica, hay dos extensiones acuáticas que
tuvieron una importancia inestimable en el desarrollo y la prosperidad de las civilizaciones precortesianas, y
que en los últimos cuatrocientos años, a partir del siglo XVI y a causa de la poca adaptabilidad de las técnicas
hidráulicas provenientes de la Península Ibérica,1 han protagonizado una carrera en apariencia irrefrenable
hacia su propia desecación: al oeste, el lago de Xochimilco; al este, el de Chalco.
Antes de las modificaciones perpetradas por naturales y extranjeros, que construyeron diques y albarradas
según sus respectivos proyectos de urbanización, ambos estaban separados únicamente por la isla de Tláhuac
y, a diferencia del lago de Texcoco, cuya localización se encuentra más al norte, se volvieron populares
porque sus aguas no eran salobres, sino dulces. Durante muchos años los dos lograron satisfacer la sed de los
vecinos y de los viajeros. En Historia verdadera de la conquista de la Nueva España, el capitán Bernal Díaz
del Castillo dice que, después de una exploración por el lago de Xochimilco, “uno de mis talxcaltecas me sacó
de una casa un gran cántaro de agua, que así los hay grandes cántaros en aquella tierra, de que me harté yo y
mis conmilitones”.2
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
89 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Debido a la gran cantidad de sus afluentes (el lago de Xochimilco recibía aportaciones desde el cerro de
Teutli y en el de Chalco desembocaban los ríos Acuautla, Tlalmanalco y Tenango), tanto el uno como el otro
mantuvieron una considerable tendencia a los desbordamientos en el pasado. Las primeras obras de ingeniería
que le hicieron frente al problema, lejos de solucionarlo, lo volvieron más severo: si bien es cierto que el
dique de Nezahualcóyotl había trazado con éxito la separación de los lagos de Texcoco y de México,
prolongando su resistente estructura de mampostería a través de más de dieciséis kilómetros, desde
Atzacoalco hasta las faldas del cerro de la Estrella, el que dividía a los lagos de México y de Xochimilco,
llamado de Mexicaltzingo, había represado tales concentraciones de agua a los costados que en el año de
1489, cuando el emperador Ahuizotl intentó darle algún uso a esas reservas, la ciudad sufrió una inundación
sin precedentes. Francisco de Garay explica el fenómeno en los siguientes términos: “El nivel del agua
comenzó a subir, y aumentó considerablemente el depósito del líquido en los vasos de Chalco y Xochimilco
[…] las aguas de los lagos fueron las que unidas al del ojo de Acuecuescatl bajaron como un torrente sobre la
capital y la inundaron”.3
Las inundaciones eran provocadas por errores de planeación y, sobre todo, por lluvias que se consideraban
fuera de lo ordinario. Al parecer, durante la administración del gobierno virreinal, hubo fuertes anegamientos
en 1604 y luego, tres años más tarde, en 1607. El lago de Chalco, de mayor volumen que el de Xochimilco,
era especialmente proclive a estas catástrofes. En Historia antigua de México y de su conquista, Francisco
Javier Clavijero escribe: “En el lago [de Chalco] se reunían todas las aguas de las montañas vecinas; así que,
cuando sobrevenían lluvias extraordinarias, el agua, saliendo del lecho del lago, inundaba la Ciudad de
México […]”.4
Previo a la conquista, es difícil establecer con exactitud cuáles eran las profundidades de los lagos de
Xochimilco y de Chalco. No obstante, con motivo de su ubicación, se sabe que éstas fueron las más hondas de
toda la zona lacustre. De Garay expone que “[…] al pie de la Cordillera del Sur, donde se elevan los picos
principales, el terreno está más deprimido en la parte correspondiente al fondo de los lagos de Xochimilco y
de Chalco”.5
En los siglos XVI y XVII las empresas de desagüe se concentraron en el lago de Texcoco, puesto que como
era más ancho y menos profundo que sus homólogos del sur, representaba un riesgo todavía mayor. En 1607
comenzó la construcción del tajo de Nochistongo, que llevó a cabo Enrico Martínez, después de una serie de
altibajos profesionales y personales,6 quien ya había señalado las dificultades de la obra en Reportorio de los
tiempos e historia natural de esta Nueva España: “El lago de Texcoco no mengua, pues siempre entran en él
las aguas que solían entrar […] el suelo y la tierra a la redonda de él crecen, haciendo que se estreche y
levante el vaso de él […]”.7 Respecto a los lagos de Chalco y de Xochimilco, éstos no fueron desecados al
principio, sino solamente contenidos por los diques de Tláhuac y de Mexicaltzingo. En las orillas, sin
embargo, hubo una labor de deforestación bastante considerable; las crónicas de la época indican que los
colonizadores pretendían limpiar los alrededores en busca de dos objetivos: 1) fincar casas habitación y 2)
aprovechar las tierras fértiles. Los procesos de evaporación se vieron alterados gradualmente y, ya que los
árboles no protegían más al agua de las inclemencias de los rayos del sol, inició una lenta desecación cuyos
resultados se volvieron observables en un período no mayor a cien años.
Alexander von Humboldt, en Ensayo político sobre el reino de la Nueva España, la denuncia en este talante:
“Los lagos de que abunda México, y cuya mayor parte parece se disminuye año en año, no son sino los restos
de aquellos inmensos depósitos de agua que al parecer existieron en otro tiempo […]”.8 La desecación,
aunque violenta en el norte y más natural en el sur, mantuvo las profundidades de los lagos del Valle de
México con una cierta proporcionalidad aún en el siglo XIX, cuando se planteó el desagüe del lago de Chalco.
En el texto citado, Von Humboldt afirma que “[…] el desagüe del lago de Chalco no será completo por tener
en su centro algo de mayor profundidad que el de Texcoco”.9
Una vez lograda la independencia y zanjada la fase imperial, el gobierno republicano hizo énfasis en la
necesidad de proteger a los habitantes del Valle de México de aquellos males recurrentes. Lucas Alamán,
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
90 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
delante del Congreso General Constituyente de 1824, aseguró que, a fin de conseguir la desecación del lago
de Texcoco, era preciso coadyuvar al tajo de Nochistongo con una vía de desagüe alterna: la de Huehuetoca.
Por otra parte, mencionó que sería prudente propiciar la desecación de los lagos de manera directa. Los
avances en estos proyectos fueron lentos por culpa del ambiente de inestabilidad política que vivía el país, y
en 1846, tal cual figura en la Memoria histórica, técnica y administrativa de las obras del desagüe del Valle de
México (1449-1900), redactada por los integrantes de la junta directiva de dicha comisión, “[…] la contienda
norteamericana […] trajo la invasión del territorio y ocupación de la capital. Para defensa de ésta, se ordenó
inundar los terrenos situados al oriente, y para obtenerlo se abrieron zanjas y sangrías por Mexicaltzingo, que
vaciaron gran caudal de agua en las llanuras del Peñón”.10
LAGO DE TEXCOCO, 1519
Fuente: Wikimedia.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
91 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
PLANO DEL LAGO DE TEXCOCO, 1878
Fuente: Cortesía de la Mapoteca Manuel Orozco y Berra, Servicio de Información Agroalimentaria y
Pesquera, SAGARPA.
Todavía en la centuria decimonónica, las lluvias registradas en las décadas de los cincuenta y los sesenta
provocaron otra vez importantes inundaciones. Entonces el gobierno federal ordenó la realización del desagüe
directo de los lagos de Xochimilco y de Chalco. Francisco de Garay refiere que “[…] el lago de Xochimilco
se extendía hasta el dique de Culhuacán, cubriendo sus aguas las fincas de la orilla con todos sus bordos. Ante
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
92 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
todo, fue preciso proceder a aislar los vasos de las haciendas, levantando su bordo frente al lago, cincuenta
centímetros, en una extensión de dos leguas […] Esta sección fue la primera que se desaguó, sangrando el
dique bajo el puente de Culhuacán […]”.11
Los desagües directos surtieron efecto rápidamente y agudizaron el problema de la evaporación. En ambos
lagos el nivel del agua descendió y la superficie se cubrió por una capa de hierba pantanosa. En Memoria para
la carta hidrográfica del Valle de México, Manuel Orozco y Berra explica las consecuencias de este
acontecimiento: “La capa de suelo flotante que se encuentra en los lagos de Chalco y Xochimilco, impiden la
evaporación del agua; no se obtiene utilidad de ella; se puede calcular que ocupa en el primero una superficie
de 5 leguas cuadradas y 2 en el segundo […]”.12
PLANO DEL LAGO DE TEXCOCO, 1906
Fuente: Cortesía de la Mapoteca Manuel Orozco y Berra, Servicio de Información Agroalimentaria y
Pesquera, SAGARPA.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
93 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El nivel de este par de lagos continuó disminuyendo de manera paulatina en el período finisecular; en opinión
de Sigvald Linné, en 1861 “El fango de las laderas arrastrado por las aguas, los ha hecho menos profundos de
Fuente: Wikimedia.
lo que eran en tiempos prehispánicos”.13 A la postre, en el umbral del siglo XX, el ex presidente Porfirio
Díaz incluyó en su agenda política, en el apartado de infraestructura, un estímulo especial para el desagüe
efectivo del Valle de México. Más tarde, la modernización posrevolucionaria hizo que la mancha urbana
creciera paso a paso en franco detrimento de los lagos de Xochimilco y de Chalco. Cerca de 1940, José
Moreno Villa, el primer transterrado que llegó al país, escribió en Cornucopia de México que “La realidad es
que hoy [los lagos del Valle de México] no pueden tocarse con el dedo sino en los mapas o preciosas cartas
geográficas antiguas y en las páginas literarias de Bernal Díaz del Castillo”.14
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
94 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En los últimos dos años y medio, a partir de diciembre de 2014, la aprobación del proyecto denominado
“Nuevo Aeropuerto Internacional de las Ciudad de México, S. A. de C. V.” por la Secretaría de Medio
Ambiente y Recursos Naturales (SEMARNAT) en general, y por la Dirección General de Impacto y Riesgo
Ambiental en particular, ha puesto en alerta a algunas organizaciones de la sociedad civil porque, según los
entendidos en la materia, supone una amenaza de proporciones apocalípticas: el colapso del sistema hídrico
del Valle de México, por exceso de consumo regular de agua —23.6 millones de metros cúbicos más cada
año—, y la desecación casi absoluta del lago de Texcoco, por la acelerada expansión de la mancha
urbana.15 Dicho proyecto es de largo plazo, pero su realización sin cambios sustanciales de planeación y
estrategia representaría, en un horizonte hipotético, la destrucción definitiva de esas hermosas aguas
interiores.
Francisco Gallardo Negrete es licenciado en filosofía y maestro en literatura hispanoamericana por parte de la
Universidad de Guanajuato (UG).
1 Es altamente probable que la poca adaptabilidad aludida se haya debido a las desemejanzas geográficas
entre los paisajes americano y peninsular: mientras la Nueva España se hallaba en una cuenca, Castilla se
encontraba en una llanura, y sus necesidades de desecación y abastecimiento de aguas eran, en consecuencia,
profundamente diferentes.
2 Díaz del Castillo, Bernal (1632). Historia verdadera de la conquista de la Nueva España. Madrid: Imprenta
del Reyno, p. 133.
3 Garay, Francisco de (1888). El Valle de México: apuntes históricos sobre su hidrografía, desde los tiempos
más remotos hasta nuestros días. México: Oficina Tipográfica de la Secretaría de Fomento, p. 16.
4 Clavijero, Francisco Javier (1884). Historia antigua de México y de su conquista. Trad. Joaquín de Mora.
México: Imprenta de Lara, p. 2.
5 De Garay, El Valle de México…, op. cit., p. 8.
6 En apego a las versiones dadas por sus biógrafos, Martínez estuvo en prisión un par de años, acusado de
actos de negligencia que supuestamente agravaron los estragos de la inundación de 1629, y, más aún, su plan
de llevar el tajo de Nochistongo a cielo abierto encontró férreos detractores, impidiendo tal ejecución hasta
después de su muerte.
7 Martínez, Enrico (1606). Reportorio de los tiempos e historia natural de esta Nueva España. México:
Imprenta de Enrico Martínez, p. 186.
8 Humboldt, Alexander von (1827). Ensayo político sobre la Nueva España. Trad. Vicente González Arnao.
París, Francia: Casa de Jules Renouard, p. 89.
9 Ibíd., p. 416.
10 Junta Directiva del Desagüe del Valle de México (1902). Memoria histórica, técnica y administrativa de
las obras del desagüe del Valle de México (1449-1900), Vol. I. México: Tipografía de la Oficina Impresora de
Estampillas de Palacio Nacional, p. 267.
11 De Garay, El Valle de México…, op. cit., p. 85.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
95 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
12 Orozco y Berra, Manuel (1864). Memoria para la carta hidrográfica del Valle de México. México:
Imprenta de A. Boix, p. 86.
13 Citado por Serra Puche, Mari Carmen (1988). Los recursos lacustres de la cuenca de México durante el
Formativo. México: Universidad Nacional Autónoma de México, p. 22.
14 Moreno Villa, José (1992). Cornucopia de México. México: Fondo de Cultura Económica, p. 117.
15 Véase Córdova Tapia, Fernando, Straffon Díaz, Alejandra, Ortiz Haro, Gemma Abisay, Levy Gálvez,
Karen, Arellano Aguilar, Omar, Ayala Azcárraga, Cristina, Zambrano González, Luis, Sánchez Ochoa,
Daniel Joaquín y Acosta Sinencio, Shanty Daniela (2015). Análisis del resolutivo SGPA/DGIRA/DG/09965
del proyecto “Nuevo Aeropuerto Internacional de la Ciudad de México, S. A. de C. V.” MIA-
15EM2014V0044. México: Grupo de Análisis de Manifestaciones de Impacto Ambiental / Unión de
Científicos Comprometidos con la Sociedad, p. 3. Recuperado de http://bit.ly/2sJ9aGU.
http://labrujula.nexos.com.mx/?p=1363
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
96 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
La divulgación y retos de la ingeniería
Por Hugo Valencia Juliao
Ciudad de México. 10 de julio de 2017 (Agencia Informativa Conacyt).- La divulgación en ingeniería no es tan
popular aunque es una disciplina que, según el doctor Daniel Reséndiz Núñez, ha transformado el mundo dando
lugar a la civilización moderna tal y como la conocemos. Sin embargo, reconoció que la ingeniería también ha
tenido repercusiones negativas como co-responsable de los efectos que el cambio climático ha causado.
Para el catedrático de la Universidad Nacional Autónoma de México (UNAM), los ingenieros deben buscar
más y mejores soluciones, tanto innovadoras como sustentables, que respeten todas las formas de vida y que
entiendan a las personas. Una manera de hacerlo, dijo, es que la sociedad participe activamente en las obras de
ingeniería.
El libro El rompecabezas de la ingeniería, obra de divulgación del doctor Reséndiz Núñez, busca impactar en
sus colegas y a la vez a todos aquellos que estén interesados en el quehacer de la ingeniería y se interesen en su
filosofía en aras de ayudar a transformar la disciplina que permita la integración de todos los ejes de la sociedad.
En la obra integrada a la colección La Ciencia para Todos del Fondo de Cultura Económica (FCE), el ingeniero
mexicano explicó que a través de este título se le abrió la puerta a un mundo que no conocía y aseguró que la
mayor incertidumbre que tuvo en el proceso de escritura es si la gente común iba a entender la obra, pues solo
había escrito libros de texto para un público mucho más especializado.
En ese contexto, Daniel Reséndiz Núñez, investigador emérito del Instituto de Ingeniería (II) de la UNAM,
explicó en entrevista con la Agencia Informativa Conacyt los retos de esta profesión que ha transformado el
mundo.
Agencia Informativa Conacyt (AIC): ¿Qué lo llevó a escribir un libro de divulgación?
Daniel Reséndiz Núñez (DRN): Fue la invitación expresa del Fondo de Cultura Económica, fueron quienes me
impulsaron a escribir un libro de este tipo. Fue un proceso natural pero también aleatorio porque mi función
como investigador no es escribir este tipo de materiales y sí lo es escribir artículos especializados sobre temas
relacionados con mi campo profesional.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
97 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Cuando inició la serie La Ciencia para Todos —que originalmente se llamaba La Ciencia desde México—,
participé en el comité que tomó la decisión de abrir la colección, y a todos los investigadores que tomamos esa
responsabilidad nos invitaron a participar dentro de esta con una publicación.
En ese tiempo estaba muy ocupado, de modo que dije que sí
pero no dije cuándo, así pasó un buen número de años antes de que tuviera la posibilidad de sentarme a escribir.
AIC: ¿Cuál fue la experiencia de escribir un libro de este tipo?
DRN: Fue una experiencia muy grata, pues me hizo pensar en la forma de escribirlo y es un proceso que no me
imaginaba porque es muy diferente del que se tiene que seguir para un texto de corte científico. Es decir, los
investigadores de cada campo tenemos términos especializados y un estilo definido.
Cuando comencé a escribir El rompecabezas de la ingeniería, tuve muchas dudas de que si lo que estaba
escribiendo realmente lo iban a entender personas que no eran de mi especialidad. Comencé a tratar de meterme
en los sentimientos y las necesidades de esos lectores.
Fue una vivencia radicalmente diferente a la que tenía como investigador, los investigadores estamos
acostumbrados a escribir para especialistas, no para toda la gama de edades que abarca el público de la colección
del FCE.
Literalmente tuve que escribir cada capítulo cuatro o cinco veces hasta que quedara en un lenguaje accesible,
rompí varios capítulos porque me di cuenta que no estaba cumpliendo ese requisito. En ese aspecto, me ayudó
mucho mi esposa para corregir la manera en que trataba de comunicar el mensaje.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
98 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Fue una experiencia realmente muy agradable, es el único libro de divulgación que he escrito y creo que no
salió muy mal, pues he recibido los comentarios de lectores de todas las edades y han sido muy positivas.
AIC: ¿Por qué la ingeniería ha transformado el mundo?
DRN: Es una de las actividades que más intensa y continuamente han transformado el mundo, ha transformado
todo a través de la tecnología. El mundo en el que vivimos en la actualidad es radicalmente diferente al que
vivieron nuestros padres gracias a que la ingeniería ha logrado importantes avances en todas las áreas.
Es decir, la ingeniería ha generado desde modos de transportación que nos hacen más eficientes los traslados,
hasta condiciones de vida mucho más satisfactorias que las que se tenían antes.
AIC: ¿Cuáles son las repercusiones negativas de la ingeniería?
DRN: Hay muchas, entre ellas la contaminación. Por eso la sociedad tiene que presionar a los ingenieros para
que se preocupen de esos temas, y también desde la profesión se ayude a reducirla. Toda actividad humana —
la ciencia no es excepción— produce efectos positivos y negativos. Es importante que se incorpore este pensar
crítico de las cosas en todas las disciplinas, como parte de la cultura científica.
La ingeniería ha generado productos enormemente benéficos para la humanidad. Sin embargo, todas las cosas
después de creadas se tienen que manejar con cautela y responsabilidad para controlar los riesgos y evaluar los
costos asociados a esos desarrollos.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
99 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
AIC: ¿Por qué hay que hacer partícipe a la sociedad de los avances y logros de la ingeniería?
DRN: Es porque quienes mejor entienden los desarrollos de la ingeniería es la misma sociedad, pues son las
personas quienes gozan los beneficios o sufren los perjuicios que las obras de ingeniería ocasionan.
Tienen que participar porque es la manera en que se puede aspirar a lograr una solución óptima, esto solo se
puede mediante la participación directa de la sociedad en la discusión de esos problemas.
Uno de los grandes retos es hacer que la sociedad, en su conjunto, le interese participar en la toma de decisiones
que al final de cuentas le va a afectar de una u otra manera. Esto ya se está empezando a hacer en relación con
muchas obras de ingeniería, se están comenzando a diseñar esquemas que involucren de forma activa a la
sociedad.
http://www.conacytprensa.mx/index.php/sociedad/politica-cientifica/14174-divulgacion-retos-ingenieria
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
100 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Turquía prohíbe la enseñanza de la evolución – pero la ciencia no es un sistema de creencias
Por César Tomé
29JUN2017
James Williams
Wellcome Images/Wikimedia Commons, CC BY
En los Estados Unidos ha habido muchos intentos de eliminar la evolución del currículo escolar o exigir que el
creacionismo – la idea de que toda vida fue creada por Dios – se le da el mismo trato en los libros de texto de
ciencias. Si bien todos ellos han fracasado, el gobierno de Turquía acaba de prohibir la evolución de su plan de
estudios nacional.
Los creacionistas estadounidenses quieren que se presenten ambas opiniones, para que los niños decidan qué
creer. Los esfuerzos para rechazar esto se caracterizan erróneamente como intentos de coartar el debate o la
libertad de expresión para promover una ideología científica, atea, secular, frente a una cosmovisión religiosa
más moral, ética y de sentido común.
La decisión de Turquía va mucho más allá. No se trata de reclamar la igualdad de trato, es una prohibición
absoluta. El gobierno la justifica alegando que la evolución es “difícil de entender” y “controvertida”. Cualquier
controversia, sin embargo, es una fabricada por las comunidades ultra-religiosas que buscan socavar la ciencia.
Muchos conceptos en la ciencia son más difíciles que la evolución, pero todavía se enseñan.
Argumentos creacionistas
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
101 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
La evolución, según los creacionistas, es sólo una teoría – no está probada y, por tanto, es debatible. Los árboles
evolutivos (especialmente para los seres humanos) se re-dibujan habitualmente después del descubrimiento de
nuevos fósiles, demostrando lo pobre que es la teoría. Después de todo, si la teoría fuese correcta, esto no
seguiría cambiando. A menudo los creacionistas plantean un reto a la ciencia para que demuestre cómo comenzó
la vida, sabiendo que no hay todavía una teoría firme y aceptada. Por último, está el rey de todos los argumentos:
si todos evolucionamos de los monos, ¿por qué hay monos todavía?
Estos argumentos están llenos de inexactitudes fácticas y falacias lógicas. La evolución no necesita una
explicación de cómo comenzó la vida. Simplemente describe cómo la vida se desarrolla y se diversifica. Los
humanos no evolucionaron de los monos – somos grandes simios. Los simios modernos, incluidos los humanos,
evolucionaron a partir de especies preexistentes ahora extintas de simios. Estamos emparentados con, no
descendimos de, los simios modernos.
Conceptos erróneos fundamentales creacionistas
Darwin lideró un gran avance. Glendon Mellow/Flickr, CC BY-NC-ND
Los creacionistas no comprenden que la evolución misma no es una teoría. La evolución sucede. La vida se
desarrolla y diversifica, aparecen nuevas especies. Podemos ver las formas de vida intermedias en este
momento, como peces que están en transición de vivir en tierra y los mamíferos terrestres que han realizado la
transición a la vida acuática. La “teoría de la evolución” explica cómo se desarrolla la evolución. Charles
Darwin y Alfred Russel Wallace describieron por primera vez el mecanismo que impulsa el cambio – la
selección natural – en 1858.
Los creacionistas tampoco comprenden la diferencia entre una teoría y una ley en ciencia. Esto es algo que
incluso los graduados en ciencia padecen, como he señalado en mi propia investigación. Las teorías explican
conceptos científicos. Están respaldadas por pruebas y aceptadas por la comunidad científica. Las teorías son
el pináculo de la explicación científica, no sólo un presentimiento o una conjetura. Sin embargo, las leyes tienen
un papel diferente, describen fenómenos naturales. Por ejemplo, la ley de la gravedad de Newton no explica
cómo ocurre la gravedad, describe los efectos que la gravedad tiene en los objetos. Hay leyes y teorías para la
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
102 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
gravedad. En biología, sin embargo, hay pocas leyes, por lo que no hay ley de la evolución. Las teorías no se
convierten, si tienen pruebas suficientes, en leyes. No son jerárquicas.
Una tercera cuestión es la falta de comprensión de la naturaleza de la ciencia. La ciencia no pretende encontrar
alguna verdad objetiva, sino obtener una explicación de los fenómenos naturales. Todas las explicaciones
científicas son provisionales. Cuando se encuentran nuevas pruebas que contradicen lo que pensamos que
sabemos, cambiamos nuestras explicaciones, a veces rechazando teorías que antes se creían correctas. La
ciencia siempre está trabajando para tratar de falsar ideas. Cuantas más superan esas ideas nuestras pruebas,
más robustas son y mayor es nuestra confianza en que son correctas. La evolución se ha comprobado durante
casi 160 años. Nunca se ha falsado. La ciencia sólo se ocupa de los fenómenos naturales, no le incumbe ni trata
de explicar lo sobrenatural.
¿Por qué la prohibición es peligrosa?
Prohibir la buena ciencia socava toda la ciencia, especialmente teniendo en cuenta el lugar de la evolución como
base de la biología moderna, con abundantes evidencias para apoyarla. Para la mayoría de científicos el hecho
de que la evolución tenga la lugar no se cuestiona seriamente ni es algo controvertido. Cualquier controversia
en las discusiones sobre la evolución trata sobre el papel que la selección natural tiene como motor de la
diversidad y el cambio, o el ritmo de ese cambio.
Esta prohibición de enseñar la evolución en las escuelas turcas abre la posibilidad de que ideas alternativas no
científicas puedan entrar en la enseñanza de la ciencia, desde aquellos que creen en una tierra plana a los
negadores de la gravedad.
¿Cómo tratar el aparente cisma entre la creencia religiosa y la evidencia científica?
Mi investigación y enfoque ha sido distinguir entre religión, un sistema de creencias, y la ciencia, que trabaja
en la aceptación de pruebas. Las creencias, incluyendo pero no limitadas a las creencias religiosas, a menudo
se mantienen irracionalmente, sin pruebas, y son resistentes al cambio. La ciencia es racional, basada en la
evidencia y está abierta al cambio cuando se enfrenta con nuevas pruebas. En ciencia, aceptamos las pruebas,
en lugar de “elegir creer”.
La decisión de Turquía de prohibir la enseñanza de la evolución contradice el pensamiento científico y trata de
convertir el método científico en un sistema de creencias, como si se tratara de una religión. Busca introducir
explicaciones sobrenaturales para los fenómenos naturales y afirmar que existe alguna forma de verdad o
explicación para la naturaleza más allá de la naturaleza. La prohibición es anticientífica, antidemocrática y debe
oponérsele resistencia.
Sobre el autor:
James Williams es profesor de educación de la ciencia en el Sussex School of Education and Social Work de
la Universidad de Sussex (Reino Unido)
Texto traducido y adaptado por César Tomé López a partir del original publicado por The Conversation el 28
de junio de 2017 bajo una licencia Creative Commons (CC BY-ND 4.0)
https://culturacientifica.com/2017/06/29/turquia-prohibe-la-ensenanza-la-evolucion-la-ciencia-no-sistema-
creencias/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaCie
ntfica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
103 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
CMS no observa el efecto magnético quiral sugerido por STAR y ALICE
Francisco R. Villatoro
Ciertas correlaciones entre partículas cargadas observadas en colisiones periféricas de iones pesados en los
detectores STAR del RHIC y ALICE del LHC se han interpretado como resultado del efecto magnético quiral
(CME). Se publica un artículo del detector CMS del LHC que descarta que dicho efecto sea la causa de estas
correlaciones. Se han analizado colisiones entre iones de plomo (Pb-Pb), y protones e iones de plomo (p-Pb),
que corresponden a colisiones nucleón contra nucleón a una energía de 5,02 TeV en el centro de masas. Se
observan las correlaciones en ambos casos, cuando el CME predice que no deberían observarse en el segundo.
Futuros estudios tendrán que confirmar este resultado de CMS.
El efecto magnético quiral es debido a la rotura de la simetría de paridad en las colisiones entre nucleones a
alta energía. En dichas colisiones se producen intensos campos magnéticos que inducen una asimetría en las
distribución de partículas por encima y por debajo del plano de la colisión. Para estudiar este efecto hay que
estudiar las correlaciones entre tríos de partículas cuyos ángulos de salida de la colisión estén bien separadas
(es decir, bien separadas en pseudorrapidez). CMS permite estudiar tríos de partículas cargadas de las que dos
tienen pseudorrapidez |η|< 2,4, y la tercera 4,4 <|η|< 5. Gracias a ello se puede definir un nuevo observable no
trivial que permite descartar el CME como responsable de las correlaciones observadas con STAR y ALICE.
El nuevo artículo es CMS Collaboration, “Observation of Charge-Dependent Azimuthal Correlations in p−Pb
Collisions and Its Implication for the Search for the Chiral Magnetic Effect,” Phys. Rev. Lett. 118: 122301
(24 Mar 2017), doi: 10.1103/PhysRevLett.118.122301, arXiv:1610.00263 [nucl-ex]; más información
divulgativa en Alexandru Florin Dobrin, “No sign of asymmetry in the strong force,” Nature (14 Jun 2017),
doi: 10.1038/nature23086.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
104 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Los detectores de partículas como CMS tienen forma de cilindro con múltiples capas de detectores para
diferentes tipos de partículas. La dirección angular de las partículas que se producen en el punto de colisión
(en el centro del cilindro) se caracterizan por dos ángulos (θy Φ). Se llama pseudorrapidez (η) a una
transformación matemática del ángulo azimutal (θ) en coordenadas cilíndricas medido desde la dirección
perpendicular al tubo por el que se mueven los protones en el LHC. Se podría medir el ángulo de la forma
habitual con θ entre 0º para la vertical y ±90º para la dirección del tubo de los protones. Pero en física de
partículas se usa la pseudorrapidez η, de tal forma que η=0 corresponde a la vertical y η=∞ a la dirección del
tubo.
El detector CMS puede observar colisiones con una pseudorrapidez |η|< 2,4. Pero, además, a ambos lados y
alrededor del tubo de protones, se han instalado unos calorímetros hadrónicos en la dirección de los haces
(forward hadronic calorimeters) que permiten medir partículas con 4,4 <|η|< 5. ALICE y STAR carecen de
este tipo de detectores. Por cierto, también existe un detector específico, llamado TOTEM, que permite
estudiar partículas con 5,3 < |η| < 6,4. Gracias a estos detectores se pueden hacer física en la dirección de los
haces(forward physics).
El colisionador RHIC estudia colisiones Au+Au con una energía por nucleón de 0,2 TeV en el centro de
masas; LHC estudia colisiones Pb+Pb y p+Pb (protón contra plomo) con una energía por nucleón de 5,02
TeV c.m. La interacción fuerte descrita por la cromodinámica cuántica (QCD) conserva la paridad. Sin
embargo, en las colisiones de iones se producen intensos campos magnéticos que afectan al plasma quark-
gluón, pudiendo inducir una nueva fase QCD caracterizada por burbujas metaestables en las que se viola la
paridad. Esta fase se describe mediante un modelo efectivo, modelo sigma, que presenta una carga topológica
cuyas fluctuaciones de vacío son responsables de la fase que muestra el CME.
Las correlaciones observadas en STAR para colisiones Au+Au y en ALICE para colisiones Pb+Pb podrían
ser resultado del CME, pero también podrían tener otra causa. El campo magnético que causa el CME en las
colisiones Pb+Pb tiene una dirección perpendicular al plano de la colisión; sin embargo, en las colisiones
p+Pb su orientación es arbitraria (porque el protón se comporta como puntual para un átomo de plomo). Si la
causa de las correlaciones observadas en STAR y ALICE fuera el CME, entonces CMS debería observar
menos correlaciones en las colisiones p+Pb que en las Pb+Pb.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
105 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
106 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Como muestran estas figuras, las correlaciones observadas por CMS en las colisiones Pb+Pb y p+Pb son muy
similares en magnitud, en contra de la predicción teórica cuando su causa es el efecto magnético quiral. En las
figuras, las correlaciones entre tríos de partículas (una de ellas detectada por los calorímetros en la dirección
de los haces) se separan en dos contribuciones en función de si las otras dos partículas tienen el mismo signo
de carga (SS en las figuras) o signo opuesto (OS en las figuras). Los resultados de CMS indican que la
contribución del CME a las correlaciones observadas es despreciable.
En resumen, CMS descarta que el efecto magnético quiral haya sido observado por STAR y ALICE. Futuros
estudios son necesarios, tanto análisis más precisos por parte de CMS, como nuevos análisis realizados por
ATLAS y otros detectores. La búsqueda de nuevas fuentes de violación de la paridad en la interacción fuerte
continua.
http://francis.naukas.com/2017/06/21/cms-no-observa-efecto-magnetico-quiral-sugerido-star-
alice/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+naukas%2Ffrancis+%28La
+Ciencia+de+la+Mula+Francis%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
107 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Ubican nueva especie de orquídea en México
EL COLEGIO DE LA FRONTERA SUR
Boletín de Prensa
Vincenzo Bertolini, investigador del Departamento de Conservación de la Biodiversidad de El Colegio de la
Frontera Sur (ECOSUR) y Fredy Archila, botánico de la Estación Experimental de Orquídeas de Guatemala y
del Herbario BIGU, de la Universidad de San Carlos de Guatemala, ubicaron la población de una nueva
especie de orquídea en el Valle Mezquital del estado de Hidalgo, México: Ponthieva nicolasii.
Este descubrimiento se registró durante estudios de campo que llevaron a cabo para realizar un inventario
botánico por parte de la Universidad Tecnológica del Valle del Mezquital. Los especialistas en orquídeas
reportaron la especie por primera vez en 2009, en un sitio de recolección entre el Alto Mezquital y la Sierra
Gorda, en la ecorregión de la Sierra Madre Oriental con un ecosistema de bosque pino-encino.
Desde entonces y hasta 2015 los expertos mantuvieron la población bajo observación, realizaron análisis del
material recolectado y lo compararon con otras especies del mismo género, concluyendo que debido a sus
patrones taxonómicos distintivos se trataba de una nueva especie del género Ponthieva, a la cual denominaron
Ponthieva nicolasii (Orchidaceae), etimología dedicada a Nicolás Bertolini Luna, hijo de uno de los autores.
A partir de un diagnóstico taxonómico describieron e ilustraron las diferencias entre la Ponthieva nicolasii y
las otras especies de Ponthieva mexicanas, de tal modo que indicaron que P. nicolasii se diferencia de las
otras dos registradas para el estado de Hidalgo —la Ponthieva racemosa y la Ponthieva schaffneri—, y aunque
es una especie muy afín morfológicamente a la última, se diferencia por su ginostemio con la base de la
columna oblicuamente orbicular o elíptica y por su labelo basalmente orbicular, trilobado.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
108 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
“Este descrubrimiento hubiera sido imposible de realizarse sin el inmenso conocimiento que Francisco Luna
Tavera, historiador de la cultura Otomí, tenía del territorio. Él fungió como guía de campo para esta
investigación y falleció en 2015, dejando un enorme vacío intelectual para su región de origen”, expresó
Vincenzo Bertolini.
El artículo del hallazgo fue publicado en septiembre de 2016, con el título Ponthieva nicolasii (Orchidaceae),
una nueva especie para Hidalgo, dentro del Volumen 73 Número 2 de la Revista Gayana Botánica, Órgano
Oficial de la Sociedad Botánica de Chile de la Universidad de Concepción, en Chile. Dicha publicación está
acreditada por la International Association for Plant Taxonomy para propósitos de registros de nuevos
nombres de plantas vasculares y hongos.
Artículo completo: http://www.gayanabotanica.cl/pdfs/2016/2/22-Bertolini_Archila_2016.pdf
Más información: Vincenzo Bertolini
vbertolini@ecosur.mx
Departamento de Conservación de la Biodiversidad,
Unidad: Tapachula
Tel: (993) 3136110 Ext. 5444
http://www.conacytprensa.mx/index.php/centros-conacyt/boletinescentros/12639-ubican-nueva-especie-de-
orquidea-en-mexico
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
109 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Miel y siropes, ¿son mejores que el azúcar?
Por César Tomé
A estas alturas, los que nos preocupamos por nuestra salud y tratamos de seguir una dieta equilibrada, sabemos
que se consume más azúcar del recomendable, con las consecuencias para la salud que eso acarrea, sobre todo
relacionadas con el sobrepeso y la diabetes. Por este motivo, muchos hemos buscado el ansiado sabor dulce en
sustitutos del azúcar. Cada vez hay más oferta, desde el azúcar moreno, a edulcorantes como el aspartamo, el
eritritol, la sacarina, la estevia, etc.
En el primer artículo de la serie «Azúcar y otros edulcorantes» concluimos que el azúcar moreno no es más
saludable que el azúcar blanco. En siguientes artículos analizaremos al resto de edulcorantes. Hoy vamos a ver
qué ocurre con los llamados edulcorantes naturales, como la miel y los siropes.
¿Qué es la miel?
Las abejas recolectan el néctar de las flores (miel de flores) o las secreciones de partes vivas de plantas o
excreciones de insectos chupadores de plantas (rocío de miel), lo transforman gracias a la enzima invertasa que
contienen en la saliva y lo almacenan en los panales donde madura hasta convertirse en miel.
La composición de la miel es la siguiente, aunque varía según el origen del néctar y el clima:
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
110 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Composición media de la miel
El azúcar blanco y el azúcar moreno son sacarosa al 85-100%. La miel contiene en un 70-80% fructosa y glucosa
—los monosacáridos que conforman la sacarosa—. En todos los tipos de miel, los azúcares conforman más de
85% de su composición.
Con respecto al aporte calórico, el azúcar tiene 4 kcal por gramo, mientras que la miel tiene unas 3 kcal por
gramo. Esta disminución se debe al agua que contiene.
El índice glucémico (IG) de un alimento es otro valor a tener en cuenta. El IG determina la velocidad con la
que un alimento hace aumentar los niveles de glucosa en sangre, de modo que los alimentos de alto IG se
restringen en dietas para diabéticos o propensos a padecer diabetes. También reducen la saciedad, por lo que se
suelen desaconsejar en dietas para perder peso. La miel tiene un IG de 60-65. El azúcar común tiene un IG de
70. Ambos son valores elevados y similares, así que tampoco es un dato que haga a la miel mejor que al azúcar
común.
En la miel encontramos un 1% de otras sustancias que sí tienen valor nutricional, como minerales, vitaminas y
aminoácidos, y es por ello por lo que se le atribuyen propiedades antioxidantes, entre otras. También contiene
una pequeña porción de agua oxigenada, responsable de que en la antigüedad y en caso de emergencia, se
utilizase miel como cicatrizante y bactericida.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
111 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
La proporción de nutrientes es tan pequeña que necesitaríamos comer grandes cantidades de miel para que el
aporte fuera significativo. Y eso es precisamente lo que no debemos hacer. El beneficio que pudiesen suponer
sus nutrientes queda eclipsado por la enorme cantidad de azúcares que contiene la miel. Si queremos nutrientes,
no los busquemos en la miel.
¿Qué son los siropes?
Los siropes o jarabes son jugos que se extraen de diferentes plantas que posteriormente se tratan para eliminar
parte del agua y concentrar sus azúcares. Los siropes son disoluciones acuosas con un contenido en azúcares
que oscila entre el 70 y el 90%. Los más conocidos son el sirope de arce y el sirope de agave.
El sirope de arce, edulcorante típico canadiense, se extrae del tronco de diferentes tipos de arces. Es el sustituto
de la miel que suele emplearse en cocina vegana. Para producir el sirope se extrae el jugo del tronco de los arces
y se calienta hasta conseguir la consistencia deseada. Algunos productores además le añaden grasa en forma de
manteca.
El sirope de agave se extrae del corazón del agave, planta típica de México. Para su elaboración se corta la
planta y se extrae la savia, denominada aguamiel, que es consumida por los nativos como una bebida
refrescante. Si la savia se fermenta obtenemos pulque, bebida alcohólica tradicional de México. También se
emplea para fabricar tequila. El proceso de obtención del sirope es por degradación enzimática de los
carbohidratos, principalmente fructosanos, en azucares simples. Posteriormente se filtra y se concentra por
calentamiento hasta alcanzar una viscosidad similar a la miel, de forma muy parecida a cómo se obtiene el
sirope de arce o cualquier otro sirope vegetal.
Tanto el sirope de arce como el sirope de agave tienen un IG de 55 y aportan una media de 3 kcal por
gramo. La diferencia con el azúcar se debe a la cantidad de agua y a la elevada proporción de fructosa.
La composición media de ambos siropes es:
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
112 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Composición media del sirope de agave y de arce
La principal diferencia entre los siropes y la miel es que los siropes contienen una mayor cantidad media de
fructosa. El sirope que más fructosa contiene es el llamado jarabe de maíz, también conocido como jarabe de
maíz de alta fructosa. Aunque la fructosa y la glucosa aportan casi las mismas kcal, la fructosa tiene una
capacidad edulcorante más potente, por lo que suele emplearse menos cantidad para obtener el mismo dulzor.
De media, el 5% de cualquiera de estos siropes contiene otro tipo de sustanciascon valor nutricional, como
vitaminas, minerales y aminoácidos, responsables, entre otras cosas, de los diferentes sabores y aromas de los
siropes. El porcentaje es muy pequeño como para tenerlo en consideración como aspecto saludable, ya que,
como pasaba con la miel o con el azúcar moreno, habría que consumir una elevada cantidad de estos
edulcorantes para conseguir una porción significativa de nutrientes. La enorme cantidad de azúcares
ensombrece la posible bondad de sus nutrientes.
Para algunos consumidores, la ventaja de este 5% de nutrientes y otras sustancias es organoléptica. De ninguna
manera debería aconsejarse el consumo de miel o siropes alegando valor nutricional y otros aspectos saludables,
porque no son ni ciertos ni relevantes.
Consideraciones metabólicas de siropes, miel y otros edulcorantes de alto contenido en fructosa.
A diferencia de la glucosa, que se absorbe instantáneamente produciendo un aumento y disminución rápida de
energía, la fructosa se metaboliza más despacio y en parte es almacenada como reserva por el hígado en forma
de glucógeno. El exceso acaba convirtiéndose en grasa. Sin embargo, puesto que la fructosa se transforma en
glucosa y produce una elevación glucémica en sangre, no se considera un edulcorante recomendable para las
personas con diabetes, tal y como se creía erróneamente en el pasado.
El hecho de que toda la fructosa tenga que ser metabolizada por el hígado(mientras que la glucosa se metaboliza
en todo tipo de células) tiene implicaciones sobre la salud. Actualmente se está analizando la relación entre un
consumo excesivo de fructosa y algunas patologías como la diabetes tipo II, la obesidad y sus enfermedades
cardiovasculares asociadas, el hígado graso no alcohólico y el síndrome metabólico. Patologías que, hasta ahora,
asociábamos al consumo excesivo de azúcar común, entre otros, y que hoy en día extendemos a estos otros
edulcorantes de elevado contenido en azúcares como la fructosa.
Puede resultar curioso que un alimento con un IG medio, como muchos siropes, esté relacionado con la
obesidad. Esto tiene una razón metabólica que lo explica: el hígado focaliza toda la actividad en la fructosa, lo
que causa un cese en la actividad digestiva normal. La consecuencia es que se reducen los niveles de insulina y
leptina, y aumenta el nivel de la hormona ghrelina, encargada de controlar el apetito, con lo cual, cuando
consumimos fructosa, no sentiremos saciedad.
Conclusiones
La recomendación de la Organización Mundial de la Salud (OMS) es reducir el consumo de azúcar libre hasta
los 25 g diarios (exactamente al 5% de las calorías diarias consumidas). En la recomendación de la OMS se
hace una clara distinción entre azúcar libre y azúcar intrínseco. El azúcar intrínseco es el que de serie contienen
las frutas y las verduras, y sobre el que no hay restricción de consumo. El azúcar libre es el que sí debemos
minimizar. El azúcar libre lo añadimos a los alimentos como azúcar común y es el que se utiliza como un
ingrediente más en alimentos procesados (sean aparentemente dulces o no). La OMS también denomina azúcar
libre la miel y los siropes, ya que su consumo ocasiona una respuesta metabólica de consecuencias análogas a
las que produce el consumo de azúcar común.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
113 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Tanto la miel como los siropes tienen un contenido en azúcares elevado, que varía entre el 70% y el 90%. El
resto es agua, y una cantidad mínima de nutrientes, vitaminas y minerales. Estos nutrientes son tan escasos que,
cualquiera de las propiedades beneficiosas que pudiesen aportarnos, quedan ensombrecidas por el alto
contenido en azúcares. Si queremos nutrientes, no los busquemos en la miel o en los siropes.
En definitiva, si la recomendación es disminuir la ingesta de azúcar libre, disminuyámosla, no busquemos
soluciones mágicas. Tanto la miel como los siropes son azúcares con nombres y presentaciones atractivas, que
evocan salud y naturalidad. Son azúcares con un bonito disfraz.
Principales fuentes consultadas:
Recomendaciones sobre el consumo de azúcares de la Organización Mundial de la Salud [PDF]
Wikipedia: Maple syrup.
Directo al paladar: Qué es el sirope de agave, origen y usos en la cocina.
Morselli, Mariafranca; Whalen, M Lynn (1996). “Appendix 2: Maple Chemistry and Quality”. In
Koelling, Melvin R; Heiligmann, Randall B. North American Maple Syrup Producers Manual. Ohio
State University.
Gominolas de petróleo: ¿Es cierto que la miel no se estropea?
El comidista: ¿Existen alternativas sanas al azúcar?
Forristal, Linda (2001). The Murky World of High-Fructose Corn Syrup.
Teff, K. L.; Elliott, S. S., Tschöp, M., Kieffer, T. J., Rader. D., Heiman, M., Townsend, R. R., Keim,
N. L., D’Alessio, D., Havel, P. J. (2004). “«Dietary fructose reduces circulating insulin and leptin,
attenuates postprandial suppression of ghrelin, and increases triglycerides in women.» J Clin
Endocrinol Metab. 89 (6): 2963-72.
Sobre la autora: Déborah García Bello es química y divulgadora científica
https://culturacientifica.com/2017/06/29/miel-siropes-mejores-
azucar/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaCientf
ica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
114 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En Escuela Latinoamericana rinden homenaje a Atanacio Pani, el jardinero que se convirtió en uno de los
mejores operadores de telescopios en México
INSTITUTO NACIONAL DE ASTROFÍSICA, ÓPTICA Y ELECTRÓNICA
Divulgación y Comunicación Científica
Boletín de prensa 02/2017
Santa María Tonantzintla, Puebla, a 12 de enero. Con un homenaje a Atanacio Pani Cielo, el operador del
telescopio de un metro del Observatorio Astronómico Nacional (OAN) de la UNAM en Tonantzintla, quien
de jardinero se convirtió en astrónomo, comenzó la Escuela Latinoamericana de Astronomía Observacional
(ESAOBELA) 2017.
La ESAOBELA reúne durante tres semanas a estudiantes de Física, Matemáticas e Ingenierías provenientes
de distintos países de Latinoamérica, a los cuales se les ofrece un curso básico, pero muy completo, de
Astronomía. Las clases teóricas se refuerzan con prácticas observacionales usando principalmente el
telescopio de un metro del OAN de Tonantzintla. La Escuela organizada conjuntamente por el Instituto
Nacional de Astrofísica, Óptica y Electrónica (INAOE) y el Instituto de Astronomía de la UNAM (IA-
UNAM).
Este año, 24 investigadores del INAOE, el IA-UNAM, la Universidad de Guanajuato, el Instituto Politécnico
Nacional y la Universidad de Guadalajara ofrecerán cursos sobre astronomía de posición y tiempo, el Sol,
clasificación espectral, fotometría, evolución estelar, instrumentación óptica y electrónica, material
interestelar, la galaxia, sistemas extragalácticos, radioastronomía y astronomía no visible.
La ESAOBELA 2017 fue una inaugurada el pasado domingo 8 de enero con la asistencia de los doce
estudiantes que participarán en ella este año, así como de profesores, familiares y amigos.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
115 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En un breve discurso, el M.C. José Peña Saint-Martin, jefe del OAN y uno de los organizadores de la
ESAOBELA, dio la bienvenida a los estudiantes e hizo un recuento de los diez años de historia de la Escuela.
Dijo que la misma surgió de su participación en otras escuelas de astronomía en Centroamérica.
Por su parte, el Dr. Omar López Cruz dedicó algunas palabras al homenajeado, Atanacio Pani, a quien se le
conoce como Nacho: “Hay unos versos muy famosos, “Caminante no hay camino, se hace camino al andar”.
Nacho ha hecho camino al andar. Nació en Tonantzintla el 12 de marzo de 1957. Es hijo de Carmen Cielo y
de Hilario Pani, quien también trabajó aquí. Nacho hizo la primaria y secundaria aquí y como mucha gente de
Tonantzintla se tuvo que ir en esta migración del campo a los centros urbanos, al D.F., donde aprendió billar,
a ir al cine y todas las artes de la vida en tres años. Con esa experiencia regresó a Tonantzintla a los 18”.
El 5 de diciembre de 1975 Atanacio Pani ingresó como jardinero al Observatorio Astronómico Nacional de la
UNAM. “Este camino no es particular de Nacho, hay muchos astrónomos que fueron jardineros. Algunos
fueron músicos y luego se encontraron con una viuda rica y se hicieron famosos, como William Herschel.
Aquí en México tenemos dos jardineros, uno es Enrique Chavira y otro es Nacho Pani. En Estados Unidos un
arreador de mulas, Milton Humason, trabajó con Edwin Hubble subiendo las piezas del telescopio de Monte
Palomar y luego se hizo el gran operador de telescopios, como Nacho se hizo el gran operador del telescopio
de un metro de la UNAM”, subrayó el Dr. López Cruz.
Recordó que hace algunos años le dedicaron una Escuela Latinoamericana a Alfonso Quintero, otro vecino de
Tonantzintla, quien le enseñó a Nacho a manejar el telescopio. “Algo importante es mencionar a toda la gente
que le ayudó, no sólo Alfonso Quintero, quien ya no está con nosotros, sino también la Dra. París Pismis, José
Peña, Marco Moreno, Rafael Costero. Todos los astrónomos le ayudaron, hubo una gran generosidad que
luego Nacho compartió con nosotros en los ochenta cuando comenzamos a venir”.
A su vez, Atanacio Pani, el homenajeado, rememoró: “Mi ingreso en esta institución fue por azares del
destino. Entré con nombramiento de jardinero sin saber que mi destino estaba escrito. El área en la que me
correspondía trabajar era la del edificio que alberga al telescopio de un metro. Por lógica no sabía qué había
adentro porque mi horario era en la mañana, cuando estaba cerrado y los astrónomos estaban durmiendo. Pero
me ganó el interés. Alfonso Quintero, que era el primer asistente en turno, me dio la oportunidad de entrar al
edificio y conocerlo. Después le pedí estar con él en las noches y hasta ahí llegaba mi asistencia. Unas
semanas después me asomé por primera vez al telescopio y lo primero que vi fue la estrella Sirio, que me
impactó. Tiempo después observé Saturno, Júpiter y cuando vi la Nebulosa de Orión me dije soy de aquí, le
pedí que me enseñara y muy amablemente me enseñó. Me sentí grande cuando por primera vez operé la
consola del telescopio. Pude conocer esta disciplina gracias a sus enseñanzas y conocimientos. Así es como
me hice astrónomo de manera autodidacta, aprendiendo cada día de los mejores astrónomos del Instituto de
Astronomía de la UNAM y de los amigos astrónomos del INAOE. Estoy muy agradecido con ellos”.
Agradeció a todos los astrónomos que le han apoyado en su carrera, entre ellos el doctor Rafael Costero, el
Mtro. José Peña, los doctores Omar López, Miguel Chávez, Manuel Alcalá y Raúl Mújica, entre otros.
Finalmente, el Dr. Raúl Mújica, otro de los organizadores de la ESAOBELA, dijo que en cada edición de la
ESAOBELA recomienda lo que aprendió en la escuela de verano del Observatorio del Vaticano. Invitó a los
estudiantes a aprovechar al máximo los recursos y la experiencia de estar trabajando con jóvenes de otros
países durante estas semanas, porque de aquí pueden surgir grandes amistades y futuras colaboraciones en
proyectos científicos.
La Escuela Latinoamericana de Astronomía Observacional se realizará en Tonantzintla hasta el 29 de enero.
Para mayor información se puede consultar la página http://www.astroscu.unam.mx/cursos/esaobela/
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
116 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
_______________________
Acerca del INAOE:
El Instituto Nacional de Astrofísica, Óptica y Electrónica es un centro de investigación científica de prestigio
internacional. Está ubicado en Santa María Tonantzintla, Puebla, y pertenece al Sistema de Centros Públicos
de Investigación del CONACYT. Sus objetivos principales son realizar investigación de frontera en
Astrofísica, Óptica, Electrónica y Ciencias Computacionales, formar recursos humanos de primer nivel en las
citadas áreas, e identificar y resolver algunos de los problemas científicos y tecnológicos más importantes en
el país y en el mundo. Para mayor información consultar www.inaoep.mx
Contactos:
Mtra. María Guadalupe Rivera Loy
Jefa del Departamento de Difusión Científica
Tel. 01 (222) 266 31 00, ext. 7011
grivera@inaoep.mx
Lic. Montserrat Flores de la Peña
Enlace con medios, Departamento de Difusión Científica
Tel. 01 (222) 266 31 00, ext. 7014
mfloresp@inaoep.mx
http://www.conacytprensa.mx/index.php/noticias/reportaje/12638-en-escuela-latinoamericana-rinden-
homenaje-a-atanacio-pani-el-jardinero-que-se-convirtio-en-uno-de-los-mejores-operadores-de-telescopios-en-
mexico
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
117 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Duro varapalo al supuesto noveno planeta del Sistema Solar
Francisco R. Villatoro
No sabemos aún si existe un noveno planeta, una supertierra, en el Sistema Solar. Pero el OSSOS (Outer
Solar System Origins Survey) acaba de refutar los indicios que apuntaban a su existencia. Las resonancias
orbitales observadas por el famoso Mike Brown y Konstantin Batygin a principios de 2016 son ficticias.
Según el nuevo análisis de OSSOS, que ha descubierto unos 800 objetos transneptunianos, ocho de los cuales
deberían presentar estas resonancias, no existen; parecen ser un resultado de un sesgo en el análisis previo de
otros ocho cuerpos. Por tanto, ahora mismo quedan descartados todas las pruebas sobre la existencia del
supuesto noveno planeta.
El artículo es Cory Shankman, J. J. Kavelaars, …, Kathryn Volk, “OSSOS VI. Striking Biases in the detection
of large semimajor axis Trans-Neptunian Objects,” arXiv:1706.05348 [astro-ph.EP]. Me he enterado gracias a
Ethan Siegel, “Goodbye, Planet Nine! New And Better Data Disfavors A Giant World Beyond
Neptune,” Starts With A Bang, 21 Jun 2017. El artículo con la propuesta original es Konstantin Batygin,
Michael E. Brown, “Evidence for a Distant Giant Planet in the Solar System,” Astronomical Journal 151: 22
(2016), doi: 10.3847/0004-6256/151/2/22, arXiv:1601.05438 [astro-ph.EP].
Recomiendo volver a leer a Daniel Marín, “Estrechando el cerco alrededor del Planeta X (no, no se ha
descubierto un noveno planeta del sistema solar)”, Eureka, 20 Ene 2016, y, en este blog, “¿Existe otro planeta
en el Sistema Solar?” LCMF, 31 Ene 2016.
[PS] La respuesta de Mike Brown no se ha hecho esperar. Ya había observado sesgos parecidos a los
observados por OSSOS y no afectan a su análisis sobre la existencia del noveno planeta. Más aún, “le apena”
que los resultados de OSSOS no afecten a su análisis. Ya publicó sobre este tipo de sesgos en M. E. Brown,
“Observational bias and the clustering of distant eccentric Kuiper belt objects,” arXiv:1706.04175 [astro-
ph.EP] (allí analizó los 10 TNOs que apoyan su hipótesis). Quizás se olió el asunto y decidió contestar a
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
118 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
priori, antes de que saltara la liebre. Habrá que esperar hasta julio para una respuesta a posteriori (basada en
los 8 TNOs adicionales de OSSOS), científicamente más rigurosa. Habrá que estar al loro. [/PS]
Según Brown y Batygin, el supuesto noveno planeta era una supertierra, con un tamaño similar a Urano o
Neptuno, situada mucho más allá de la órbita de Neptuno. Las pruebas indirectas de su existencia se basaban
en el efecto que producía en las órbitas de los ocho objetos transneptunianos con órbitas de alta excentricidad
mejor caracterizados. Si estos objetos eran típicos, las resonancias en sus órbitas eran un indicio firme de la
existencia del noveno planeta.
Por desgracia para los aficionados al noveno planeta, los datos del catálogo OSSOS, obtenidos con el Canada-
France-Hawaii Telescope entre 2013–2017, no apoyan los indicios de Brown y Batygin. OSSOS ha
descubierto más de 800 objetos transneptunianos, ocho de los cuales tienen órbitas de alta excentricidad y, por
tanto, deberían presentar las mismas resonancias orbitales que los cuerpos estudiados por Brown y Batygin.
Pero no las presentan. Más aún, sus órbitas apuntan a que la distribución angular de las órbitas de los objetos
transneptunianos no muestra ningún efecto de una posible supertierra más allá de Neptuno. La selección
realizada por Brown y Batygin estaba sesgada (aunque estos astrónomos no tienen la culpa, más allá de un
posible sesgo de confirmación).
En resumen, todo indica que no tenemos ningún indicio, ni siquiera indirecto, de la posible existencia de un
noveno planeta. Por supuesto, esto no significa que no exista. Solo han recibido un duro varapalo los indicios
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
119 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
que se ofrecieron a principios del año de 2016 y que generaron un enorme eco mediático. Lo que pueda pasar
en el futuro es imposible de prever.
[PS 22 Jun 2017] Permíteme resumir los argumentos de Brown en su nuevo artículo
(arXiv:1706.04175 [astro-ph.EP]). La propuesta original del noveno planeta por Brown y Batygin se basaba
en el análisis de las órbitas de los últimos TNOs de gran excentricidad descubiertos entonces, los seis en azul
esta figura; antes de OSSOS se han descubierto otros cuatro, tres en rojo por Sheppard y Trujillo (2016),
llamados 2013 FT28, 2014 FE72, y 2013 SY99, y el cuarto en verde por Bannister et al. (2017), llamado 2014
SR349. Entre los 10 TNOs hay uno que no apoya la hipótesis del noveno planeta, 2014 FT28 (el punto rojo
más arriba en la figura); los otros se pueden ajustar, más o menos, a ella. Según Brown, su efecto en contra de
la hipótesis es ridículo, estimándose una significación estadística de 0,025% a la hipótesis nula (que no exista
noveno planeta).
Para Brown es obvio que si hay diez TNOs de los que nueve están a favor de su hipótesis y uno está en
contra, la existencia del noveno planeta está fuera de toda duda, y punto pelota. ¿Podría haber un sesgo en las
observaciones y que sólo observáramos TNOs en la región a favor de la hipótesis? Según Brown sesgo hay,
pero es muy improbable que afecte a su hipótesis. Brown estima (por la cuenta de la vieja, pues no detalla el
cálcula) que hay una significación estadística de 0,02% de que así ocurra. Por tanto, su hipótesis sobre el
noveno planeta sigue brillando con luz propia.
Pero el análisis de Brown no tiene en cuenta los nuevos resultados de OSSOS. Hay cinco nuevos TNOs en
contra de la hipótesis de Brown; además, teniendo en cuenta el sesgo observacional hacia TNOs a favor de la
hipótesis, se estima mediante simulaciones por ordenador que hay toda una población de TNOs en contra de
la hipótesis de Brown. Si existiera el noveno planeta no podría existir dicha población. Brown ha dicho en
Twitter que preparará un artículo discutiendo el efecto de estos nuevos TNOs sobre su hipótesis. Incluso ha
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
120 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
llegado a sugerir que la colaboración OSSOS no tiene experiencia suficiente en este tipo de análisis, al menos
no tanta como él, y que por tanto sus conclusiones en contra del noveno planeta son exageradas.
Habrá que esperar al nuevo artículo de Brown que se publicará en julio. Pero todo apunta a un primer
varapalo a la hipótesis del noveno planeta. Quizás mi titular, “duro varapalo” es un poco exagerado. Quizás
tendría que haber titulado “primer varapalo”. Aún así, lo habitual con hipótesis de base observacional dudoda
es que cuando empiezan a aparecer datos en contra, dicho número crece y no para de crecer, hasta que la
hipótesis acaba en el pozo del olvido [/PS].
http://francis.naukas.com/2017/06/21/duro-varapalo-al-supuesto-noveno-
planeta/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+naukas%2Ffrancis+%28
La+Ciencia+de+la+Mula+Francis%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
121 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
La ciencia y la competencia
Por César Tomé
La ciencia es un sistema de búsqueda de conocimiento, y también el depósito de saberes acumulado por este
sistema. Su objetivo es esclarecer el funcionamiento del Universo, saber cómo funcionan las cosas y de qué
están hechas; es una búsqueda intelectual y sistemática que intenta dejar a un lado los errores conocidos y trata
de aproximarse en sucesivos ciclos a la verdad. En este sentido es inherentemente cooperativa, no competitiva:
el conocimiento es de todos y los descubrimientos del otro pueden y deben enriquecer los propios. El hecho de
que el final del proceso de descubrimiento científico sea la publicación así lo demuestra: el objetivo es hacer
público, dar a conocer lo descubierto para que todos lo conozcan. La ciencia es, por tanto, una república
cooperativa. En teoría.
Y en teoría no debería haber diferencia entre la teoría y la práctica, pero en la práctica la hay.
De izquierda a derecha: Crick, Watson, Franklin, Wilkins y Pauling. Cinco de los protagonistas de uno de los
casos de competencia en ciencia más conocidos del siglo XX: el descubrimiento de la estructura del ADN.
Los hechos se narran aquí.
Los humanos somos primates, y como tales intensamente sociales y muy jerárquicos; esto implica que tendemos
de forma natural a competir constantemente para establecer relaciones de dominación y sumisión. Sólo por este
factor la ciencia, como cualquier empeño humano, tiende a la competencia, y el triunfo máximo en ciencia es
ser el primero en publicar algo: el que pasa a la historia como el descubridor. A veces las reglas de la ciencia
así lo reconocen de modo explícito, como cuando el nombre de quien crea una especie biológica forma parte
de su denominación taxonómica oficial: descubre y describe una nueva especie y estarás para siempre en los
libros de taxonomía. Si eres el primero en desarrollar una teoría o en abrir un nuevo campo de estudio pasarás
a la historia. Nadie recuerda al segundo: es el primero el que se lleva toda la gloria. Y así ha sido siempre, y
seguirá siendo mientras seamos humanos.
Otro factor importante es el desarrollo de la tecnología como herramienta política. Las técnicas son hijas de la
ciencia, pues consisten en aplicar el conocimiento científico para resolver problemas prácticos, y a lo largo de
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
122 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
la historia han influido decisivamente en el poder de las naciones. Ya desde antes y desde luego sin duda desde
el siglo XX está más que claro que la única forma de mantener una capacidad económica y militar importante
es poseer una capacidad tecnológica y científica importante, porque la economía y la tecnología ganan guerras.
Es por eso, y desgraciadamente no por amor al conocimiento, por lo que los estados subvencionan el desarrollo
científico, lo cual inmediatamente introduce un factor de distorsión: el que paga no quiere regalar lo que tanto
le ha costado conseguir. Hay un enfrentamiento intrínseco entre los objetivos de los estados y el alma misma
de la ciencia, ya que los gobiernos quieren el secreto que es esencialmente enemigo del pensamiento científico.
La coexistencia es complicada, y eso sin entrar a analizar los intereses comerciales de empresas o editoriales a
la hora de controlar el acceso público a la ciencia que generan o canalizan.
Un caso de rivalidad científica que provocó portadas e hizo tambalearse a las bolsas del mundo fue el que
enfrentó a los Institutos Nacionales de la Salud de Estados Unidos dirigidos por Francis Collins y a Celera
Genomics Corporation dirigida por J. Craig Venter, en su afán por completar el Proyecto Genoma Humano, lo
que se dio por conseguido en 2003.
La consecuencia de todo esto es que en el mundo de la ciencia real hay una competencia constante, intensa y
feroz; cualquier científico que trabaje en un área de interés puede contar con seguridad con que otros científicos
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
123 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
de otros países le están constantemente pisando los talones. La naturaleza no es de propiedad privada: los
mismos genes tienen las Drosophilas o los Caenorhabditis o las Arabidopsis en China que en EE UU que en
Europa, hay neutrones en cualquier departamento de física del planeta y los ceros de la función zeta de Riemann
son los mismos para cualquier matemático, por lo que nadie tiene en principio ventaja: sólo el esfuerzo y el
talento cuentan. Quien sea más inteligente, más eficiente y más rápido será el primero, y los demás tendrán que
conformarse con ir a la cola. En teoría es la más justa de las contiendas: la naturaleza es la misma para cualquiera
y sólo la capacidad determinará quién es el vencedor.
Pero en la práctica dónde estás importa, porque los recursos que se dedican a la investigación no son los mismos
ni se reparten de la misma manera, por lo que algunos científicos de según qué países están en desventaja. Todos
los científicos compiten a la vez que cooperan, pero algunos lo hacen con más dinero, más becarios, doctorandos
y postdocs, más respaldo político, mejores perspectivas laborales y profesionales; y otros con menos. Las
políticas estatales importan, porque por muy listo y talentoso que seas sin dinero, sin laboratorios, sin la
posibilidad de una carrera profesional estable y sin respaldo político y cultural no se puede competir contra
quien sí los tiene. Los países más ambiciosos y poderosos del mundo invierten en su ciencia porque saben que
es invertir en poder para sus estados y bienestar para sus ciudadanos. Los demás invierten menos y colocan a
sus científicos en posición de desventaja en una carrera en la que todos participamos, seamos conscientes o no.
Esta es, también, una decisión política fundamental relacionada con la ciencia. Porque por muy
cooperativamente humano que sea el conocimiento mientras seamos como somos la competencia existirá. Y en
algunos países la estamos perdiendo por ceguera.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de
periodismo digital.
https://culturacientifica.com/2017/06/22/la-ciencia-la-
competencia/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCultura
Cientfica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
124 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Estudian vulnerabilidad genética de huicholes
Por Claudia Karina Gómez Cancino
Tepic, Nayarit. 12 de enero de 2017 (Agencia Informativa Conacyt).- Eloy Alfonso Zepeda Carrillo, doctor en
ciencias en biología molecular en medicina, profesor e investigador de la Universidad Autónoma de Nayarit
(UAN), determinó que los individuos de la etnia wixárika (huichol) de Nayarit poseen una variante genética
que los hace vulnerables a tener altos niveles de colesterol; sin embargo, gracias a una dieta saludable y su estilo
de vida, no padecen las complicaciones asociadas a esta condición.
En entrevista con la Agencia Informativa Conacyt, el doctor, miembro nivel I del Sistema Nacional de
Investigadores (SNI), explicó que la investigación que realizó para obtener esos resultados la desarrolló entre
la población wixárika de la sierra de El Nayar y mestizos asentados en Tepic, comparando estas variantes
genéticas con otras etnias y razas del mundo.
Estudié a individuos huicholes y mestizos de Tepic, en particular un gen, cuyas variantes se habían estudiado
en personas de diversas partes del mundo, como la población caucásica, asiática y mexicoamericana radicada
en Estados Unidos —el gen de la apolipoproteína E, tiene tres variantes ApoE2, ApoE3, ApoE4—, y se sabe
que el alelo ApoE2 era más frecuente en población caucásica y que está asociado con niveles altos de
triglicéridos, mientras que la variante E4, de prevalencia en poblaciones africanas, se asocia con niveles
elevados de colesterol y, por ende, con eventos cardiovasculares, principalmente infartos; la variante E3,
conocida como normal, es asociada a niveles normales de colesterol y triglicéridos, de distribución universal,
no relacionada con algún grupo humano en particular”, explicó.
Zepeda Carrillo dijo que a partir de estos estudios se dio a conocer que la población mestiza de Tepic poseía la
variante E2, con una frecuencia de 1.6 por ciento y tenía relación con niveles altos de triglicéridos, lo mismo
con la variante E4, cuyo porcentaje no pasa el 12 por ciento y también tiene relación con niveles elevados de
colesterol.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
125 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Eloy Alfonso Zepeda Carrillo.“
“Lo relevante de esa investigación fue que en los huicholes (wixaritari), la variante E2 estuvo ausente, no la
portaban, pero la variante E4 tenía una frecuencia cercana a 30 por ciento, y es la frecuencia más elevada
reportada a nivel mundial junto con la etnia cayapas de Ecuador; mientras que poblaciones que portan esa
variante en Asia y Europa su frecuencia no pasaba de 10 por ciento”, señaló.
Con ello, se confirmó que la etnia wixárika de Nayarit tiene la frecuencia más elevada de la variante alélica
ApoE4, en el mundo; sin embargo, sus niveles de colesterol son normales, esto puede ser debido a la
alimentación que tienen estas personas en sus zonas de hábitat natural, la sierra Madre Occidental, diferente a
lo que se consume en Tepic, la capital, precisó el científico.
Los wixaritari: una etnia saludable
El doctor Eloy Zepeda dijo que la muestra particular del grupo indígena fue atendida en el hospital mixto de
Jesús María del municipio El Nayar, porque ahí acuden los wixaritari, que provienen de regiones colindantes
entre el estado de Jalisco, Durango y Zacatecas, entre otras, a ser atendidos por los médicos tradicionales.
“La investigación, que se realizó entre el año 1999 a 2002, consistió en tomar muestras sanguíneas a los
pacientes y les hacíamos estos análisis para ver este gen y sus valores de lípidos en la sangre, que eran niveles
envidiables, entonces nos dimos cuenta que la vida del huichol en la sierra es distinta a la de las ciudades; en
ellos, la alimentación en aquel entonces era a base de maíz, frijol, arroz, calabaza y eventualmente chile, además
de que el ejercicio físico era frecuente e intenso, caminaban muchas horas al día entre laderas y barrancos”,
afirmó.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
126 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El investigador aseguró entonces que este grupo indígena porta el gen de la apolipoproteína E con el alelo 4,
pero no desarrollan colesterol alto, condicionado por su tipo de alimentación y ejercicio físico,
presumiblemente. Sin embargo, cuando estos huicholes migran a nuestra zona urbana, cambian su alimentación
y disminuyen considerablemente su ejercicio, lo que provoca cambios metabólicos que se manifiestan con
colesterol, triglicéridos y glucosa elevados, lo cual desencadenará enfermedades como la diabetes mellitus tipo
2.
El doctor Eloy Zepeda fue distinguido con la medalla Nayarit a la investigación científica en 2003 y 2007, por
parte del Consejo Estatal de Ciencia y Tecnología de Nayarit (Cocyten), por sus estudios sobre genes y
enfermedades crónicas en población huichol y mestiza de Tepic. En la actualidad mantiene su línea de
investigación sobre las cuestiones genéticas de los mestizos de Tepic, la etnia huichol y cora respecto a sus
enfermedades crónico degenerativas, como diabetes mellitus, enfermedades cardiacas, cirrosis hepática, además
de estudiar la relación genética de las adicciones entre la población nayarita.
• Dr. Eloy Alfonso Zepeda Carrillo
Doctor en biología molecular en medicina (medicina genómica)
Profesor e investigador de la Universidad Autónoma de Nayarit
eloyz@nayar.uan.mx
alcarrillo52@hotmail.com
http://www.conacytprensa.mx/index.php/ciencia/salud/12260-estudian-vulnerabilidad-genetica-de-huicholes
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
127 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
La regla de Bergmann
Juan Ignacio Pérez21JUN17
Rangifer tarandus (Imagen: Alexandre Buisse; Wikipedia)
Karl Georg Lucas Christian Bergmann fue un anatomista y fisiólogo alemán que vivió en el siglo XIX. No fue
una de esas figuras de las ciencias naturales o de la fisiología que brillaron en ese siglo, como Charles Darwin
o Claude Bernard. Pero realizó una, al menos una, aportación significativa a las ciencias naturales, una por la
que es conocido, ya que enunció una regla o principio que lleva su nombre, la regla de Bergmann.
“Hacia el norte viven sobre todo especies grandes; las pequeñas viven más hacia el sur”. Esa frase, o una muy
parecida escribió Karl Bergmann en 1847. También escribió estas otras dos frases: “si el tamaño fuera la
única característica que diferenciase a dos especies, el factor que condicionaría su distribución geográfica
sería, precisamente, el tamaño” y “si el único rasgo que diferencia a dos especies del mismo género es el
tamaño, la de menor tamaño viviría en un clima más cálido”. De esa forma expresó Bergmann la regla que
posteriormente sería conocida por su nombre.
No está nada claro cuáles son los factores que están en la base de la regla, pero hasta ahora el que más se ha
utilizado para explicarla es el de la relación entre la regulación térmica y el tamaño de los animales. Se
pensaba que los animales de pequeño tamaño tienen mayores dificultades que los grandes para vivir en
lugares fríos porque tener una mayor superficie corporal en proporción a su masa. Por esa razón, los animales
pequeños experimentan una mayor pérdida de calor que los grandes, -siempre en relación con su tamaño -,
por lo que necesitan desarrollar una mayor actividad metabólica para poder mantener constante la temperatura
corporal. No olvidemos, por otra parte, que para desarrollar una mayor actividad metabólica, es preciso
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
128 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
utilizar más energía, razón por la que necesitarían obtener una mayor cantidad de recursos energéticos. Y de
acuerdo con esa lógica, se puede explicar la menor presencia relativa de animales pequeños en altas latitudes.
Pero al parecer las cosas no están tan claras. Por un lado hay notorias excepciones. El elefante, sin ir más
lejos, es una de ellas. Es el animal más grande sobre la superficie de la Tierra, y vive en zonas muy cálidas.
También es cierto que necesita unas orejas de tamaño enorme para poder disipar el calor corporal bajo esas
condiciones. Y por otro lado, y aunque hay algunas excepciones, la tendencia que define la regla de
Bergmann también se ha observado en animales ectotermos.
De acuerdo con un trabajo publicado en febrero de 2010, la razón de la existencia de esa “norma” puede muy
bien ser otra, independiente de las necesidades derivadas de la regulación térmica. De acuerdo con ese trabajo,
las plantas de altas latitudes son más ricas, tienen un mayor valor nutricional, y esa sería la razón por la que
los animales que viven en esas latitudes son de mayor tamaño. Para llegar a esa conclusión mantuvieron en el
laboratorio ejemplares de las mismas especies a los que, por grupos, alimentaron con plantas de una y otra
procedencia.
El lector se habrá percatado de que si me refiero a animales que comen plantas, habría que excluir a los
carnívoros de este análisis. Sin embargo, no es necesario excluirlos, porque según los autores del trabajo,
también a los animales carnívoros les acaba afectando la calidad del alimento de los herbívoros, ya que
consumen presas de mayor tamaño.
Los investigadores que han propuesto esta nueva teoría no descartan, sin embargo, que otros factores, como el
ya citado de las necesidades derivadas de la regulación térmica, puedan incidir también a la hora de perfilar la
variación latitudinal observada. Lo que sostienen es que no hay que descartar que pueda haber más factores
que el hasta ahora considerado.
Referencia: Chuan-Kai Ho, Steven C. Pennings, & Thomas H. Carefoot, “Is Diet Quality an Overlooked
Mechanism for Bergmann’s Rule?” The American Naturalist 175:2 (Feb 2010).
http://zoologik.naukas.com/2017/06/21/la-regla-de-
bergmann/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+naukas%2Fzoologik+
%28Zoo+Logik%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
129 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
ADN basura: negacionismo y malentendidos (con cebolla) Segunda parte
Por Cultura Cientifica
En la primera parte de este artículo vimos cómo se ha construido un poderoso mito alrededor del ADN basura,
un mito que lleva al negacionismo científico. Comenzábamos nuestro “épico” intento de desmontarlo
explicando que la selección natural es incapaz de mantener un genoma grande totalmente funcional, y que el
ADN basura no fue un parche de ignorantes sino una predicción realizada con las matemáticas de la teoría
evolutiva.
ADN basura no equivale a ADN no codificante
El segundo gran malentendido es la ubicua confusión entre ADN no codificante y ADN basura. Recordemos
que el ADN no codificante es aquél que no contiene información que será traducida por la célula a secuencias
de proteínas. Sabemos hoy en día que alrededor del 98% del genoma humano consiste en este tipo de ADN.
Cuando la típica noticia dice “se ha encontrado algo estupendo en una región del genoma que antes se creía
basura”, lo que quiere decir casi siempre es que se han encontrado algo estupendo en una región de ADN no
codificante.
Pero no son lo mismo. El ADN basura no tiene utilidad, no puede tenerla por definición. El ADN no codificante
puede tener diversas funciones, y esto se sabe desde hace casi medio siglo.
Se podría responder: bien, de acuerdo, pero no seamos cínicos; se trata de enfatizar que, durante mucho tiempo,
los genetistas creyeron que todo el ADN no codificante era basura, sin excepción. El problema es que esa
historia no es cierta. Semejante opinión nunca estuvo extendida en la comunidad científica. Los biólogos
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
130 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
descubrieron funciones reguladoras en el ADN no codificante antes (años 60), durante (años 70) y después (80,
90…) de la consolidación del ADN basura como hipótesis. La “creencia” en el ADN basura no parece haber
obstaculizado en ningún momento la investigación sobre la regulación genética. En todo momento la
compatibilidad fue total.
Veamos el caso de los intrones. Son secuencias no codificantes que están en medio de genes que sí son
codificantes. En nuestra especie, el típico gen con información para sintetizar una proteína está interrumpido
por varios intrones, a veces larguísimos. Después de que el ADN se transcribe a ARN, las secuencias
correspondientes a los intrones son cortadas y no se tienen en cuenta para fabricar la proteína.
Los intrones constituyen casi el 30% de nuestro genoma. Se descubrieron en 1977 y nadie sabía por qué existían
o si contenían algo interesante. El mito dice que fueron “inmediatamente y universalmente considerados basura
genómica” pero, como muestra T. Ryan Gregory, eso no fue así. Lo que abundaba era justo la opinión contraria,
el “aquí tiene que haber algo”. Los científicos especularon con la utilidad oculta de los intrones desde el
principio, buscaron secuencias reguladoras en su interior y realizaron interesantes experimentos para
detectarlas. Si realmente hubo algunos extremistas defendiendo la inutilidad absoluta de todo el ADN de los
intrones, no parece que influyeran demasiado en la opinión y en las investigaciones de sus colegas.
Hoy sabemos que, como sospechaban los genetistas de hace décadas, los intrones contienen mucha chatarra y
algunas secuencias funcionales. El “gen de los ojos azules” es una variante de una secuencia reguladora
que pertenece a un intrón. La variante más común está asociada con los ojos marrones y está conservada por la
selección natural. La que da ojos azules cuando está en doble dosis ha sido, además, promocionada por la
selección positiva durante los últimos milenios en algunas poblaciones humanas. Es solo un ejemplo de las
muchas secuencias interesantes que se han encontrado formando parte del ADN no codificante… al lado de
montones de ADN basura.
¿Qué es función biológica?
El tercer gran malentendido surge del Proyecto ENCODE y su concepto de función. ENCODE es,
supuestamente, una enciclopedia de elementos funcionales del genoma humano pero, aquí viene el truco, ha
definido “elemento funcional” a su manera..
La función biológica no es un asunto sencillo, filosóficamente hablando. Sin embargo, se suele entender que
algo es funcional si tiene un efecto seleccionado. Simplificando, si una secuencia de ADN tiene un efecto que
esté siendo conservado o promocionado por la selección natural, entonces es funcional. ¿Por qué usar éste y no
otro criterio? Primero, porque la teoría evolutiva es la gran unificadora en la ciencia de los seres vivos (nada
tiene sentido en biología si no esa la luz de la evolución) y segundo, porque otros conceptos de función no
generan fácilmente hipótesis testables y por tanto científicas.
ENCODE ignora esta noción evolutiva y se saca de la manga otra completamente distinta. Para ENCODE, una
secuencia de ADN es funcional si tiene “actividad bioquímica específica”. Por ejemplo, si una secuencia de
ADN es transcrita, generándose una molécula de ARN, contará como funcional aunque luego ese ARN esté
presente en cantidades minúsculas y se degrade sin realizar ninguna tarea dentro de la célula. Otro ejemplo: si
una secuencia de ADN es reconocidapor ciertas proteínas, que se adhieren a ella, también contará como
funcional para ENCODE; incluso aunque tal interacción no provoque ningún tipo de efecto relevante en la
célula.
El problema es que es esperable que esa “actividad bioquímica específica” también la presente el ADN basura.
Por el puro azar, por las huellas o restos de su historia evolutiva, e incluso por el ruido y el caos bioquímico del
interior de las células, un ADN completamente inútil puede adherirse de forma inútil a diversas moléculas,
puede ser transcrito a ARN inútil o puede ser incluso, a veces, traducido a proteínas inútiles.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
131 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Toda esta actividad absurda, este derroche, este caos, no es lo que muchos tienen en mente cuando se imaginan
el funcionamiento de la célula. Tanto para quien cree en una creación inteligente como para el que se imagina
una selección natural todopoderosa, este escenario chapucero resulta chocante e incluso ofensivo. Pero la vida
es así, y quizá no pueda ser de otra manera.
Si fabricamos secuencias totalmente aleatorias de ADN sintético también obtendremos esa “actividad
bioquímica específica” que la propaganda del ENCODE ha vendido como algo inesperado y apasionante.
Imaginad la siguiente inocentada: alguien crea un genoma completamente aleatorio como el que propone Sean
R. Eddy y consigue colárselo al Proyecto ENCODE como si fuera un genoma real para que lo estudie. ¿Cómo
serían los resultados? ¿Descubrirían un gran porcentaje de ADN con “funciones esenciales” para un organismo
inexistente? ¿quizá otro gigantesco “panel de control”? La selección natural no fue el único concepto básico
que desatendieron; también se les escapó el azar.
La carga de la prueba
Ya hemos visto que el ADN basura no es aquél que no sabemos para qué sirve, sino aquél que realmente no
sirve para nada. Si algún buen lector sigue encontrando “arrogante” esta proposición, puede que estemos en
presencia de un cuarto malentendido, que tiene que ver con la carga de la prueba.
Cierta tendencia a idealizar la naturaleza a veces nos conduce a creer que los seres vivos están optimizados a la
perfección y que cualquier pequeño detalle biológico ha de ser necesario y esencial. Es fácil entonces ver el
ADN basura como una bravuconada, una cuñadez, una afirmación extraordinaria que debe rechazarse, o al
menos ser revisada con la misma desconfianza con la que examinaríamos una máquina de movimiento perpetuo
o una demostración de percepción extrasensorial.
En realidad, la visión de los organismos como máquinas perfectas donde cada elemento es imprescindible no
puede apoyarse en la teoría evolutiva y carece de base científica. Aunque resulte poco intuitivo, la ausencia de
función no solo es a veces perfectamente razonable, sino que en muchos casos debe ser la hipótesis que se
plantée por defecto.
Imaginemos que estudiamos una secuencia concreta, una pequeña porción del genoma específica. ¿Cómo
averiguamos si es basura o no? Es imposible, podría argumentarse. Que no seamos capaces de encontrarle una
función no significa que no la tenga. Quizá su utilidad se nos escape siempre, por mucho que investiguemos.
En cierto experimento se extirpó una gran porción de ADN no codificante en el genoma de unos ratones. Los
animales así “mutilados” se desarrollaron bien y aparentemente no presentaban diferencias con el resto. Todo
apuntaba a que la porción eliminada era ADN basura. Pero ¿y si los ratones manipulados tenían una desventaja
demasiado sutil? ¿Y si solo se manifestaba en el medio natural, fuera de las condiciones del laboratorio? Esos
ratones, como reconocieron los propios autores, quizá tuvieran alguna anomalía no revisada. ¿Estamos ante un
problema irresoluble?
No, salvo que seamos poco realistas y exijamos seguridad absoluta. Si una porción de ADN no contiene nada
similar a genes ni a secuencias reguladoras conocidas, y además puedes eliminarla sin causar defectos evidentes,
entonces probablementees ADN basura. No habrá certeza total, pero tampoco una posición inamovible o
dogmática. Lo que ocurre es que la carga de la prueba la tiene quien afirme, contra los indicios, que existe una
función oculta en esa secuencia. Es quien debe hacer el esfuerzo de aportar evidencias.
Recordemos, además, que la selección natural debe estar actuando sobre una secuencia para que pueda hablarse
propiamente de función biológica. Gracias a los avances en genómica y bioinformática, los científicos comparan
masivamente genomas de muchas poblaciones y especies (¡extintas, en ocasiones!). Cada vez resulta más fácil
estudiar la evolución de esa secuencia; saber su está o no conservada, si muestra señales de selección o si, por
el contrario lleva millones de años cambiando a la deriva, de forma neutra.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
132 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Si algo grazna como un pato, nada como un pato, camina como un pato… no tachemos de arrogante a quien lo
llama “pato”. Cuando una secuencia parece basura y evoluciona justo como corresponde al ADN basura,
entonces muy probablemente es ADN basura. Ésta es la hipótesis por defecto. Quien proponga lo contrario
tiene dos trabajos: probar la existencia de una función y explicar la razón de tan extraño y engañoso
comportamiento evolutivo.
El test de la cebolla
El negacionismo del ADN basura viene en distintos colores y grados. La postura de algunos es confusa:
claramente están incómodos pero no dejan claro exactamente por qué; quieren redefinir el concepto de alguna
forma, cambiarlo de nombre o que se deje de hablar del asunto. El negacionista típico cree que el genoma es
funcional en un porcentaje cercano al 100%; admite que podría haber una pizca de ADN inútil pero nunca el
enorme porcentaje que suele estimarse. Esto implica rechazar (pocas veces desde el conocimiento) el desarrollo
teórico que llevó a descubrir el ADN basura. Algunos sostienen que el “mal llamado” ADN basura posee, en
realidad, alguna función general, universal.
El test de la cebolla es un famoso desafío para ellos planteado por T. Ryan Gregory. Si el ADN basura tiene en
realidad una función universal, ¿por qué la cebolla (Allium cepa) necesita, para realizar esa función, cinco veces
más ADN que un ser humano? Y, a su vez, ¿por qué unas especies cercanas de Allium, el género de la cebolla,
necesitan casi 5 veces más ADN que otras?
Gregory escogió la cebolla pero es solo un ejemplo posible entre miles. Los genomas de distintos seres vivos
tienen tamaños extraordinariamente diferentes que no guardan proporción con la complejidad del organismo.
Una hormiga, insecto social, puede tener el doble de genoma que una abeja, otro insecto social. Las especies de
salamandras tienen entre 4 y 35 veces más ADN que nosotros. Cierta ameba, no mucho más compleja que uno
de nuestros miles de millones de glóbulos blancos, supera nuestro genoma en 200 veces. Un pez pulmonado
tiene un genoma casi 40 veces más grande que el Homo sapiens y más de 300 veces mayor que el de un pez
globo. Una planta con flor, Paris japonica, tiene un genoma más de ¡2400 veces! mayor que otra planta con
flor, Genlisea aurea.
Las razones de estas descomunales y aparentemente caprichosas diferencias no se conocen aún completamente.
Sin embargo, gran parte y probablemente el meollo del asunto se explica acudiendo a fenómenos biológicos
bien conocidos:
Las mutaciones espontáneas duplican segmentos de ADN con una frecuencia muy alta. En las poliploidías, que
muchas veces han surgido por hibridación entre especies, se multiplican los genomas (y por tanto se multiplica
la gran fracción de ADN basura). Los genes así repetidos son a menudo prescindibles; dejan de ser conservados
por la selección darwiniana y evolucionan hacia la degradación. Ciertas infecciones víricas y la proliferación
de elementos móviles pueden incrementar el ADN drásticamente, sobre todo en periodos en los que la
población se ha reducido y la selección natural es poco eficaz. Millones de estas secuencias de ADN parasitario
infestan los genomas. Con el tiempo, la mayoría acaban siendo inutilizadas por mutaciones y convirtiéndose en
reliquias que evolucionan a la deriva.
Las deleciones por otra parte, son mutaciones que eliminan secuencias de ADN. Ciertas especies parecen tener
un sesgo interno en favor de las deleciones y esto, junto con la selección natural, ayuda a explicar por qué
algunos organismos han miniaturizado el genoma durante su evolución, conservando el número habitual de
genes típicos pero eliminando chatarra a mansalva.
Efectivamente, se trata de fenómenos implicados en la producción y eliminación de ADN basura. Si sostenemos
que el 100% del genoma es funcional, la tremenda diversidad en el tamaño de los genomas que existe en la
Tierra se convierte en un misterio científico sobrecogedor.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
133 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El test de la cebolla nos recuerda que hay una formidable variación en el mundo vivo y que no tenemos el menor
indicio de que el genoma humano sea especial o radicalmente distinto al resto. Cualquier especulación salvaje
sobre “paneles de control” o “millones de funciones” debe poder aplicarse también, y con todas las
consecuencias, a la humilde cebolla, al murciélago, a la ameba o a la plantita carnívora. De lo contrario,
estaríamos cayendo en un quinto error: el antropocentrismo.
¿Qué hay en el genoma?
Veamos, para terminar, algunos datos sobre la composición del genoma humano. Un 9% de nuestro genoma
consiste en virus defectivos (estropeados, “muertos”). Alguna que otra vez, la evolución ha convertido ADN de
origen vírico en una secuencia funcional, útil para el organismo, pero se trata de acontecimientos muy raros.
Ese nueve por ciento procede de antiguas infecciones, son como restos en descomposición y probablemente
siguen ahí porque no resultan perjudiciales.
Un impresionante 44% del genoma está hecho de transposones defectivos. Los transposones son elementos
genéticos móviles descubiertos por la premio Nobel Barbara McClintock. “Saltan” en los cromosomas e
insertan copias de sí mismas. Se trata casi siempre de secuencias parásitas. De nuevo, en algunas ocasiones,
mutaciones surgidas en un transposón o provocadas por éste han dado lugar a funciones útiles. Ojo: solo un
0,05% de nuestros transposones pueden funcionar como tales. El resto ya no puede saltar; están “muertos” y la
evolución molecular degenera sus secuencias progresivamente. Hay que decirlo otra vez: ¡son el 44% de nuestro
genoma!
Los intrones (casi el 30% del genoma, como ya vimos) consisten principalmente en ADN que no está
evolutivamente conservado, que carece en su mayor parte de funciones conocidas y que está plagado de
transposones.
Los pseudogenes constituyen un modesto 1% del genoma del Homo sapiens (pero puede que una proporción
mucho mayor en una bacteria como la Rickettsia). Una vez más se trata de secuencias cadavéricas. Antaño
fueron genes codificantes clásicos, pero la selección natural los abandonó y quedaron inutilizados por las
mutaciones. Desde entonces, su secuencia se desbarata acumulando cambios al azar. Un ejemplo es el gen GLO,
necesario para sintetizar vitamina C, que se fastidió en el linaje de los antropoides. GLO es ahora un pseudogén
sin función alguna y, como consecuencia, podemos padecer escorbuto.
Se conocen relativamente bien muchos otros elementos y tipos de secuencias en nuestro genoma. Están los
genes que codifican proteínas y RNAs, las secuencias reguladoras, los telómeros, el ADN satélite… L. A.
Moran tiene este post clásico sobre el asunto. En él encontraréis estimaciones conservadoras acerca de las
cantidades de ADN basura y su localización.
La creencia en un genoma inexplorado y prácticamente desconocido forma parte necesaria del mito del “tesoro
en el vertedero”. Este es el sexto error: el adanismo. Creer que partimos de cero, ignorar el progreso previo. Sin
duda hay mucho por averiguar y las sorpresas están garantizadas, pero no debemos desdeñar la investigación
acumulada. El ADN basura encaja confortablemente con todo ese conocimiento. De hecho, está bien fundido
con éste; forma parte del armazón. Quien pretenda extirparlo lo tiene muy crudo, científicamente hablando. Y,
sin embargo, ¡triste paradoja! su mala fama y el mito del tesoro en el vertedero durarán aún muchos años.
Este post ha sido realizado por @Paleofreak y es una colaboración de Naukascon la Cátedra de Cultura
Científica de la UPV/EHU.
https://culturacientifica.com/2017/06/23/adn-basura-negacionismo-malentendidos-cebolla-segunda-
parte/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaCientfi
ca+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
134 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Stanislaw Lem
Viajes estelares y un archivo extraterrestre
Se publica por primera vez en castellano Astronautas, la ópera prima de ciencia ficción del maestro polaco,
clásico absoluto del género y virtuoso incomparable.
Stanislaw Lem en 1962. Autor de "Solaris", traducido a más de 40 idiomas.
Si uno menciona al polaco Stanislaw Lem, en seguida aparece la descripción: “escritor de ciencia ficción”. Y
un segundo después: Solaris (1961). Hoy que la obra literaria de Lem está del todo completa desde hace una
década (falleció en 2006) ese libro sigue siendo un clásico absoluto del siglo XX, a la altura de, por
ejemplo, El extranjero de Camus, o El cazador oculto de Salinger. Con la virtud adicional de ser una obra de
ciencia ficción y fantasía, no solo de extraordinaria imaginación sino también de sugerencia de ideas
complejas y esquivas. Empezando por el riesgo de que su principal ser viviente sea un planeta-océano.
También la ayudó a llegar rápido a ese puesto la gran adaptación al cine de Andrei Tarkovski que, como suele
ocurrir, la hizo con pocas ganas, pero logró otro clásico, esta vez del cine.
Los lectores de Lem han tenido suerte en su difusión. Sellos como Bruguera, Alianza y Minotauro (que
difundió Solaris y El invencible) dieron a conocer buena parte de la obra. En especial Bruguera no se quedó
en el género de la ciencia ficción y tradujo La fiebre del heno, una obra maestra de la novela policial bizarra,
un poco en la liga de El maestro del juicio final de Leo Perutz. Una serie de muertes de astronautas en Italia
termina por apuntar a un culpable curioso: el exceso de planos de complejidad de la vida masiva. También
tradujo su otra novela policial, La investigación (casi un borrador de La fiebre del heno) y sus libros que
inventan libros, al estilo de Borges, en los años 70 y 80: Vacío perfecto y Un valor imaginario, completados
en polaco con Provocación y Golem XIV, cuarteto reunido en un tomo: Biblioteca del siglo XXI.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
135 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En su ciencia ficción hay dos sabores, sólo aparentemente diversos: el de los libros “serios”,
como Fiasco, Edén, Memorias encontradas en una bañera (densamente kafkiana), o El invencible. Luego
están una novela satírica como El congreso de futurología y las decenas de cuentos, entre filosóficos y
surreales, reunidos en tomos sucesivos de “historias del piloto Pyrx” o “retornos” o “diarios” de las estrellas.
En ambos casos, se nota que Lem, que tuvo todo tipo de experiencias en una Polonia recorrida por las
costumbres y excesos del comunismo y la guerra (soportar cinco años de censura de su primera novela
“realista” por no ajustarse a los patrones del Partido, por ejemplo), está fascinado por dos temas. Ellos son la
complejidad a) de la raza humana, y b) del mundo físico y comunicacional, en tanto pensador interesado en la
ciencia.
En el primer caso, escribió en un texto autobiográfico: “Me irrita el mal y la estupidez. El mal nace de la
estupidez y la estupidez se alimenta del mal. La televisión está llena de violencia y hace del mal una cosa
cotidiana. Gracias a la tecnología se refuerza el anonimato del crimen. Internet facilita hacer mal al prójimo”.
Al mismo tiempo reconoce que “la historia de la humanidad no es más que un tic en el reloj geológico”. Tal
vez por eso se ha dedicado en más ocasiones a describir, en una mezcla de pesimismo y fascinación, la
dificultad repetida de comunicarse con razas extraterrestres, o de penetrar en el sistema de planetas extraños.
El último sello en interesarse con paciencia y cuidado en su obra es Impedimenta. Decidido a hacer las cosas
bien, ha partido de los originales polacos para elaborar versiones directas. Cuatro títulos repiten libros ya
difundidos: Solaris, Vacío perfecto, Magnitud imaginaria y La investigación. En otros casos dio a conocer
inéditos, empezando por El hospital de la transfiguración, la primera novela demorada por la censura, seguida
luego por Golem XIV y los relatos de Máscara.
Ahora se agrega su “primera novela de ciencia ficción”, Astronautas, de 1951. El libro tiene una importancia
esencial, porque su éxito inesperado fue el que lo decidió a cultivar con altura un género que lo llevó incluso a
formar parte de la Asociación de Escritores Norteamericanos de Ciencia Ficción, aunque fue expulsado
cuando se le ocurrió criticar el bajo nivel del género en Estados Unidos.
La chispa fue un paseo y una conversación con un “señor gordo” del que no sabía que era jefe de una
editorial. Comentaron la falta de novelas polacas del género. Allí el compañero de charla le encargó que
escribiera una. “Al cabo de unas semanas”, comenta en un texto autobiográfico, “me llega el contrato, sólo
falta poner el título. Puse Astronautas, aunque no sabía aún de qué iba a ser el libro”.
El resultado fue insólito. La novela no sólo funcionó muy bien en Polonia, sino también (y acaso sobre todo)
en Alemania (donde se llamó Der Planet des Todes), país al que Lem viajaba a cambiar los marcos orientales
por marcos occidentales en Berlín Occidental, con temor de que los policías lo detectaran por tener escrito en
la frente: “¡El de la estrella roja!”. Una vez entregada, una escritora y asesora de la editorial la hizo pedazos,
comentando entre los rasgos negativos la falta de conciencia de clase. El editor, irónico, se burló de ella
diciéndole que si en el cosmos existiera la lucha de clases, tendría que existir el Partido Comunista de Venus,
que nunca habría permitido que se invadiera la Tierra.
Un prólogo de Jerzy Jarzebski exagera los defectos del libro. Lo trata de ilegible y excesivamente didáctico.
Es cierto que sus primeros capítulos constituyen una especie de curso sobre la actividad científica. Pero el
arranque, basado en el meteorito enorme que cayó en Siberia en 1908, considerado en realidad una nave que
estalló allí, es poderoso en su tono “informativo”. Pero incluso en esa zona preliminar, el estilo de Lem
adolece sobre todo de la falta de tensión relativa que impone la idea de un futuro donde el último país
capitalista ha desaparecido hace tiempo. Por lo demás, de manera un tanto arcaica, pero real, exhibe la presión
de seriedad e intensidad que lo relacionarían más tarde con este tipo de temas.
El libro es mucho más absorbente en la segunda mitad, donde la nave terrestre parte a Venus, integrada por
una serie de científicos de distinto tipo y nacionalidad, más un piloto encargado de ser el narrador, más simple
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
136 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
y activo. El entretejido entre las distintas personalidades es sostenido sobre todo por el “sentido de lo
maravilloso” que caracterizaba a buena parte del género de la época.
Las páginas sobre el paisaje de Venus, lentamente recorrido y desentrañado, van acompañados por un manejo
también minucioso de la intriga acerca de los “seres” agresivos que habían tratado de conquistar la Tierra.
Lejos de la falta de imaginación que suele caracterizar a la producción estadounidense de alienígenas
(generalmente insectos gigantes), Lem juguetea unas páginas con la posibilidad de que sean pequeñas
hormigas metálicas, aunque cuando se llega al final del recorrido, la forma de estos seguirá estando oculta, en
la línea de su tenaz creencia en la impenetrabilidad de algunos misterios del cosmos.
Una virtud esencial para poder sacarle el jugo a esta novela con más de sesenta años de edad, tal vez sea
conservar cierto gusto por las viejas novelas del género, en cualquier idioma. Dotado de ese plus de paciencia,
el lector puede ir viendo poco a poco cómo también está leyendo un libro en el que el autor expone rasgos que
después desarrollaría. O cómo, en los paisajes, hace recordar por momentos al un poco posterior J. G. Ballard,
por el esfuerzo para conjurar en sus primeras novelas panoramas realmente extraños.
Astronautas, Stanislaw Lem. Impedimenta, 408 págs.
https://www.revistaenie.clarin.com/revista-n/literatura/viajes-estelares-archivo-
extraterrestre_0_rJAREWv7W.html
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
137 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Avances en el tratamiento de las inmunodeficiencias primarias
Por Carmen Báez
Ciudad de México. 12 de enero de 2017 (Agencia Informativa Conacyt).- Aunque se trata de un grupo de 300
patologías poco conocidas por la población, las inmunodeficiencias primarias —enfermedades que se
manifiestan por alguna alteración en los mecanismos implicados en el sistema inmune, lo que ocasiona
constantes procesos infecciosos o alergias a quienes las padecen—, en su conjunto son más frecuentes en
pediatría que las leucemias y linfomas, esto de acuerdo con Francisco Javier Espinosa Rosales, científico de la
Unidad de Investigación en Inmunodeficiencias del Instituto Nacional de Pediatría (INP).
En 1952, el médico estadounidense Ogden Bruton Carr describió la primera inmunodeficiencia primaria, la
agammaglobulinemia ligada al cromosoma X, causante de infecciones recurrentes a partir de los seis meses de
edad. Años más tarde se identificó el gen mutado de BTK como el responsable de esta. Este suceso, señala el
artículo "Conceptos básicos de las inmunodeficiencias primarias", publicado en la Revista Alergia México,
inspiró más tarde a un grupo de investigadores que estudiaba pacientes con deficiencias de anticuerpos.
En los últimos 10 años, a nivel internacional, ha habido una revolución en el conocimiento de las
inmunodeficiencias primarias y es que se han identificado nuevos genes que causan estas enfermedades, así
había indicado Sara Espinosa Padilla, investigadora del Instituto Nacional de Pediatría a principios de 2016,
durante la presentación de una plataforma para el diagnóstico de estas.
En la actualidad, los avances científicos, en particular aquellos relacionados con la biología molecular, han
posibilitado la identificación de 300 genes relacionados con alguna inmunodeficiencia primaria.
Francisco Javier Espinosa Rosales, maestro en ciencias con especialidad en inmunología, señala que en México
cada año nacen aproximadamente 350 niños con las formas más graves de estas inmunodeficiencias, las cuales
ponen en riesgo de muerte si el médico no las detecta a tiempo.
“Todas ellas tienen en común un defecto en alguno de los genes que regulan o controlan las respuestas
inmunológicas. El sistema inmune es muy importante para defendernos contra las infecciones por bacterias,
virus u hongos. Estos niños tienen una predisposición exagerada a sufrir infecciones recurrentes o que son más
graves de lo habitual, que se complican inesperadamente, o bien afectan el crecimiento y desarrollo y ponen en
peligro la vida de los niños”, explica.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
138 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Desde los años setenta, investigadores del INP comenzaron a identificar estas enfermedades, hoy es considerada
la institución líder en el diagnóstico de las inmunodeficiencias primarias.
En 2008, por iniciativa del doctor
Francisco Espinosa se creó la Unidad de Investigación en Inmunodeficiencias y, en colaboración con la
Fundación Mexicana para Niñas y Niños con Inmunodeficiencias (Fumeni), logró en 2003 incluir la
inmunoglobulina humana —para el tratamiento de pacientes con deficiencias de anticuerpos— en el catálogo
básico de medicamentos del Consejo de Salubridad General.
“Gracias a esto se logró que las instituciones pudieran comprar inmunoglobulina, porque no estaba en el cuadro
básico y las instituciones no la podían adquirir. De los 350 niños que nacen cada año con las formas más graves
de las inmunodeficiencias primarias, aproximadamente la mitad de ellos no produce suficientes anticuerpos o
son de mala calidad, si a estos niños se les reemplaza la inmunoglobulina, pueden tener una vida normal”,
explica Francisco Espinosa.
El especialista, quien llegó como residente al área de investigación en inmunología del INP hace 25 años, señala
que uno de los esfuerzos más importantes realizados por la institución es la divulgación y generación de nuevos
conocimientos sobre estas enfermedades.
“En el año 2000, las inmunodeficiencias solo se atendían en este instituto. Hoy día hemos creado una red de
trabajo gracias a alumnos que hemos formado y se han establecido en otras partes del país. La misión es
garantizar la supervivencia de estos niños mediante una mejor divulgación que permita a los médicos de primer
contacto hacer el diagnóstico, y lograr que el niño tenga acceso más temprano e integral al tratamiento de
primera calidad. Hemos logrado entrenar a casi cuatro mil médicos generales y pediatras a través de un taller
donde les enseñamos cómo abordar este problema, diferenciar cuando un niño no tiene algo serio del que sí lo
tiene”, destaca.
Colaboración nacional e internacional
Una parte importante en el estudio de las inmunodeficiencias primarias ha sido la colaboración nacional e
internacional con otros grupos de investigación que trabajan sobre el mismo eje.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
139 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Es así que en 1993, un grupo de inmunólogos de Argentina, Brasil, Chile y Colombia decidió formar el Grupo
Latinoamericano de Inmunodeficiencias Primarias (LAGID). México se sumó a esta iniciativa y hoy, junto con
los 20 países miembros, integra la Sociedad Latinoamericana de Inmunodeficiencias (LASID).
Francisco Espinosa, actual vicepresidente de la LASID comenta que esta colaboración es de gran importancia
dado que los países latinoamericanos comparten ciertas características que no tienen otras naciones. “Por
ejemplo, los gérmenes de nuestros países son más de tipo tropical y muy diferentes de los que hay en Europa o
Estados Unidos. Esta colaboración nos permitirá conocer las diferencias de los niños de Latinoamérica con los
del resto del mundo. Nuestro eje central ha sido la colaboración”, comenta.
El objetivo de la iniciativa internacional es crear un registro de estas enfermedades en cada país y establecer
programas de colaboración para mejorar su difusión, al ser todavía consideradas patologías poco frecuentes,
por consiguiente, son muchas veces desconocidas por la población e incluso por los médicos de primer nivel.
“El problema es que a los médicos nos entrenan muy bien para saber qué bicho causa tal infección, pero rara
vez nos entrenan para ver por qué un niño es hospitalizado una y otra vez por infecciones y deja de crecer. El
médico pensaba que las inmunodeficiencias eran tan raras que no valía la pena preocuparse por ellas ya que no
se podían diagnosticar y si se diagnosticaban, para qué, si no se podían tratar”, explica Francisco Espinosa.
Hoy, a raíz de las colaboraciones internaciones y la formación de especialistas, la identificación e incidencia ha
ido en ascenso en México, así lo indica el doctor Francisco Espinosa. “Esto ha permitido que el número de
pacientes diagnosticados crezca notablemente en los últimos años”, comenta.
A este logro se suma la participación del Grupo Mexicano de Inmunodeficiencias Primarias (Mexgid)
conformado en 2007 por investigadores, pediatras especialistas en inmunología clínica e infectología, adscritos
a diferentes instituciones como son la Unidad de Alta Especialidad del Instituto Mexicano del Seguro Social de
Monterrey, el Centro Médico de Occidente de Guadalajara, el Hospital Pediátrico de Alta Especialidad de
Tuxtla Gutiérrez, el Hospital del Niño Poblano, el Hospital del Niño y Adolescente Morelense, por mencionar
algunos.
Terapia génica
En 1980, expertos en Estados Unidos introdujeron un gen que codifica para la enzima adenosina desaminasa
en niños que presentaban una inmunodeficiencia combinada grave, y en 1995 investigadores en Italia llevaron
a cabo el mismo tipo de ensayo, así, en 1995 los dos grupos de investigación reportaron el experimento clínico
y con ello la eficacia de este procedimiento en pacientes con esta condición: la terapia génica, así lo describe
el artículo“Aplicaciones de la terapia génica”.
La terapia génica, define el texto anteriormente citado, “utiliza material genético en el tratamiento de
enfermedades, intenta modular la función celular, pudiendo corregir la deficiencia causada por la pérdida o
alteración de un gen al modificar la expresión de proteínas”. En la actualidad, la terapia génica se presenta como
una alternativa viable en el tratamiento de algunas inmunodeficiencias primarias, este tratamiento se practica
únicamente en Italia, Alemania, Inglaterra, Francia y Estados Unidos.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
140 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Francisco Espinosa Rosales.Hasta ahora, en países donde aún
no se practica la terapia génica el tratamiento para enfermedades como la inmunodeficiencia combinada grave
ligada al cromosoma X —mejor conocida como síndrome del niño burbuja— es el trasplante de células
progenitoras.
Pronto, señala el investigador del INP, Francisco Espinosa, esta nueva tecnología beneficiará a niños mexicanos
con algunas de las cuatro enfermedades más frecuentes que requieren de un trasplante de células progenitoras:
inmunodeficiencia combinada grave ligada al cromosoma X, inmunodeficiencia combinada grave por
deficiencia de adenosina desaminasa, enfermedad granulomatosa crónica y el síndrome de Wiskott-Aldrich.
“Aunque tenemos la capacidad para realizar el trasplante óptimo de células progenitoras, hay un grupo de niños
en los que no encontramos donadores porque la genética de los mexicanos es diferente de muchas otras
poblaciones, en este sentido, existe una nueva forma de tratamiento: la terapia génica. Básicamente consiste en
sacar las células madre del paciente enfermo, las infectas con un virus que tiene en su genoma el gen corregido.
Las células madre, al ser infectadas, comienzan a producir la proteína de una manera adecuada y se le regresan
al niño, como un autotrasplante”, explica.
Hasta ahora, señala el doctor Francisco Espinosa, ningún país en Latinoamérica pone en práctica esta terapia,
por lo que México podría ser pionero y líder en la región en el desarrollo de esta. Y es que desde 2010, el INP
trabaja en la creación de una unidad en terapia génica.
“Con la terapia génica los tiempos de espera de trasplante se reducirán y también abre la posibilidad de tratar
otras patologías como la hemofilia y muchas enfermedades genéticas causadas por un defecto monogénico, es
decir, cuando está afectado un solo gen. En 2013, comenzamos a trabajar con países como Inglaterra e Italia.
Se espera que en 2018 esté lista la infraestructura y en 2020 tener nuestro primer tratado”, dice.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
141 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Plataforma de diagnóstico genómico
Con el desarrollo de las tecnologías de secuenciación masiva es posible obtener secuencias de ADN (ácido
desoxirribonucleico) de forma rápida y con un menor costo; en esta línea, el INP, en colaboración con el
Instituto Nacional de Medicina Genómica, desarrolló una plataforma de diagnóstico genómico para niños con
inmunodeficiencias primarias.
“Las nuevas plataformas de secuenciación de alto rendimiento hacen mucho más fácil el diagnóstico. Llevamos
como cuatro casos diagnosticados a través de esta plataforma. Esta tecnología de nueva secuenciación nos ha
permitido acceder a cosas por las que antes dependíamos de otros países”, dice.
La tecnología, que se presentó en los primeros meses de 2016, no solo permitirá identificar genes causantes de
alguna de estas enfermedades del sistema inmunitario, además se podrá realizar asesoría genética a las familias.
“La manera de saberlo es tener localizado el gen causante y observar si los dos papás son portadores e
informarles el riesgo que tiene —en caso de buscar otro descendiente— de ser afectado por la misma
enfermedad de su hijo… Será una revolución para la medicina y para este tipo de enfermedades”, afirma.
http://www.conacytprensa.mx/index.php/ciencia/salud/12124-avances-en-el-tratamiento-de-las-
inmunodeficiencias-primarias
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
142 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Más allá del modelo estándar con Quim Matías
Francisco R. Villatoro
He participado en el episodio 116 del podcast Coffee Break: Señal y Ruido [iVoox, iTunes], titulado
“Especial Nueva Física, más allá del Modelo Estándar; Tertulia con Joaquim Matías”, 22 Jun 2017. “La
tertulia semanal ha repasado las últimas noticias de la actualidad científica.”
Se inicia el programa hablando sobre el modelo estándar. Permíteme un resumen libre de lo que se comenta
escrito entre Alberto Aparici y un servidor (no detallaré qué parte es de cada uno, tampoco lo sé, pues se ha
escrito a dos manos). El Modelo Estándar es el marco que permite describir todas las interacciones (fuerzas)
fundamentales, salvo la gravitación. El modelo estándar es una teoría cuántica de campos para cuatro de las
cinco interacciones fundamentales.
Se conocen 118 campos cuánticos, que aparecen como diferentes partículas: quarks, leptones cargados,
neutrinos, bosones vectoriales y un bosón escalar). Por ejemplo, el campo electrónico tiene 4 componentes,
dos corresponden al electrón (izquierdo y derecho) y dos al positrón (izquierdo y derecho). El campo quark
arriba tiene 12 componentes, tres parejas corresponden al quark arriba (izquierdo y derecho) con sus tres
hipercargas de color (rojo, verde y azul) y las otras 6 al antiquark arriba con sus tres antihipercargas de color
(antirojo, antiverde y antiazul). Los neutrinos tienen dos componentes (no sabemos si una corresponde al
neutrino y la otra al antineutrino, como serían si fuera un fermión de Dirac, o si corresponden a las
componentes izquierda y derecha de un fermión de Majorana. El fotón tiene dos componentes (polarización)
y los 8 gluones también dos componentes. Los bosones W+, W− y Z0 tienen tres componentes cada uno. El
Higgs tiene una sola componente. Sumando quarks, leptones cargados y neutrinos tenemos 4 × 6 × 3 + 4 × 3
+ 2 × 3 = 90 componentes fermiónicos, los bosones vectoriales y el bosón escalar tenemos 2 + 8 × 2 + 3 × 3 +
1 = 28 componentes bosónicos, sumando suman 118 componentes totales; podría haber más si los neutrinos
son de Dirac, si existe el axión, etc.].
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
143 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
En la foto, de arriba a abajo y de izquierda a derecha: Alberto Aparici @cienciabrujula (por
videoconferencia), Francis Villatoro @emulenews (por videoconferencia), Nacho Trujillo, Joaquim Matías
(RG, GS) y Héctor Socas @hsocasnavarro (@pcoffeebreak). Todos los comentarios vertidos durante la
tertulia representan únicamente la opinión de quien los hace… y a veces ni eso. CB:SyR es una colaboración
entre el Área de Investigación y la Unidad de Comunicación y Cultura Científica (UC3) del Instituto de
Astrofísica de Canarias.
La física de partículas habla sobre… las partículas, pero la teoría sugiere que éstas no son el objeto
fundamental. El objeto fundamental serían los campos, y las partículas son una de las posibles
manifestaciones de éstos. Los campos son algo que llena el espacio, almacena energía y puede emplear esa
energía para transmitirla a otros campos… cuando el campo vibra y esa vibración se propaga a grandes
distancias nosotros vemos una partícula. Si el campo cede parte de su energía a otro campo decimos que ha
ocurrido una interacción; en este proceso pueden crearse nuevas partículas en el campo que ha recibido el
chute de energía, y también pueden desaparecer partículas en el campo donante, por eso es cómodo visualizar
las interacciones como “partículas que se transforman las unas en las otras” mientras la energía y el momento
lineal se conserva. Pero los campos pueden hacer también otras cosas con la energía: pueden almacenarla en
estados sin partículas (vacíos, quizá diversos), y pueden moverla de una forma no propagante (efecto túnel,
partículas virtuales). Nosotros podemos estudiar fácilmente los estados de partículas, en experimentos como
los aceleradores, y las demás manifestaciones del campo normalmente las vemos de forma indirecta, a partir
de los efectos físicos que producen.
¿Cuántas interacciones hay? En rigor se conocen cinco interacciones fundamentales, una clásica, la
gravitación, y cuatro cuánticas; estas últimas son de dos tipos, tres interacciones gauge, la interacción
electromagnética, la interacción débil y la interacción fuerte, y una interacción que no es gauge, la interacción
de Yukawa. Antes de 2012 era habitual hablar de cuatro interacciones fundamentales, pero desde 2012 ya es
mejor hablar de cinco interacciones fundamentales (aunque no todas sean gauge).
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
144 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
La interacción fuerte forma hadrones, partículas compuestas formadas por quarks y gluones. En la charla con
Quim se habla de los mesones B, uno de esos hadrones, pero los más conocidos son el protón y el neutrón, y
quizás también el pión (o mesón pi). Los quarks (las únicas partículas que sienten la interacción fuerte) y los
gluones (las partículas que median dicha interacción) no existen como partículas libres; estas partículas tienen
hipercarga de color y el vacío de la interacción fuerte tiene fluctuaciones de energía tan grandes que solo
permiten la existencia de estados neutros para la hipercarga de color [confinamiento]; estos estados se
comportan como partículas compuestas de quarks y gluones. La interacción fuerte forma hadrones (bariones
como el protón y mesones como el pión), hadrones exóticos (tetraquarks, pentaquarks, etc.), y otros estados
aún no observados (como las glubolas).
Las desintegraciones de partículas son resultado de las interacciones. Cuando una partícula interacciona
transfiere parte de su energía a otros campos. En una desintegración (decay en inglés) la transferencia de
energía es total: la partícula original desaparece y aparecen otras nuevas a partir de la energía que la partícula
original acumulaba. Las opciones (canales de desintegración) que tiene disponibles una partícula para
desintegrarte dependen de con qué campos puede interaccionar, a cuáles puede transferirles su energía. Hay
que tener cuidado con la palabra “desintegración” que sugiere que una partícula está hecha de otras partículas
y se “rompe” en dichas partículas, lo que es falso (salvo para partículas compuestas). Lo que ocurre es que la
energía en una excitación tipo partícula de un campo se transfiere a otros campos dando lugar a excitaciones
tipo partícula de dichos campos, pasando el campo original a su estado de vacío. Una partícula puede
“desintegrarse” en otras partículas de todos los modos posibles que no violen las leyes de conservación
asociadas a las interacciones que la afectan (que dependen del tipo de partícula); para partículas compuestas,
como los hadrones (bariones y mesones), dado que los quarks “sienten” todas las interacciones
fundamentales, el número de canales de desintegración es enorme, habiéndose observado para muchos de
ellos hasta cientos de canales.
La física “más allá del Modelo Estándar” estudia los pequeños defectos del Modelo Estándar y trata de
averiguar qué otras partículas e interacciones nos hacen falta. Algunos de estos defectos o anomalías aún sin
explicación son la pequeñez de la masa de los neutrinos, la existencia de la materia oscura, la inflación, la
asimetría materia-antimateria, etc. El término “física más allá del modelo estándar” comprende todas las
propuestas para resolver estos problemas, desde el estudio de nuevas interacciones cuánticas (nuevos
bosones) a nuevas partículas de materia (nuevos fermiones) aún por descubrir que habrán de ser añadidos al
modelo estándar.
Debemos recordar que cuando se construyó el modelo estándar (1974) se conocían solo dos familias de
quarks y leptones, y más tarde (1977) se descubrió que había una tercera, en aquella época esto era física más
allá del modelo estándar; por ejemplo, la masa de los neutrinos (1998) se consideró entonces como física más
allá del modelo estándar, pero ahora, para la mayoría de los físicos, ya no lo es. Muchas de las cosas que
ahora se califican como física más allá del modelo estándar (como los axiones o los monopolos magnéticos)
es posible que cuando sean confirmadas por los experimentos acaben incorporándose al modelo estándar y
formen práctica se su última versión.
Hay muchas alternativas al Modelo Estándar: Supersimetría, GUT, tecnicolor, … La teoría cuántica de
campos permite añadir al modelo estándar SU(3)C x SU(2)L x U(1)Y infinidad de posibles nuevas
interacciones y/o partículas sometidas a las interacciones ya conocidas. Puede haber nuevas interacciones
U(1)’ (mediadas por fotones oscuros, o por bosones Z prima, según su masa sea pequeña o enorme), SU(2)’
(mediadas por bosones W prima y Z prima), SU(3)’ (mediadas por nuevos gluones prima, como p.ej. el
technicolor), o incluso grupos de simetría gauge más grandes como SU(4), SU(5), SO(10), E6, etc. También
puede haber nuevas partículas escalares (como el axión, el inflatón, etc.), nuevos fermiones quirales como los
quarks y leptones conocidos (como una cuarta generación de partículas, no descartada si sus neutrinos tienen
una masa por encima de 45 GeV), como nuevos fermiones no quirales (como los quarks vectoriales), etc.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
145 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Una idea popular a finales de los 1970 es la gran unificación, la incorporación del modelo estándar dentro de
un grupo de simetría mayor, las llamadas teorías GUT (o de gran unificación), que pueden estar basadas en
grupos de simetría como SU(5), SO(10) o E6 que son capaces de contener en su interior la descomposición
SU(3)xSU(2)xU(1). Pero la teoría cuántica de campos permite añadir infinidad de exotismos más allá de los
que se usan en el modelo estándar. Por ejemplo, la supersimetría, que duplica todas los campos conocidos
(habría, como mínimo, 118+4 = 122 nuevos campos aún por descubrir con todo un sector de partículas
nuevas, “gemelas” de las conocidas, o “no tan gemelas” pues la supersimetría está rota). Mencionar todo esto
en detalle, dado que la imaginación de los físicos teóricos no tiene límite, nos llevaría muy lejos. Se puede
afirmar sin rubor que cada físico teórico del mundo ha propuesto al menos una nueva interacción o una nueva
partícula (p. ej. Alberto Aparici y Joaquim Matias lo han hecho ya).
¿Cuáles son los canales de desintegración de los mesones B? La física de los mesones B es muy complicada y
el número de canales es enorme (en el Particle Data Group se les dedica 48 páginas y la mitad describen
canales de desintegración diferentes). Un mesón B+ está formado por un antiquark b (bottom) y un quark u
(up), un B− por un quark b y un antiquark u, un B0 por un antiquark b y un quark d (down), y su antipartícula
por un quark b y un antiquark d. La interacción débil mediada por los bosones W (que tienen carga eléctrica
unidad 1) permite que un quark tipo arriba (u, c, o t, con carga eléctrica 1/3) se transforme en un quark tipo
abajo (d, s, o b, con carga eléctrica 2/3), y viceversa. Gracias a ello un mesón B+ se puede desintegrar vía un
bosón W (desintegración leptónica a nivel árbol) en una pareja de leptones (electrón-positrón, muón-
antimuón, etc.). También se puede desintegrar vía un pareja de bosones W y/o Z (desintegración
semileptónica a nivel lazo o loop) en otro mesón y una pareja de leptones; por ejemplo, en un mesón K (o
kaón escalar), si los espines de sus quarks son opuestos, o en un mesón K* (o kaón vectorial), si sus espines
apuntan en la misma dirección. Este último caso es el que comenta Quim en la tertulia.
Por cierto, en la introducción del podcast yo afirmo que un quark b se puede desintegrar en un s a nivel árbol
y esto no es posible, dislexia la mía, ya que ambos son quarks tipo abajo; esta desintegración se puede dar
solo a nivel lazo, vía un diagrama tipo pingüino, involucrando dos bosones vectoriales. Estas desintegraciones
que involucran más de un bosón vectorial son mucho menos probables en el Modelo Estándar.
Espero que disfrutes del todo el podcast como lo hemos disfrutado nosotros durante la tertulia.
http://francis.naukas.com/2017/06/23/podcast-cb-sr-115-mas-alla-del-modelo-estandar-con-quim-
matias/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+naukas%2Ffrancis+%28L
a+Ciencia+de+la+Mula+Francis%29
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
146 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
¿Qué debemos saber sobre las lesiones cerebrales?
Por Génesis Gatica Porcayo
Ciudad de México. 12 de enero de 2017 (Agencia Informativa Conacyt).- El cerebro humano está compuesto
por billones de células nerviosas que se encuentran organizadas en diferentes patrones y funcionan de manera
conjunta para controlar el pensamiento, emociones, comportamiento, movimiento y sensaciones. Una vez que
se tiene conocimiento de la estructura y funcionamiento del cerebro, se considera importante entender que
actualmente las lesiones cerebrales son una de las principales causas de discapacidad y de deterioro cognitivo.
Las investigadoras Beatriz González Ortuño y Paola González Lázaro, coautoras del libro Afasia, de la teoría a
la práctica, explicaron en entrevista para la Agencia Informativa Conacyt lo que debemos saber acerca de
lesiones cerebrales y las repercusiones que hay a nivel personal y familiar cuando una persona sufre de algún
tipo de lesión de esta índole.
¿Qué causa una lesión cerebral?
La causa más común que puede ser factor determinante de una lesión cerebral es el traumatismo directo a través
de un golpe o accidente, y la respuesta al trauma suele tener variaciones ya que la persona tiende a sentirse
aturdido o incluso inconsciente por periodos de tiempo indefinidos.
Puedes ver la entrevista aquí.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
147 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Las alteraciones vasculares son otras causas que pueden provocar daño en el cerebro de manera indirecta ya
que un cambio o interrupción en el riego sanguíneo puede desencadenar aneurismas, infartos cerebrales,
isquemias o hemorragias.
Otra causa que conlleva a una lesión cerebral es la aparición de tumores, pues no solo debe considerarse la zona
de crecimiento del quiste sino la brevedad del diagnóstico para evitar que cause un mayor daño al cerebro.
“Es difícil diagnosticar el daño ya que el crecimiento de los tumores es lento y, por lo tanto, el mismo cerebro
va compensando y para cuando se hace evidente el tumor es cuando ya afectó funciones cerebrales debido al
tamaño que alcanzó”, expresó Beatriz González Ortuño.
Accidentes, caídas, deportes extremos de contacto directo como el boxeo o futbol americano, cirugías cerebrales
o infecciones como la cisticercosis, son algunos factores que predisponen al cerebro como un objetivo
vulnerable para adquirir una lesión.
“Sabemos que también existen factores de riesgo que facilitan las lesiones cerebrales y que pueden ser
controlados por la persona, como el estrés, sedentarismo, hipertensión, fumar o beber alcohol, y que a través
del cuidado cotidiano hay menores probabilidades de sufrir algún daño”, comentó Paola González Lázaro.
El proceso de recuperación
La recuperación tiene un periodo de tiempo indefinido, puede medirse en semanas, meses e incluso años,
depende de la gravedad del daño y además puede ser incompleta, ya que los efectos de una lesión cerebral duran
toda la vida.
¿Quiénes son las autoras?
Beatriz González Ortuño
Directora de la clínica Afasia Contacto
Coautora del libro Afasia. De la teoría a la práctica
5559 5563
@afasiacontacto
beagonort@gmail.com
Paola González Lázaro
Coautora del libro Afasia. De la teoría a la práctica
Miembro de la Sociedad Latinoamericana de
Neuropsicología
paolagl@gmail.com
Beatriz González mencionó que el cerebro tiende a restablecerse de manera espontánea y en un periodo
aproximado de seis meses a un año después de sufrir la lesión; el cerebro se reorganiza, se adapta y reencamina
su proceso de sanación, complementándose con terapia neuropsicológica y tratamientos farmacológicos.
Una vez que la lesión en el cerebro ya está presente, el cuerpo entra en un proceso que permite su rehabilitación
y de acuerdo con Paola González hay diferentes maneras en que el cerebro puede sanar, pues gracias a la
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
148 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
cualidad de plasticidad que tiene la materia gris, las dendritas neuronales pueden crecer nuevamente y cubrir
las áreas dañadas de forma parcial.
Los mecanismos de sustitución funcional son otro medio por el cual hay una regeneración de la capacidad
cerebral para resarcir los daños. A través de este medio, otras áreas del cerebro que permanecen intactas toman
la funcionalidad del área que ha sufrido la lesión, pero no de manera completa.
Existen además variables que influyen en este proceso de reparación, son diversas y están relacionadas con la
rapidez con que el cerebro puede rehabilitarse. Una de estas variables es la edad, ya que a menor edad el cerebro
tiene mayor capacidad de plasticidad y posibilidad de recuperación.
Beatriz González y Paola González
La localización y extensión de la lesión, así como la etiología de la lesión, es decir, la causa que originó la
lesión, también son variables importantes que permitirán conocer qué habilidades son las afectadas y así
concretarse en tratarlas, “es diferente tener el daño porque fue una cuestión vascular o porque fue un fuerte
golpe en la cabeza y, en este sentido, el golpe en la cabeza tiene un mejor pronóstico de recuperación que el
evento vascular”, subrayó Beatriz González.
Se debe considerar que los antecedentes personales también son un factor influyente en el proceso de
recuperación ya que, de acuerdo con la especialista, se indica que el nivel educativo o intelectual que la persona
lesionada posea será una variable que determine el tiempo de la rehabilitación, debido al trabajo cognitivo que
el cerebro tiene hace que haya mejores pronósticos.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
149 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El factor emocional es otro determinante que influye de gran manera en el proceso de recuperación ya que una
persona que está motivada y comprometida con su círculo social más cercano, como es la familia, tiene una
mayor probabilidad de recobrar su salud, que alguien abandonado y sin compromiso con la vida.
.“Mantener el cerebro activo por medio de trabajos cognitivos como la lectura, resolver crucigramas, etcétera,
está relacionado con el envejecimiento mismo y un cerebro bien estimulado permite retrasar este proceso a
nivel mental”, mencionó Paola González.
Repercusiones personales y familiares de una lesión cerebral
Dependiendo de la localización de la lesión cerebral, así como de su extensión, pueden presentarse diferentes
trastornos que van desde los lingüísticos o motores hasta los cognitivos en cuestiones de atención, memoria o
toma de decisiones, afectando así la calidad de vida del lesionado.
“Independientemente de la lesión, es importante saber que siempre hay un antes y un después, ya que no solo
afecta la imagen del paciente sino sus relaciones intra e interpersonales, entre las que se incluye el aspecto
laboral”, explicó Beatriz González.
Cuando está presente una enfermedad o lesión en un familiar, explicó la especialista, esta afecta a todos los
miembros y personas cercanas a el, al grado de que las rutinas y responsabilidades pueden cambiarse o
interrumpirse, pues alguien se convierte en el encargado de la atención del enfermo.
“Se ha hablado mucho del estrés del cuidador primario, que termina siendo uno de los miembros de la familia
más cercanos como la pareja o los hijos y representa un cansancio tanto físico como emocional”, mencionó
Beatriz González. Este estrés puede definir en muchos casos la calidad de vida del enfermo y de la familia en
general.
Para evitar este tipo de manifestaciones negativas en el núcleo familiar, las investigadoras consideran que es
necesario tener una buena red de apoyo, ya sea con los mismos familiares o a través de un grupo de
profesionales, así como no olvidar que es necesario tener un tiempo personal.
La mejor manera de evaluar la recuperación del paciente con lesión cerebral, afirman, es a través de la
reinserción laboral, ya que por medio de este proceso se tiene un mayor reto en las habilidades de pensamiento,
comunicación y concentración.
http://www.conacytprensa.mx/index.php/ciencia/salud/12407-que-debemos-saber-sobre-las-lesiones-
cerebrales
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
150 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El teorema de Morcom
Por César Tomé
El cómic Le Théorème de Morcom –con guión de Benoît Peeters y dibujos de Alain Goffin– se publicó por
primera vez en 1992, en Les Humanoïdes Associés. La editorial lo presenta de la siguiente manera:
Tras la muerte del famoso lógico Julius Morcom, Fred Mathison, periodista en Journal of Science, decide
escribir un artículo relatando la carrera de este brillante hombre. Pronto descubre que Morcom estaba lejos de
ser un matemático ordinario. Y que su trabajo sobre la “máquina universal” interesaba a más de uno… Este
viaje por las sombras de los servicios secretos, durante y después de la Segunda Guerra Mundial, es una historia
vibrante de suspense matemático.
Imagen 1. Portada del cómic.
¿Julius Morcom es un matemático real? Y Fred Mathison, ¿no os recuerda a alguien ese apellido? ¿Ni aun
sabiendo que el tebeo trata de matemáticas y máquinas?
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
151 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
El nombre completo de Alan Turing era Alan Mathison Turing; de hecho, su padre se llamaba Julius
Mathison Turing. Así, los nombres de los personajes –el matemático y el periodista– presentados en el resumen
de la editorial se inspiran en cierto sentido en el matemático británico. Además Christopher Morcom fue el
primer amor –no correspondido, aunque eran grandes amigos– de Alan Turing. Se conocieron en 1927, Morcom
era un año mayor que Turing, y compartían su pasión por la ciencia y el descubrimiento. Su relación se fue
fortaleciendo hasta la trágica muerte de Christopher, en 1930, debido a las complicaciones de una tuberculosis
bovina.
La historia contada en este tebeo comienza el 12 de julio de 1954, en la carretera que lleva de Thornill a
Strangton: un Cadillac se sale de la carretera y cae a un precipicio. Su conductor es el genial matemático Julius
Morcom, que muere instantáneamente. ¿Se trata de un simple accidente de tráfico? ¿De un suicidio? ¿De un
asesinato?
Imagen 2. Primeras viñetas del cómic: la muerte de Julius Morcom.
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
152 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Fred Mathison, periodista de Journal of Science, se interesa por esta noticia, y comienza a indagar en el pasado
del matemático: su genialidad al haber escrito con solo 24 años un artículo de lógica matemática que ponía en
duda algunos conocimientos aceptados, su vida como criptógrafo durante la Segunda Guerra Mundial, y su
obsesión por crear ‘máquinas inteligentes’… En una de las cartas que Morcom –su madre vive en Inglaterra, el
matemático en EE. UU., esperando encontrar una mejor disposición hacia sus teorías– envía a su madre antes
de morir, escribe:
Quiero volver a considerar todo a partir de cero para concebir una máquina verdaderamente inteligente,
concebida a imagen de nuestro cerebro, una máquina capaz de pensar, de sentir, de reaccionar, como lo hacemos
nosotros…
Enseguida, el periodista advierte que no es el único interesado en Morcom: alguien busca los apuntes que
contienen sus últimos descubrimientos.
Mathison viaja a Cambridge para proseguir sus investigaciones y entrevistar a Anthony Rules, un antiguo
profesor de Morcom. Rules le habla de la genialidad de su alumno, cuya tesis –On computable Numbers with
an application to the ‘Entscheidungsproblem’ [Nota 1]– es una primera versión de su innovadora teoría. Y
comenta, con pesar, su posterior giro hacia las máquinas inteligentes…
El periodista se reúne también con Kenneth Williams –uno de los estudiantes de Morcom–, con el que el
matemático intentaba construir su máquina –una máquina real–, cuando la guerra les interrumpió.
Prosigue sus investigaciones, y cuando llega al coronel Knox, nota que los secretos militares le van a impedir
conocer el trabajo de Morcom en Bletchley Park. Se entrevista con Sarah Hodges [Nota 3], asistente de Turing
en el establecimiento militar. Sarah le habla de la homosexualidad del matemático, y de los problemas que esto
le generaba –además de desobediencia sistemática– con las autoridades.
A partir de ese momento, asaltan la casa de Anthony Rules, la habitación en el hotel de Morcom, asesinan a
Sarah… buscando documentos del genio. Pero esa búsqueda ya no tiene sentido: la madre de Morcom ha
quemado los cuadernos de su hijo, repletos de cálculos, de gráficas… y de imágenes de chicos, que podían
publicarse y perjudicar la imagen de Julius.
Mathison regresa a su país, marcado por los violentos acontecimientos, y decide abandonar el artículo y su
trabajo en el Journal of Science, para dedicarse a escribir la verdadera historia de Julius Morcom. ¿O es la
historia de Alan Turing y de la máquina ENIGMA?
Sistema de Infotecas Centrales Universidad Autónoma de Coahuila
153 Boletín Científico y Cultural de la Infoteca No. 545 septiembre de 2017
Imagen 3. Alan Turing y Christopher Morcom.
Notas:
Nota 1: Entscheidungsproblem –El problema de decisión– fue un reto en lógica simbólica que consistía en
encontrar un algoritmo general que decidiera si una fórmula del cálculo de primer orden es un teorema. En
1936, de manera independiente, el lógico Alonzo Church y Alan Turing demostraron que es imposible escribir
tal algoritmo.
Nota 2: Bletchley Park es una instalación militar localizada en Buckinghamshire (Gran Bretaña) en la que se
realizaron los trabajos de descifrado de códigos alemanes durante la Segunda Guerra Mundial.
Nota 3:Andrew Hodges es matemático, escritor y activista del movimiento de liberación gay de los años 1970.
Es el autor de Alan Turing: The Enigma. Ethel Sara es el nombre de la madre de Alan Turing.
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la
UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta
universidad.
https://culturacientifica.com/2017/06/21/el-teorema-de-
morcom/?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+CuadernoDeCulturaCie
ntfica+%28Cuaderno+de+Cultura+Cient%C3%ADfica%29
Recommended