232
PIERGIORGIO ODIFREDDI LA MATEMÁTICA DEL SIGLO XX DE LOS CONJUNTOS A LA COMPLEJIDAD

la_matematica_del_siglo_xx.pdf

Embed Size (px)

Citation preview

PIERGIORGIO ODIFREDDI

LAMATEMÁTICA DELSIGLO XX

DE LOS CONJUNTOS A LA COMPLEJIDAD

II

PIERGIORGIO ODIFREDDI (Cuneo, Italia, 1950)Estudió matemática en Italia, Estados Unidos y laex Unión Soviética. Enseña lógica en las univer-sidades de Turín y de Cornell. En 1988 recibió elpremio Galileo de la Unión Matemática Italiana.Ha trabajado sobre problemas de lógica intuicio-nista. Actualmente, su campo de investigación esla teoría de la recursividad.

Primera Edición, 2006Traducido por Idiarte, CeciliaPrólogo de Gian Carlo Rota

Título de la edición original: La matematica del Novecento. Dagliinsiemi alla complessitàTurín, 2000

La Matemática del siglo XX III

A Lauraque me libera del tiempo y el espacio

y me da la alegría y la pazque me han sido negadas por el Número y el Punto.

IV

Índice general

1. Prólogo de Gian Carlo Rota 1

2. Agradecimientos 7

3. Introducción 9

4. Fundamentos 17

4.1. Década de 1920: Los Conjuntos . . . . . . . . . . . . . . . . . . . 19

4.2. Década de 1940: Las Estructuras . . . . . . . . . . . . . . . . . . . 23

4.3. Década de 1960: Las Categorías . . . . . . . . . . . . . . . . . . . 27

4.4. Década de 1980: El Lambda Cálculo . . . . . . . . . . . . . . . . . 31

5. Matemática Pura 37

5.1. Análisis: La medida de Lebegue (1902) . . . . . . . . . . . . . . . . 41

5.2. Álgebra: La Clasificación de los campos de Steinitz (1910) . . . . . . . . 46

5.3. Topología: El Teorema del Punto Fijo de Brouwer (1910) . . . . . . . . 49

5.4. Teoría de Números: Los Números Trascendentes de Gelfond (1929) . . . . 52

V

VI ÍNDICE GENERAL

5.5. Lógica: El Teorema de Incompletitud de Gödel (1931) . . . . . . . . . . 56

5.6. Calculo Variacional: Las superficies minimales de Douglas (1931) . . . . 60

5.7. Análisis: Las distribuciones de Schwartz (1945) . . . . . . . . . . . . 65

5.8. Topología Diferencial: Las estructuras exóticas de Milnor (1956) . . . . . 69

5.9. Teoría de los Modelos: Los Números Hiperreales de Robinson (1961) . . . 73

5.10. Teoría de Conjuntos: El Teorema de Independencia de Cohen (1963) . . . 77

5.11. Teoría de Singularidades: La Clasificación de las Catástrofes de Thom (1964) 80

5.12. Álgebra: La Clasificación de los Grupos Finitos de Gorenstein (1972) . . . 86

5.13. Topología: La Clasificac. de las Superf. Tridimensionales de Thurston (1982) 92

5.14. Teoría de Números: La demost. de Wiles del Últ. Teorema de Fermat (1995) 97

5.15. Geometría Discreta: La solución de Hales al Problema de Kepler (1998) . . 103

6. Matemática Aplicada 109

6.1. Cristalografía: Los Grupos de Simetría de Bieberback (1910) . . . . . . . 115

6.2. Cálculo Tensorial: La relatividad general de Einstein (1915) . . . . . . . 122

6.3. Teoría de Juegos: El Teorema Minimax de Von Neumann (1928) . . . . . 126

6.4. Análisis Funcional: La Axiomat. de la Mec. Cuántica de V. Neumann (1932) 129

6.5. Teoría de la Probabilidad: La Axiomatización de Kolmogorov (1933) . . . 134

6.6. Teoría de la Optimización: El Método del Simplex de Dantzig (1947) . . . 138

6.7. Teoría del Equilibrio Gral.: El Th. de Existencia de Arrow y Debreu (1954) . 141

6.8. Teoría los lenguajes formales: La clasificación de Chomsky (1957) . . . . 144

6.9. Teoría de los Sistemas Dinámicos: El Teorema Kam (1962) . . . . . . . . 148

6.10. Teoría de los Nudos: Los Invariantes de Jones (1984) . . . . . . . . . . 152

La Matemática del siglo XX VII

7. La Matemática y el Ordenador 159

7.1. Teoría de Algoritmos: La Caracterización de Turing (1936) . . . . . . . . 165

7.2. Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950) . . . . . 169

7.3. Teoría del Caos: El Atractor extraño de Lorenz (1963) . . . . . . . . . . 172

7.4. Demostraciones asistidas: El Th. de los 4 Colores de Appel y Haken (1976) . 175

7.5. Fractales: El conjunto de Mandelbrot (1980) . . . . . . . . . . . . . . 181

8. Problemas irresueltos 187

8.1. Aritmética: El Problema de los Números Perfectos (300 a.C.) . . . . . . . 189

8.2. Análisis complejo: La Hipótesis de Riemann (1859) . . . . . . . . . . . 191

8.3. Topología Algebraica: La Conjetura de Poincaré (1904) . . . . . . . . . 195

8.4. Teoría de la Complejidad: El Problema P = NP (1972) . . . . . . . . . 198

9. Conclusión 205

10. Bibliografía 211

11. Índice de nombres 215

VIII ÍNDICE GENERAL

1

Prólogo

A finales del segundo milenio, la vida de la matemática corre se-rios peligros. Entre las múltiples amenazas a su supervivencia, lasmás inminentes me parecen la crasa ignorancia de sus resultados yla frecuente hostilidad hacia sus exponentes. Ambas se ven favoreci-das por la insistencia de los matemáticos en permanecer en los estre-chos límites de la propia disciplina, y por su ineptitud para traducirsu contenido esotérico en eslóganes exotéricos, como debería ser enla era de los medios masivos de comunicación y de las relacionespúblicas. Si no se toman inmediatamente drásticas medidas, la ma-temática corre el riesgo de convertirse pronto en una curiosidad, unade las especies intelectuales en vías de extinción -junto a los otrosclásicos, desde la poesía hasta la música, o desde la pintura al teatro-que nuestros hijos visitarán en el zoológico.

Sin embargo, está claro (y puedo demostrarlo con rigor) que lacivilización occidental de la que estamos tan orgullosos sobreviviráo morirá junto con sumatemática. La matemática es, siempre ha sidoy siempre será la cúspide de nuestra civilización, y cualquiera queadhiera a los ideales que se nos transmitieron desde los hebreos y los

1

2 1. Prólogo de Gian Carlo Rota

griegos, a través del Renacimiento y la Revolución Científica, debeestar listo para enrolarse entre sus defensores.

El campo de batalla es vasto y el plan de lucha debe ser concebi-do por nuestros mejores estrategas. Afortunadamente, contamos conalgunos entre los matemáticos, no obstante el desdén esnob con elque los miran la mayoría de sus colegas (los físicos y los químicos,en cambio, aprendieron hace mucho tiempo a comportarse de otramanera, y miman y recompensan inmensamente a sus estrategas).

Aprovecho esta oportunidad que me brinda mi amigo Odifreddipara detenerme en una pequeña zona de este campo de batalla. La-mentablemente, no estoy capacitado para ofrecer sugerencias cons-tructivas, pero al menos puedo señalar algunas grotescasmalas inter-pretaciones, que conducen a los falsos defensores de la matemática atropezar con sus propios pies. Mi consejo es evitar cuidadosamentela repetición de los siguientes desaciertos.

• La matemática es divertidaAprender matemática es divertido sólo para quienes la aman,es decir, para una insignificante minoría de las personas ins-truidas. Para la gran mayoría, en cambio, aprender matemá-tica es una actividad pesada, difícil y artificial, que casi todospreferirían evitar. Ciertamente, no se ayuda a la propia causaacuñando un eslogan basado en una patraña tan descarada.

• La matemática es maravillosaTambién aquí, la belleza de la matemática brilla sólo a los ojosde quien la hace. Lamentablemente, la enseñanza de la mate-mática ha caído hoy a niveles de incompetencia francamenteimpensables para unmundo tecnológico. Poquísimosmaestrossaben comunicar la belleza de la matemática a sus estudian-tes, y muchos de los que podrían prefieren, comprensiblemen-

La Matemática del siglo XX 3

te, dedicarse a actividades menos frustrantes que la enseñanza.Mejor dejar caer también este eslogan.

• La matemática tiene muchas aplicacionesAunque pueda parecer tonto, los matemáticos generalmenteconcluyen la discusión de cualquier resultado con la frase: “Yel teorema tiene muchas aplicaciones útiles”, pero nunca espe-cifican cuáles. Querer especificarlo, entonces, sería peor aun.Esforzarse por encontrar aplicaciones a toda costa conduce enefecto a la invención de ejemplos innaturales y poco convin-centes, que se merecen el desalentador y desafiante: “¿Y en-tonces?”. Ciertamente, algunos resultados matemáticos tienenaplicaciones inmediatas, pero también en estos casos es mejormantenerse lejos de los detalles, como el secretario florentinoaconsejaba al Príncipe. Nunca se puede saber si el público mos-trará interés, ni cuánto, hacia las falsas maravillas tecnológicasque se le propinan. Conviene limitarse a generalidades obvias,que son más adecuadas para impresionar a los desprevenidos.Por ejemplo: “Sin lógica matemática no existirían los ordenado-res” o “Sin el análisis funcional no existiría la bomba atómica”.Si sólo encontráramos una docena de eslóganes de este tipo pa-ra taparle la boca a cierta gente, la matemática podría emular ala química en las relaciones públicas y competir con ella en lassubvenciones.

• La matemática es un sustituto de los clásicosPertenezco a la última generación a la que se le hizo creer quesaber leer latín y griego era un requisito indispensable paraquien quisiera obtener la calificación de gentleman. Prefieroahorrar las decrépitas banalidades que se esgrimían como justi-ficación para la enseñanza de las lenguas muertas. Las mismasbanalidades se reciclan hoy para pedir mayor número de horas

4 1. Prólogo de Gian Carlo Rota

semanales de matemática en las escuelas secundarias; proyec-to loable, por cierto, pero difícilmente realizable apelando a losclásicos.Debo confesar que yo mismo he creído en la analogía entre ma-temática y clásicos, y que la he predicado a mis alumnos. Hastaque un día uno de ellos me arrojó demanera irreverente un “¡Aldiablo los clásicos!” que me hizo recobrar instantáneamente elsentido. De todos modos hay, obviamente, un toque de verdaden la comparación, y es menester separarlo de las burlas. Enla vieja Inglaterra ningún buen estudiante de Oxford o Cam-bridge podía aspirar a servir a Su Majestad, aunque fuera en lacolonia más alejada, si no era capaz de recitar al pie de la le-tra miles de versos de Virgilio, o decenas de odas de Píndaro.¡Los países civilizados se empeñaban en elegir a sus gobernan-tes basándose sólo en su conocimiento de los clásicos!Hoy esta ocurriendo algo parecido con la matemática. Cual-quier que trabaje en áreas tecnológicas sabe que las especu-laciones envejecen precoz y continuamente. Un sólido back-ground de purísima matemática es el mejor seguro contra laobsolescencia. Ni siquiera la matemática “aplicada” basta paraeste fin, por obvias razones de circularidad.

• La matemática es como la músicaMe gustaría creer esta afirmación. Pero hay que constatar quehay muchos más estudiantes de música que de matemática,aunque la probabilidad de morir de hambre o de ser un de-socupado sea mucho más alta entre los músicos que entre losmatemáticos. Por lo tanto, debe haber una diferencia entre lasdos profesiones.

• La matemática es una profesión tranquilaMuchas personas que no se dedican a este trabajo conservan

La Matemática del siglo XX 5

una imagen falsa de la vida del matemático, según la cual elprofesor de matemática enseña algunas horitas por semana ydedica el resto del tiempo a placenteros pasatiempos, desde lajardinería hasta el ajedrez. Nada podría estar más alejado de larealidad, y lo estará mas aun en el futuro. La competitividad enla investigación matemática está llegando a niveles de olimpia-das, y quien se dedique menos de dieciocho horas al día a lainvestigación terminará en una pizzería. ¡Pero detrás del mos-trador, no sentado a las mesas!

• La matemática es la reina de las cienciasDe esto, en cambio, estoy completamente convencido. Por des-gracia, los matrimonios se forman entre dos personas. El eslo-gan sería creíble sólo si los otros científicos estuvieran de acuer-do, algo que a ellos ni se les pasa por la cabeza. Por el contrario,todos intentan acaparar la enseñanza de la matemática, desdelos ingenieros hasta los físicos, desde los químicos hasta los bió-logos, y los matemáticos se van de paseo. ¿Cuándo vamos a re-cuperar un poco de respeto, por no hablar de algún puesto detrabajo?

Afortunadamente, contra todo pronóstico pesimista, de vez encuando ocurren cosas buenas. Una de ellas es este libro de Odifre-ddi. Su estrategia es inteligente: simplemente presenta los resultadosde la matemática como son, limitando al mínimo el lenguaje técni-co, pero con suficiente información como para permitir al lector quepueda hacerse una buena idea tanto de los problemas importantes,como de sus soluciones. Pocas veces una historia tan completa fuepresentada con tal claridad.

Aquí no hay esfuerzos por “vender” la matemática. Que un re-

6 1. Prólogo de Gian Carlo Rota

sultado sea útil o no, incessu pateti1 el lector terminará por concluir,exultante, al final de alguna espléndida explicación sobre las superfi-cies mínimas o sobre los polinomios de Jones, que tarde o tempranotales resultados encontrarán aplicaciones útiles.

Conducido por la hábil retórica del autor, el lector que lleguea esta conclusión auscultará el ritmo cardíaco de la matemática yaprenderá la lección esencial: que los mejores resultados son siem-pre, inevitablemente, los que encuentran aplicaciones revoluciona-rias. Y es justamente a éstas que se debe el progreso, o mejor dicho elProgreso y el mejoramiento de nuestro mundo.

Cualquiera que ame la matemática debe estar agradecido a Odi-freddi por haber presentado, con éxito, su lado más fuerte.

Gian Carlo RotaTurín, 7 de junio de 1998

1“Se ve en el andar”, en referencia a la sentencia de Virgilio “vera incessu patuitdea”. [N. de la T.]

2

Agradecimientos

Agradezco a John Hubbard y Peter Kahn por la inspiración ini-cial, y a Claudio Bartocci, Cinzia Bonotto, Umberto Bottazzini, Lione-llo Cantoni, Alberto Collino, Vittorio De Alfaro, Simonetta Di Sieno,Michele Emmer, Livia Giacardi, Gabriele Lolli, CristinaMataloni, An-drea Moro, Alessandro Panconesi, Tullio Regge y Paolo Valabregapor la ayuda intermedia y la corrección final.

7

8 2. Agradecimientos

3

Introducción

El mundo descrito por las ciencias físicas y naturales es concretoy perceptible: en una primera aproximación a través de los sentidos,y en una segunda aproximación a través de varias extensiones de lossentidos provistas por la tecnología. El mundo descripto por la ma-temática, en cambio, es un mundo abstracto, constituido por ideasque pueden percibirse sólo con el ojo de la mente. De todos modos,con la práctica, conceptos abstractos como números y puntos han ad-quirido tal objetividad que incluso el hombre común puede obtenerimágenes sustancialmente concretas de ellos, como si pertenecierana un mundo de objetos tan reales como los físicos.

Pero la ciencia moderna ha minado la ingenua visión del mundoexterior; la investigación extendió sus fronteras a las inmensas mag-nitudes del cosmos y a las minúsculas de las partículas, haciendoimposible una percepción sensorial directa, o incluso sólo a través demedios tecnológicos, de los objetos galácticos o atómicos, reducién-dolos efectivamente a imágenes matemáticas. De manera análoga,también la matemática moderna extendió las fronteras de su investi-gación a las raras abstracciones de las estructuras y a los minuciosos

9

10 3. Introducción

análisis de los fundamentos, desvinculándose por completo de la vi-sualización.

Por lo tanto, la ciencia y la matemática del siglo XX comparten ladificultad de explicar sus conquistas en términos de conceptos clási-cos. Pero dificultad no significa imposibilidad; y son precisamente lasabstracciones superficiales y estériles las que generalmente resultandifíciles de justificar, mientras que las profundas y fecundas ahondansus raíces en problemas e intuiciones concretas. En otras palabras, labuena abstracción no es un fin en sí mismo, un arte por el arte, sinoque siempre es una necesidad, un arte por el hombre.

Una segunda dificultad cuando se afronta la ciencia y la matemá-tica del siglo XX es la explosión productiva. Los matemáticos, quesolían conformar un pequeño grupito que a menudo debía hacercualquier trabajo para sobrevivir, hoy se han convertido en una le-gión. Se mantienen produciendo investigaciones que, generalmente,no tienen ni justificación ni interés, y la estructura universitaria enque la mayoría de ellos trabaja los incita estúpidamente a “publicaro perecer”, según un triste lema estadounidense. El resultado es quehoy están circulando centenares de revistas especializadas, en las queaparecen cada año, literalmente, centenares de miles de teoremas, lamayoría irrelevantes.

Una tercera dificultad es provocada por la fragmentación que lamatemática sufrió a partir del siglo XVIII, y que se hizo patológica enel siglo XX. Una de las causas es la explosión productiva, pero no esla única; otra, quizás más determinante, es el progreso mismo de lainvestigación. En efecto, los problemas simples y de fácil resoluciónson escasos, y una vez que se resuelven, una disciplina puede serdesarrollada sólo afrontando problemas complicados y difíciles, querequieren el desarrollo de técnicas específicas y, por lo tanto, una es-pecialización. El siglo XX ha testimoniado una hiperespecialización

La Matemática del siglo XX 11

de la matemática, que terminó por dividirla en subdisciplinas confronteras cada vez más angostas y delimitadas.

Lamayoría de estas subdisciplinas están constituidas por ramitasatrofiadas y resecas, que se desarrollan limitadamente en el tiempo yel espacio, y luego mueren de muerte natural. Pero las ramas sanasy fuertes siguen siendo muchas, y su desarrollo ha provocado unasituación inédita en la historia de la matemática: la extinción de laespecie del matemático universal, es decir, el individuo de excepcio-nal cultura que podía dominar completamente el panorama enterode la matemática de su tiempo. El último ejemplar parece haber sidoJohn von Neumann, fallecido en 1957.

Por todas estas razones, no es físicamente posible, ni es de esperarintelectualmente, brindar un panorama completo de la actividad deuna disciplina que claramente ha asumido las características típicasde la sociedad industrial dominante, en la que la superproducción demercancías de baja factura y a bajo costo generalmente marcha porinercia, segúnmecanismos contaminantes y saturantes, nocivos parael ambiente y para el consumidor.

El problema principal de cualquier exposición de la matemáticadel siglo XX es entonces, como en la parábola del Evangelio, separarel grano bueno de la paja, quemar la paja en gavillas y acumular elgrano en graneros. Los criterios que pueden guiar una selección deresultados son múltiples, y no unívocos: el interés histórico del pro-blema, la naturaleza germinal o conclusiva de un resultado, la bellezaintrínseca de la formulación o de las técnicas, la novedad o la dificul-tad de la demostración, la fertilidad matemática o la utilidad prácticade las aplicaciones, la pregnancia filosófica de las consecuencias, et-cétera.

La decisión que proponemos al lector, naturalmente, no puede noser subjetiva, tanto en sentido negativo como positivo. Por una parte,

12 3. Introducción

se debe dar dentro de un bagaje personal de conocimientos que evi-dentemente y de manera inexorable es limitado desde un punto devista general. Por otra parte, dentro de este bagaje, realiza una selec-ción inevitablemente regida por preferencias y gustos particulares.

De todos modos, los aspectos subjetivos pueden limitarse al mí-nimo, intentando hacer referencia a criterios que de alguna maneraresulten objetivos. En este caso, la tarea está facilitada por dos fac-tores complementarios, que marcaron el desarrollo de la matemáticaen el siglo XX. Ambos están vinculados, como explicaremos, con losCongresos Internacionales de la Matemática; como las olimpiadas,éstos se desarrollan cada cuatro años, y están invitados a presentarsus trabajos aquellos a los que la comunidad de matemáticos consi-dera sus mejores exponentes.

El primer Congreso oficial se llevó a cabo en 1897 en Zurich y laapertura estuvo a cargo de Henri Poincaré, que la dedicó a las rela-ciones entre matemática y física. El segundo Congreso se realizó enParís en 1900 y en esta oportunidad la apertura fue asignada a DavidHilbert. El factor numerológico se impuso a su deseo de responder adistancia al discurso de Poincaré, y Hilbert eligió “indicar probablesdirecciones de la matemática del nuevo siglo”.

En su inspirado discurso brindó, ante todo, implícitas indicacio-nes que nos guiarán en nuestra exposición: los resultados importan-tes son aquellos que manifiestan una continuidad histórica con elpasado, que unifican distintos aspectos de la matemática, que arro-jan luz nueva sobre cosas conocidas, que introducen simplificacionesradicales, que no son manipuladamente complicados, que admitenejemplificaciones significativas, que están suficientemente madura-dos como para poder ser explicados al hombre de la calle, etcétera.

Pero el discurso de Hilbert se hizo famoso principalmente por laexplícita indicación de veintitrés problemas abiertos, que él conside-

La Matemática del siglo XX 13

raba cruciales para el desarrollo de la matemática del siglo. Confir-mando su lúcida anticipación, muchos de esos problemas resultaronefectivamente fecundos y estimulantes, sobre todo en la primera mi-tad del siglo, y enseguida nos detendremos en algunos. En la segun-da mitad del siglo, el impulso de los problemas de Hilbert se apagóy la matemática incursionó en caminos que a principios de siglo nisiquiera existían.

Para orientarse en este período es útil hacer referencia a un pre-mio instituido en 1936, que se concede en los Congresos Internacio-nales a matemáticos menores de cuarenta años que hayan obtenidoen los últimos años los resultados más destacados. La restricción eta-ria no es especialmente importante, dado que la mayor parte de losresultados significativos se obtienen a esa edad. Como una vez dijoGodfrey Hardy, en Apología de un matemático: “Ningún matemáticopuede permitirse olvidar que la matemática, más que cualquier otraarte o ciencia, es una actividad para jóvenes”.

El premio, dedicado a la memoria de John Charles Fields -unmatemático que había sido su organizador y que había obtenido lafinanciación- consiste en una medalla que muestra la imagen de Ar-químedes y la frase Transiré suum pectus mundoque potiri [trascenderlas limitaciones humanas y apoderarse del universo] (Figura 1). Poreso, el premio hoy se llama medalla Fields.

Figura 1. La medalla Fields

14 3. Introducción

Se lo considera el análogo del premio Nobel que para la matemá-tica no existe. Pero sí existe una leyenda muy conocida según la cualla causa de esta inexistencia habría sido el deseo de Alfred Nobel deevitar la posibilidad de que el matemático sueco GöstaMittag-Lefflerlo ganara. En realidad, ellos casi no se conocían, y ciertamente el se-gundo no era el amante de la esposa del primero, como suele sugerir-se, ya que Nobel no era casado. El verdadero motivo es simplementeque los cinco premios originales (física, química, medicina, literaturay paz) estaban dedicados a temas que le habían interesado a Nobeltoda su vida, y la matemática no se contaba entre ellos.

Hasta ahora se han entregado 42 medallas Fields, dos de ellas en1936, y las restantes entre 1950 y 1998. Ya que la lista de los ganadoresincluye a algunos de los mejores matemáticos de la segunda mitaddel siglo y que los resultados premiados constituyen algunas de lascimas alcanzadas por la matemática en aquel período, volveremos amenudo sobre este tema.

Complementario de la medalla Fields es el premio Wolf, una espe-cie de Oscar a la carrera, instituido en 1978 por Ricardo Wolf, filán-tropo cubano de origen alemán que fue embajador en Israel desde1961 hasta 1973. Como los premios Nobel, los premiosWolf no tienenlimitaciones de edad, se asignan en varios campos (física, química,medicina, agricultura, matemática y arte), son entregados por el jefede Estado en la capital (el rey de Suecia en Estocolmo en un caso, elpresidente de Israel en Jerusalén en el otro) e incluyen un sustanciosocheque (de 100.000 dólares, contra los 10.000 de la medalla Fields yel millón del premio Nobel).

Para evitar malentendidos, cabe aclarar explícitamente que las so-luciones de los problemas de Hilbert y los resultados de las medallasFields o de los premios Wolf representan sólo puntos de referenciasignificativos y, obviamente, no agotan el panorama de la matemáti-

La Matemática del siglo XX 15

ca del siglo XX. Por eso, también será necesario ir más allá de los pre-mios para intentar dar una descripción lo más amplia posible, con laslimitaciones que ya mencionamos, de la variedad y la profundidadde la matemática contemporánea.

La decisión de concentrarse en grandes resultados que, por otraparte, constituyen la esencia de la matemática determina automática-mente la naturaleza diacrónica de la exposición, que inevitablementetomará la forma de un collage. La ventaja es que permite una lectu-ra ampliamente independiente de cada sección; y la desventaja, queresulta confusa. Pero esta desventaja podrá ser superada fácilmentecon una segunda lectura, tras la cual se podrá volver a las distintassecciones con una visión global.

16 3. Introducción

4

Fundamentos

La matemática puede ser considerada, según la propia predispo-sición filosófica o la propia experiencia personal, como una actividadde descubrimiento o de invención.

En el primer caso, los conceptos abstractos de los que trata lamatemática se consideran dotados de una auténtica existencia en elmundo de las ideas, que es considerado tan real como el mundo físi-co de los objetos concretos. Por lo tanto, el descubrimiento requiere,literalmente, un sexto sentido, que permita percibir los objetos abs-tractos del mismo modo en que los cinco sentidos permiten percibirlos objetos concretos. Y el problema fundamental de esta percepciónes, obviamente, su verdad externa, es decir, una adecuada correspon-dencia con la supuesta realidad.

En el segundo caso, en cambio, las obras matemáticas se concibencomo obras de arte, que tratan de objetos tan imaginarios como losprotagonistas de una novela o las representaciones de una pintura.Por lo tanto, la invención requiere un auténtico talento matemático,que permita construir objetos de fantasía como lo hace el talento ar-

17

18 4. Fundamentos

tístico. El problema fundamental de las producciones de este talen-to es su consistencia interna, es decir, la concepción de las distintaspartes como un todo orgánico (en términos matemáticos: la falta decontradicciones).

Pero ya sea descubrimiento o invención, la matemática revela ob-jetos y conceptos que, a primera vista, resultan inusuales o poco fa-miliares. Actualmente, ciertos adjetivos demuestran las reacciones desorpresa o desagrado que suscitaron algunos números en su prime-ra aparición: irracionales, negativos, sordos, imaginarios, complejos,trascendentes, ideales, surreales, etcétera.

Desde los tiempos de los griegos, una actitud típica fue el intentopor limitar lo máximo que fuera posible la sorpresa o el desagrado,descargando el peso del edificio de la matemática en fundamentossólidos. La historia de la matemática testimonió sucesivas fases deconstrucción y desconstrucción, que invertían las relaciones recípro-cas entre lo que se consideraba fundamental y sustituían cimientospeligrosos o superados por otros que se consideraban más adecua-dos.

En el siglo VI a.C. los pitagóricos colocaron la aritmética de losnúmeros enteros y racionales en la base de la matemática. La grietaque hizo desmoronar el edificio fue el descubrimiento demagnitudesgeométricas que no se pueden expresar como relaciones entre núme-ros enteros, lo que demostró que los números racionales no son unabase adecuada para la geometría.

En el siglo III a.C. todo el edificio fue reconstruido por Euclidessobre los cimientos de la geometría. Los números enteros y sus opera-ciones perdieron el rol de entidades primitivas y fueron reducidos alas medidas de segmentos y de sus combinaciones: por ejemplo, losproductos a la medida del área de un rectángulo.

La Matemática del siglo XX 19

En el siglo XVII, Descartes inauguró un nuevo paradigma numé-rico, basado en lo que hoy llamamos análisis, es decir, en los númerosreales. La geometría se volvió analítica, y puntos y entidades geo-métricas se redujeron a coordenadas y ecuaciones: por ejemplo, lasrectas a las ecuaciones de primer grado.

En el siglo XIX se cerró el círculo, y el análisis rae reducido a laaritmética. Los números reales fueron definidos como conjuntos desus aproximaciones racionales, y la novedad esencial que permitióa los modernos esta transformación fue la consideración actual deinfinito, que los griegos, en cambio, rechazaban.

Retomaremosmás adelante todos estos fundamentos clásicos. Pe-ro el proceso de construcción y desconstrucción no se detuvo aquí.Por el contrario, justamente en el siglo XX surgieron muchas alterna-tivas que han disputado los favores de los matemáticos, y que hoypermiten considerar este siglo como un auténtico período de renova-ción de cimientos. La característica esencial de los nuevos fundamen-tos es que se basan, ya no en los objetos clásicos de la matemática, esdecir en entes numéricos o geométricos, sino en conceptos absoluta-mente nuevos, que cambiaron completamente su identidad formal ysustancial.

4.1. Década de 1920: Los Conjuntos

Cuando nos referimos a la base aritmética de los números reales,ya hemos introducido la palabra clave de la matemática del siglo XX:los conjuntos. El gran descubrimiento residió en que, sobre esta pala-bra, se pudiera basar el edificio entero, y fue gracias a Georg Cantor,que llegó a esta idea con motivaciones puramente matemáticas, vin-culadas con un estudio de problemas de análisis clásico.

Con motivaciones diferentes, relacionadas con el intento de de-

20 4. Fundamentos

mostrar que los conceptos y los objetos matemáticos son, en su esen-cia más profunda, de naturaleza puramente lógica, también GottlobFrege había desarrollado un enfoque equivalente al de Cantor, quehoy se denomina teoría ingenua de conjuntos.

Esta teoría se basa sólo en dos principios, que reducen los con-juntos a las propiedades que los definen. Primero, el principio de ex-tensión, ya enunciado por Gottfried Wilhelm Leibniz: un conjuntoestá completamente determinado por sus elementos, por lo tanto,dos conjuntos con los mismos elementos son iguales. Por otra par-te, el principio de comprensión: toda propiedad determina un conjunto,constituido por los objetos que satisfacen esa propiedad; y todo con-junto está determinado por una propiedad, que es precisamente lade ser un objeto que pertenece al conjunto.

El descubrimiento de que dos principios tan simples y lógicamen-te elementales fueran la base de toda la matemática se consideró elpunto de llegada de su historia: la geometría había sido reducida alanálisis, el análisis a la aritmética, y ahora el trabajo de Cantor y Fre-ge mostraba que, a su vez, la aritmética podía ser reducida a la teoríade conjuntos, es decir, a la lógica pura.

Pero esto era demasiado bello para ser verdadero, y uno de losprimeros descubrimientos del siglo XX fue, precisamente, que estasencilla cimentación era inconsistente; de aquí surge la calificaciónde “ingenua” En 1902, Bertrand Russell demostró que el principiode comprensión era contradictorio, con un razonamiento que se hizofamoso con el nombre de la paradoja de Russell.

Sustancialmente, los conjuntos de objetos se dividen en dos cla-ses, según se considere si son o no uno de los objetos contenidos en elconjunto mismo o, dicho de otra manera, si cada conjunto perteneceo no a sí mismo. Por ejemplo, el conjunto de los conjuntos con másde un elemento pertenece a sí mismo, porque en efecto tiene más de

La Matemática del siglo XX 21

un elemento. Y el conjunto de los conjuntos con un solo elementono pertenece a sí mismo porque, ciertamente, también este conjuntotiene más de un elemento.

El problema es: ¿el conjunto de todos los conjuntos que no per-tenecen a sí mismos, pertenece o no a sí mismo? Si es así, entonceses uno de los conjuntos que no pertenecen a sí mismos, y por tantono puede pertenecer a su colección, es decir, a sí mismo. Si no es así,entonces es uno de los conjuntos que no pertenecen a sí mismos, yentonces pertenece a su colección, es decir, a si mismo.

La solución o, mejor dicho, la remoción de la paradoja de Russellpasa hoy a través de una limitación del principio de comprensión,y una distinción entre clase y conjunto.Un conjunto es, simplemente,una clase que pertenece a otras clases: entonces, todos los conjuntosson clases, pero no todas las clases son conjuntos, y las que no lo sonse llaman clases propias.

Si se intenta reproducir el argumento de Russell considerando laclase de los conjuntos que no pertenecen a sí mismos, se obtiene unasorpresa. En efecto, esta clase no puede pertenecer a sí misma, puesde lo contrario sería un conjunto que no pertenece a sí mismo. En-tonces no pertenece a sí misma, y entonces o no es un conjunto o per-tenece a sí misma; como se acaba de excluir la segunda opción, debeser verdadera la primera. En otras palabras, esta vez no se encontróuna paradoja sino una demostración de que la clase de los conjuntosque no pertenecen a sí mismos es propia.

Naturalmente, la clase de las clases que no pertenecen a sí mis-mos es contradictoria, exactamente como antes. Entonces el principiode comprensión debe ser reformulado, diciendo que una propiedadde conjuntos siempre determina una clase. Pero así el principio pierdemucha fuerza, porque entonces sólo permite definir clases a partir deconjuntos, los que ya deben haber sido definidos de alguna manera.

22 4. Fundamentos

Y no hay soluciones indoloras o elegantes al problema, ya que lasolución natural que ofrece el axioma de comprensión es impractica-ble. Se trata entonces de abandonar el enfoque analítico o desde arri-ba y adoptar un enfoque sintético o desde abajo, enumerando unaserie de principios de existencia y de reglas de construcción de losconjuntos, que permitan generar algo provechoso pragmaticamente,es decir, todos los conjuntos de uso corriente, pero al mismo tiempoevitar lo perjudicial, es decir, todos los conjuntos paradójicos.

Una primera lista de axiomas fue compilada por Ernst Zermeloen 1908. Ante todo, esta lista requiere la existencia de al menos unconjunto, lo que no se puede demostrar considerando únicamente elaxioma de comprensión para las clases. Disponiendo de un puntode partida, se pueden construir luego otros conjuntos mediante di-versas operaciones, cuya factibilidad está garantizada precisamentepor los axiomas. Para los conjuntos, estas operaciones son análogasa las operaciones aritméticas; por ejemplo, la unión, el producto car-tesiano y el conjunto potencia para los conjuntos son versiones de lasuma, el producto y el elevamiento a potencia para los números.

Sin embargo, todas estas operaciones no permiten demostrar laexistencia de conjuntos infinitos, necesarios para reducir el análisisa la aritmética, es decir, los números reales a conjuntos (precisamen-te, infinitos) de números enteros. Por lo tanto, un axioma ulteriorrequiere la existencia de un conjunto infinito, uno, por ejemplo, cu-yos elementos satisfagan todos los axiomas restantes de la teoría deZermelo y que, por consiguiente, contiene en particular todas las po-tencias sucesivas de un conjunto finito.

La lista de Zermelo fue actualizada en 1921 por Abraham Fraen-kel, con el agregado de un axioma que afirma que los valores de unafunción definida sobre la base de un conjunto constituyen otro con-junto. Al sistema completo se lo denomina teoría de Zermelo y Fraenkel.

La Matemática del siglo XX 23

La teoría parece suficiente para los usos comunes de la matemá-tica, pero esto no significa que siempre lo será. Por ejemplo, en losaños 1960 el trabajo de Alexander Grothendieck, al que nos referire-mos más adelante, debió agregar un nuevo axioma: la existencia deun conjunto inaccesible, cuyos elementos satisfacen todos los axiomasde la teoría de Zermelo y Fraenkel, y que por consiguiente contieneen particular todas las potencias sucesivas de un conjunto infinito.

Más en general, en la segunda mitad del siglo se agregaron axio-mas de existencia de conjuntos cada vez más grandes, denominadosgrandes cardinales, y lo interesante es que permiten probar resultadosque se refieren a los números enteros, que no pueden probarse sinellos; en otras palabras, así como en la física parece haber una rela-ción entre la teoría cosmológica del universo en grande y la teoríacuántica del universo en pequeño, también en matemática existe unarelación entre la teoría global de los conjuntos y la teoría local de losnúmeros.

Sobre la base del teorema de la incompletud de Gödel acerca delcual volveremos a hablar, es imposible, de todos modos, formularun sistema de axiomas definitivo para la teoría de los conjuntos, o si-quiera para la teoría de los números. Por lo tanto, cualquier extensióndel sistema de Zermelo y Fraenkel está destinada a ser provisoria ysuplantada por las extensiones ulteriores que se tornarán necesariaspara una cada vez mejor, pero nunca conclusiva, comprensión de lanoción de conjunto.

4.2. Década de 1940: Las Estructuras

La teoría de los conjuntos fue, en el siglo XIX, el punto culminantede la concepción reduccionista de la matemática, que a través delanálisis lógico redujo precisamente la geometría al análisis, el análisisa la aritmética y la aritmética a la lógica. Pero el análisis lógico de la

24 4. Fundamentos

matemática presenta las mismas limitaciones que la crítica literaria:interesa a los especialistas pero no a los autores ni a los lectores, eneste caso, a los lógicos pero no a los matemáticos.

En efecto, para el matemático profesional, la teoría de los conjun-tos tenía (y tiene) dos desventajas evidentes. Ante todo, así como lateoría atómica no ha modificado la percepción de los objetos macros-cópicos en la vida cotidiana, la reducción de los objetos matemáticosa los conjuntos tampoco ha influido en la práctica; por ejemplo, parahacer cuentas no se piensa en los números enteros como clases deconjuntos equipotentes.

Además, si bien las paradojas han preocupado a los lógicos, handejado muy indiferentes a los matemáticos, que en general ven la(in)consistencia como un problema no de la matemática misma, sinode sus presentaciones formales; en este caso, de la teoría de los con-juntos y no de su práctica. Por lo tanto, la teoría de Zermelo y Fraenkelfue considerada como la solución compleja de un problema irrele-vante.

Como conclusión, la teoría de los conjuntos parece haber dejadoal matemático profesional sólo dos contribuciones, ambas esencialespero independientes de axiomatizaciones particulares. Por un lado,una teoría de los conjuntos infinitos, o sea, como dijo David Hilbert,ese “paraíso creado por Cantor, del que nadie nos podrá echar”. Porotra parte, un conveniente lenguaje para la formulación de los con-ceptos, cada vez más abstractos, que produce la práctica moderna.

En los años 1930, un grupo de matemáticos franceses, conocidocon el nombre colectivo de Nicolas Bourbaki, se propuso entoncesfundar la matemática de manera más significativa para los matemá-ticos, y encontró una solución en un análisis que ya no era lógico sinoestructural. El grupo se embarcó en el proyecto infinito, y por lo tan-to jamás concluido, de preparar un manual que describiera el estado

La Matemática del siglo XX 25

del arte de la matemática contemporánea; el manual se llamó, conuna obvia referencia a Euclides, Elementos de matemática, y el primerfascículo se publicó en 1939.

Como en la obra de Euclides, el manual se dividió en libros, delos cuales los seis primeros estaban dedicados a los fundamentos.La nómina de los libros testimonia ya el redimensionamiento del rolfundacional de la teoría de conjuntos, de la que se habla sólo en elprimero. En los otros cinco, en cambio, se consideran el álgebra, latopología, las funciones de variables reales, los espacios vectorialestopológicos y la integración.

En 1949, Bourbaki retomó sus posiciones filosóficas, que en aquelmomento ya eran las dominantes, en un artículo titulado elocuente-mente “Los fundamentos de la matemática para el matemático” (yno para el lógico). En él se enunció la afirmación abstracta de que to-da la matemática contemporánea se puede construir basándose en lanoción de estructura, y el manual que se estaba escribiendo fue pre-sentado como la demostración concreta de que esta afirmación eracorrecta.

La idea fundamental del concepto de estructura se puede explicarcon un ejemplo. En la teoría de conjuntos, los números reales se de-finen artificialmente como conjuntos de números enteros, y las ope-raciones y las relaciones basadas en ellos se reducen artificialmente aoperaciones y relaciones de conjuntos. En el enfoque de Bourbaki, encambio, los números reales y sus operaciones y relaciones se tomancomo datos, y se aislan sus propiedades de manera abstracta.

Desde un primer punto de vista, se trata de describir las propie-dades de las operaciones de suma y producto. Por ejemplo, existendos elementos neutros, el 0 para la suma y el 1 para el producto; am-bas operaciones son asociativas y conmutativas e inverübles (salvopara la división por 0); y el producto es distributivo respecto de la

26 4. Fundamentos

suma. Estas propiedades se encuadran en un estudio general de lasestructuras algebraicas, cuyos ejemplos más comunes son: monoides,grupos, anillos, cuerpos y campos. Los números reales constituyen,precisamente, un ejemplo de campo.

Desde un segundo punto de vista, se trata en cambio de describirlas propiedades del orden. Por ejemplo, cada par de números realeses comparable; entre dos números distintos siempre hay un tercero;y no hay espacios vacíos. Estas propiedades se encuadran en un estu-dio general de las estructuras de orden y se expresan con los conceptosde totalidad, densidad y completitud.

Desde un tercer punto de vista, no se trata de describir las propie-dades de los números reales individuales, sino de sus entornos. Porejemplo, los números reales constituyen un conjunto sin interrup-ciones; cada par de números se puede separar mediante intervalosabiertos; y se necesitan infinitos intervalos abiertos para cubrir todoel conjunto de los números reales. Estas propiedades se encuadranen un estudio general de las estructuras topológicas, y se expresan conlos conceptos de conexión, separabilidad y (no) compacidad.

Los tres puntos de vista aislados se pueden integrar luego entresí. Por ejemplo, las operaciones de suma y producto son compatiblescon las relaciones de orden y de distancia, en el sentido de que laspreservan (excepto el producto por un número negativo, que invierteel orden). Estas propiedades se encuadran en un estudio general delas estructuras algebraicas ordenadas y de las estructuras algebraicas to-pológicas y en las cuales las operaciones algebraicas son precisamentecompatibles, respectivamente, con el orden y la distancia, y los nú-meros reales son un ejemplo de campo ordenado y topológico.

Si bien las estructuras ya existían antes de Bourbaki, la importan-cia de su trabajo fue haber demostrado que en ellas se podía fundarla matemática. El enfoque tuvo un gran éxito, porque un número su-

La Matemática del siglo XX 27

ficientemente reducido de estructuras madre resultó adecuado paratratar una gran cantidad de casos interesantes, con una óptima re-lación de eficiencia. Y la influencia de Bourbaki es evidente hoy enlas divisiones modernas de la matemática, que ya no son las clásicasaritmética, álgebra, análisis y geometría, sino una enorme variedadde híbridos, como el álgebra topológica o la geometría algebraica.

Pero las ventajas del bourbakismo no fueron sólo pragmáticas;también desde un punto de vista teórico resultó ser un paso haciaadelante respecto del enfoque de los conjuntos. Dejando de lado la li-mitada consideración de conjuntos vinculados por funciones, la aten-ción se concentró en los conjuntos estructurales, vinculados por fun-ciones que preservan la estructura, una abstracción menos artificial ydrástica, que pudo capturar mejor la esencia de los objetos matemá-ticos.

4.3. Década de 1960: Las Categorías

Si bien los fundamentos de la teoría de conjuntos y los bourba-kistas fueron considerados satisfactorios para una buena parte de lamatemática, y lo siguen siendo, en algunos campos los conceptos deconjunto y estructura resultaron demasiado limitados y necesitaronuna extensión. Por ejemplo, como ya lo habíamos señalado, Grothen-dieck tuvo que introducir la consideración de un conjunto inaccesi-ble, por lo tanto, de la clase de todos los conjuntos que satisfacen losaxiomas de la teoría de Zermelo y Fraenkel. Pero a la necesidad deuna extensión del enfoque estructural se llega también con conside-raciones teóricas y no sólo por motivaciones prácticas.

El proceso que lleva de un ejemplo concreto, como los númerosreales, a una estructura abstracta, como los campos topológicos, porun ladomantiene algunas propiedades significativas del ejemplo, pe-ro por el otro le quita muchas otras. Sólo en casos excepcionales una

28 4. Fundamentos

estructura admite sustancialmente un solo ejemplo y puede, por lotanto, describirlo completamente. En cambio, cuando una estructuraadmite muchos ejemplos radicalmente diferentes, como por lo ge-neral ocurre cuando se focalizan las generalidades comunes de susmúltiples realizaciones, automáticamente desenfoca sus particulari-dades individuales.

Un modo de reivindicar la variedad de los ejemplos consiste eninvertir el proceso de abstracción, considerando la clase de todos losposibles ejemplos de una estructura de cierto tipo, vinculados portodas las posibles fundones que preservan su estructura; de este mo-do se llega al concepto de categoría, introducido en 1945 por SamuelEiknberg y Saunders MacLane. Que su trabajo es un complementonatural del de Bourbaki lo indica el hecho de que Eilenberg fue unode los miembros del grupo, es más, fue el único miembro no francésde toda su historia (y premio Wolf en 1986).

Pero para poder considerar el concepto de categoría como un aná-lisis del concepto de estructura, se necesita un nuevo esfuerzo de abs-tracción, es decir, se trata de determinar qué hay en común entre losdistintos ejemplos de categorías obtenidos de las distintas estructu-ras. Aunque a primera vista su enorme variedad lleva a pensar queestos ejemplos tienen muy poco en común, el sorprendente descu-brimiento de Eilenberg y MacLane reside en que siempre compartenalgo esencial: el hecho de estar constituidos por una clase de conjun-tos vinculados por funciones que se pueden componer entre sí demanera asociativa, y entre las cuales al menos la función siempre esidéntica.

Igualmente sorprendente fue la observación de que, dado que lasfunciones llevan automáticamente consigo los conjuntos de sus argu-mentos y de sus valores, en realidad, no hay necesidad de hablar deestos conjuntos. De estamanera, ya no hace falta ningún uso residual

La Matemática del siglo XX 29

de la teoría ingenua de los conjuntos, que todavía estaba presente enla noción de conjunto estructurado, y se obtiene un fundamento al-ternativo y completamente autosuficiente de la matemática, basadoen conceptos que ya no son de conjunto y de pertenencia, sino defunción y composición.

Además, ya que los conjuntos vinculados por funciones son unejemplo particular de categoría, basta caracterizar completamente demanera categórica sus propiedades para reducir toda la teoría de losconjuntos a la teoría de las categorías. Tal caracterización fue encon-trada porWilliam Lawvere en 1964, e irónicamente constituye un pa-so ulterior de análisis lógico: así como toda la matemática del sigloXIX había sido reformulada en conceptos de conjunto, en este caso setrata de reformular estosmismos conceptos en términos de categoría.

La teoría de las categorías resultó ser un fundamento global yunitario para la matemática, que contiene como casos particularestanto los conjuntos de Zermelo y Fraenkel, como las estructuras deBourbaki. Ello estimula un proceso ulterior de abstracción: así comolos conjuntos se pueden vincular entre sí mediante funciones, y lasestructuras de un mismo tipo se pueden vincular entre sí median-te funciones que preservan esa estructura, llamadas morfismos, tam-bién es posible vincular entre sí las categorías mediante funcionesque preservan las propiedades categóricas, llamadas funtores.

Así como los conjuntos con las funciones o las estructuras con losmorfismos constituyen categorías, uno se ve tentado de afirmar quelas categorías con los funtores constituyen la categoría de las categorías.Pero el problema es que, desde el punto de vista de los conjuntos,muchas categorías constituyen una clase propia, es decir, no puedenformar parte de otras clases, ni constituir particularmente los objetosde otra categoría.

La primera solución es restringir la atención a las denominadas

30 4. Fundamentos

categorías pequeñas, que constituyen un conjunta De este modo, seobtiene efectivamente la categoría de las categorías pequeñas, que gene-raliza el concepto de clase de todos los conjuntos. Ésta contiene mu-chos ejemplos interesantes, pero obviamente no aquéllos de los quehemos hablado, es decir, la categoría de los conjuntos y las categoríasde las estructuras.

La segunda solución es la ya mencionada propuesta de Grothen-dieck, que precisamente surgió en este ámbito: ampliar la teoría delos conjuntos con nuevos axiomas que permitan considerar clases declases, clases de clases de clases, y así sucesivamente. Dependiendode la potencia de estos axiomas, se obtienen categorías cuyos objetosson clases, clases de clases y así sucesivamente, pero en ningún casose llega a la categoría de todas las categorías.

La tercera solución, quizás la más satisfactoria, es una axiomati-zación de la nociónmisma de categoría. La propuso Lawvere en 1966y en este ámbito desempeña un rol análogo a la axiomatización de lanoción de conjunto de Zermelo y Fraenkel. Además, cuando la axio-matización de Lawvere se reduce a las categorías discretas, que sonaquellas en las que las únicas funciones presentes son las identida-des, se obtiene una axiomatización de la teoría de los conjuntos demanera categórica.

Estos desarrollos permiten a la teoría de las categorías reivindicarun rol significativo de fundamento de la matemática para los mate-máticos, expresamente declarado en 1971 en el título del clásico textodeMacLane, Categories for the working mathematician [Categorías en lapráctica matemática].

Ello no significa que las categorías no tengan nada que ofrecer alos lógicos. Como ejemplo, basta considerar la teoría de los tipos, queRussell, introdujo en 1908 como posible solución a las paradojas, yque es una versión de la teoría ingenua de los conjuntos, basada en

La Matemática del siglo XX 31

los axiomas de de extensión y comprensión, con la particularidad deque los conjuntos no son de un solo tipo y que una propiedad deobjetos de cierto tipo determina un conjunto del tipo sucesivo. En1969 Lawvere formuló la teoría de los tipos en versión categórica, yobtuvo la teoría de los tópoi, en la cual se puede desarrollar una lógica,que resultó ser equivalente a la lógica intuicionista, introducida porel topólogo Luitzen Brouwer en 1912, y más general que la clásicaaristotélica.

Partiendo de motivaciones de geometría algebraica, completa-mente distintas de las anteriores, también Grothendieck llegó de ma-nera independiente a la teoría de los tópoi, que de este modo resul-ta ser un punto de convergencia de muchas disciplinas, y permitióidentificar el motivo que impide a la teoría de los conjuntos llegar aser un fundamento general de la matemática; simplificando, los con-juntos forman un tópos cuya lógica es clásica y, por lo tanto, demasia-do simple como para rendir cuenta, por ejemplo, de la complejidadde la topología y de la geometría algebraica.

4.4. Década de 1980: El Lambda Cálculo

La teoría de los conjuntos brindó a los lógicos un fundamentoadecuado contra las paradojas. En cambio, los matemáticos, cuya la-bor cotidiana no está relacionada en lo más mínimo con la proble-mática de las paradojas, encontraron en las estructuras de Bourbakiy en la teoría de las categorías fundamentos más adecuados para supráctica.

Pero ninguno de los tres enfoques es satisfactorio desde el puntode vista de los informáticos, que emplean masivamente algoritmos yprogramas que trabajan sobre datos, es decir, funciones que se apli-can a argumentos. Sólo la teoría de categorías trata directamente defunciones, que no se aplican a argumentos, sino compuestas entre sí;

32 4. Fundamentos

la informática teórica exige pues un fundamento alternativo, y lo en-cuentra en el Lambda Cálculo propuesto por Alonzo Church en 1933.

La idea de Church fue, precisamente, explorar un enfoque alter-nativo para los fundamentos de la matemática, paralelo a la teoríade Cantor y Frege, pero basado en el concepto de función en lugardel de conjunto, según el siguiente esquema: una función correspon-de a un conjunto, un argumento de una función corresponde a unelemento de un conjunto, la aplicación de una función a un argu-mento corresponde a la pertenencia de un elemento a un conjunto yla definición de una función mediante una descripción de los valorescorresponde a la definición de un conjunto mediante una propiedadde los elementos.

Por lo tanto, la teoría ingenua de los conjuntos se traduce auto-máticamente en una teoría ingenua de las funciones. Y se basa en dosúnicos principios, que reducen las funciones a las descripciones desus valores. Ante todo, el principio de extensión: una función está com-pletamente determinada por sus valores y, por lo tanto, dos funcio-nes que poseen los mismos valores para los mismos argumentos soniguales. Y, por otra parte, el principio de comprensión: cada descripciónde valores determina una función, y cada función está determinadapor una descripción de valores.

Pero si la teoría ingenua de los conjuntos había logrado generargrandes esperanzas antes de la paradoja de Russell, después de éstala teoría ingenua de las funciones parece destinada a ofrecer pocasesperanzas. En particular se puede pensar que la paradoja se puedereproducir fácilmente también en este nuevo contexto.

En efecto, tratando de reproducirlo, se cae inmediatamente en unproblema: qué significado se debe asignar a la negación en el ámbitode las funciones; la cuestión se puede dejar de lado por un momen-to suponiendo que exista precisamente una función n que actúe de

La Matemática del siglo XX 33

algún modo análogo a la negación. Ya que la paradoja de Russell sebasaba en el conjunto de los conjuntos que no pertenecían a si mis-mos, en este caso se trata de considerar la función cuyos valores endeterminado argumento se obtienen aplicando n al resultado de laaplicación del argumento a sí mismo.

Pero surge un problema: ¿cuál es el resultado de la aplicación detal función a sí misma? Para la definición que se acaba de dar, tal va-lor se obtiene aplicando n al resultado de la aplicación de la funcióna sí misma, entonces, ese es un argumento que no cambia aplicandon. En efecto, ésta es una contradicción si se supone que n es una fun-ción que cambia todos los argumentos a los que se aplica, pero nadaindica que sea así. Por el contrario, el razonamiento demuestra preci-samente que no puede ser así si la teoría es consistente, en el sentidode que ninguna función puede asignar valores distintos a un mismoargumento.

Se obtendría una contradicción sólo si se supiera que la teoríaes inconsistente (en el sentido que se acaba de describir), pero eneste caso el razonamiento resulta inútil, porque era justamente lo queintentaba demostrar. Pero si la teoría es consistente, el argumentoprueba que ninguna función de la teoría puede cambiar todos susargumentos; dicho de otro modo, cada función debe dejar invariadoal menos un argumento, que por este motivo se denomina punto fijo.

Por lo tanto, el argumento de Russell no es suficiente para demos-trar la incosistencia de la teoría de Church, y esto ya es un primer re-sultado parcial. Todavía se puede pensar que algún argumento máscomplicado pueda lograrlo, pero en 1936 Church y John Barkley Ros-ser demostraron un famoso y difícil teorema, del que se deduce quela teoría es consistente, pues una función también puede no asignarningún valor al argumento, pero si asigna uno éste es único.

El teorema de Church y Rosser demostró que el Lambda Cálculo

34 4. Fundamentos

era una teoría singular, al mismo tiempo basada en principios inge-nuos y demostrablemente consistente, por lo tanto al reparo de lasparadojas, no sólo actuales, sino también potenciales. Pero a prime-ra vista, la cura pareció más dolorosa que la enfermedad: el precio apagar por la consistencia era la imposibilidad de definir dentro de lateoría una función análoga a la negación y, más en general, de englo-bar en ella a la lógica. En un período en que la fascinación por el plande reducción de toda la matemática a la lógica todavía era fuerte, noobstante sus evidentes dificultades, la cuestión pareció inaceptable,y el Lambda Cálculo no fue considerado como un fundamento ade-cuado para la matemática.

Pero ya en 1936 Church y Stephen Kleene demostraron que elLambda Cálculo se podía englobar en la aritmética. Actualmente, esposible reformular su resultado de la siguiente manera: las funcio-nes que se pueden representaren el Lambda Cálculo son exactamentelas que se pueden describir en cualquiera de los lenguajes comunesde programación universal para ordenadores. Naturalmente, el re-sultado de Church y Kleene era futurista, ya que en aquel entoncesno existían los ordenadores, y su formulación originaria no podíademostrar todas sus potencialidades. Pero con la llegada de los or-denadores se hicieron evidentes y la teoría fue reconocida como elfundamento adecuado para la informática.

En particular, el teorema del punto fijo se convirtió en la justifi-cación teórica de los programas autorreferenciales o recursivos, queson de uso común en la programación. Y la semántica denotacionaldel Lambda Cálculo, inaugurada en 1969 por Dana Scott, desarrollótécnicas que permiten interpretar los programas para ordenadorescomo auténticos objetos de naturaleza matemática, demostrando deeste modo que la informática puede ser considerada, con justa razón,como una de las nuevas ramas de la matemática moderna. Por este

La Matemática del siglo XX 35

trabajo, Scott recibió en 1976 el Turing Award el premio para informá-tica análogo a la medalla Fields o al premio Nobel.

36 4. Fundamentos

5

Matemática Pura

Durante milenios, la historia de la matemática ha sido, en sus-tancia, la historia del progreso en el conocimiento de entidades nu-méricas y geométricas. Pero en los últimos siglos, y sobre todo en elsiglo XX, han surgido nuevas y variadas entidades, que subordina-das plácidamente en un primer momento al estudio de los objetosclásicos, posteriormente adquirieron una impetuosa independenciae inspiraron la denominada nueva edad de oro de la matemática.

Si bien la matemática moderna es, por un lado, el producto de undesarrollo que se origina en problemáticas concretas y clásicas, porotro lado, es también el testimonio de una actividad que encuentrasu expresión en construcciones abstractas y contemporáneas. Esen-cialmente, la matemática clásica se reducía a cuatro áreas, dedicadasrespectivamente al estudio de lo discreto y de lo continuo, es decir,de los números y de las figuras: aritmética y álgebra por un lado,geometría y análisis por el otro. Pero no es tan fácil enumerar lasdisciplinas de la matemática moderna, que se recen sustancialmenteal estudio de las distintas estructuras algebraicas, topológicas y deorden, y a sus combinaciones.

37

38 5. Matemática Pura

Aunque los peligros de esta proliferación, a los que ya hicimosreferencia en la Introducción, son reales, te conjuran cuando se com-prueba que, más allá de la fragmentación aparente, la matemática delsiglo XX exhibe una uni dad sustancial de sus disciplinas. En efecto, elarchipiélago de la matemática moderna está conectado por caminossubterráneos, misteriosos e invisibles, que son develados por inespe-radas convergencias, que los hacen emerger y aflorar lentamente.

Un símbolo de esta unidad es el episodio del teorema de Fermat, so-bre el cual nos explayaremos más adelante. Sus raíces se encuentranen los estudios pitagóricos sobre los números enteros, que culmina-ron en el siglo III a.C en los Elementos de Euclides. En el siglo III d.C.Diofanto de Alejandría inició un estudio de las soluciones enterasde ecuaciones con coeficientes enteros, y las trató detalladamente enAritmética, una obra en trece libros, de los cuales sólo sobrevivieronseis. En el siglo XVII, Pierre de Fermat estudió la obra de Diofanto yanotó en los márgenes de su copia 48 observaciones, sin demostra-ción alguna.

En el siglo XVIII, todas las observaciones de Fermat habían sidodemostradas, con una sola excepción, que por eso, se conoció comoel último teorema de Fermat si bien existen dos cuadrados de númerosenteros cuya suma es un cuadrado (por ejemplo 9 y 16, cuya sumaes 25), no existen dos cubos cuya suma sea un cubo, ni dos potenciasn-ésimas cuya suma sea una potencia n-ésima, si n es mayor que 2.En el siglo XIX, los intentos por demostrar el último teorema de Fer-mat provocaron importantes progresos en la teoría de números y laconfirmación del teorema para un número cada vez más grande deexponentes, pero no una demostración general.

En 1995, Andrew Wiles obtuvo la demostración general, a tra-vés de un enfoque indirecto que, a primera vista, parece totalmentedesvinculado del problema, y utilizando un arsenal de técnicas com-

La Matemática del siglo XX 39

pletamente abstractas. Para resolver un sencillo problema numérico,con un enunciado elemental y clásico, fue necesario apelar a una granparte de la matemática superior y moderna. Y el episodio es un ejem-plo, no sólo de la aparente continuidad dinámica, diacrónica y verti-cal de cada área de la matemática, sino también de la oculta conexiónestática, sincrónica y horizontal entre las áreas más diferentes.

Típico de esta visión de la matemática como un todo unitario es elprograma de Langlands: enunciado en los años 1960 por Robert Lang-lands, el programa especifica una serie de conjeturas sobre las po-sibles conexiones entre áreas diferentes, y la demostración de Wilesconstituye una todavía parcial, pero ya sustanciosa, realización. Enreconocimiento por esta obra de unificación, Langlands y Wiles reci-bieron el premio Wolf en 1995/1996.

Si bien la teoría de los números, de la cual el teorema de Fermates uno de los enunciados, es quizá la disciplina en la cual las cone-xiones típicas de la matemática contemporánea entre lo diacrónico ylo sincrónico, lo clásico y lo moderno, lo concreto y lo abstracto semanifiestan de la manera más espectacular, está bien lejos de ser laúnica.

Otro episodio simbólico es el estudio del círculo y la esfera, quese encuentran entre los objetos aparentemente más simples estudia-dos por la geometría. Arquímedes fue el primero en descubrir, en elaño 225 a.C., la existencia de una misteriosa conexión entre algunosde sus aspectos: la circunferencia y el área del círculo, así como lasuperficie y el volumen de la esfera, están todos vinculados con lamisma constante π, y para calcularla se desarrollaron durante siglosvarios métodos (geométricos, algebraicos y analíticos).

No obstante la aparente simpleza de círculo y esfera, algunos pro-gresos sustanciales en su estudio debieron esperar hasta el siglo XIX.Ante todo, fue necesario el desarrollo de métodos algebraicos y ana-

40 5. Matemática Pura

líticos sofisticados para demostrar la imposibilidad del problema pu-ramente geométrico de la cuadratura del círculo (la construcción me-diante regla y compás de un cuadrado de área igual a la de un círcu-lo dado). Además, algunos métodos topológicos permitieron distin-guir la esfera de otras superficies cerradas del espacio tridimensional;sustancialmente, la esfera es la única superficie que permite que unelástico extendido sobre sí mismo se contraiga hasta alcanzar un so-lo punto. Por último, algunos métodos diferenciales permitieron de-mostrar que el cálculo infinitesimal se puede extender desde el planoa la esfera de una sola manera.

Algunos de los estudios fundamentales de la matemática del si-glo XX se refieren a la hiperesfera, que es para el espacio de 4 dimen-siones lo que el círculo y la esfera son para el espacio de 2 y 3 dimen-siones. Uno de los problemas abiertos más importantes de la mate-mática moderna, y que discutiremos más adelante, llamado conjeturade Poincaré, se pregunta si vale una caracterización topológica de lahiperesfera análoga a la de la esfera. Pero ya se ha demostrado queel cálculo infinitesimal se puede extender del espacio a la hiperesferade una sola manera.

Círculo, esfera e hiperesfera son casos particulares de esferas enn dimensiones en espacios de n + 1 dimensiones, y algunos de losresultados más importantes y profundos de la matemática moder-na, de los que hablaremos más adelante, se obtuvieron precisamenteconsiderando esferas de varias dimensiones. Por ejemplo, lo análogoa la conjetura de Poincaré se demostró para las esferas de cualquiernúmero de dimensiones mayor que 3, y se encontraron muchas ma-neras no equivalentes de extender el cálculo infinitesimal a la esferade 7 dimensiones.

Estos y otros resultados han revelado una paradoja aparente: cuan-do se aumenta el número de dimensiones, aunque los objetos se tor-

La Matemática del siglo XX 41

nan cada vez más difíciles de visualizar intuitivamente, se hacenmásfáciles de tratar matemáticamente, porque hay más espacio para ma-nipularlos. Por ejemplo, dar vuelta un guante derecho para conver-tirlo en un guante izquierdo es fácil en el espacio de cuatro dimen-siones, pero difícil (aunque no imposible para un teorema de StephenSmale de 1959) en el espacio de tres dimensiones.

Esta impresión también se confirma en un nivel elemental, porejemplo, con el cómputo del número de los “poliedros” regulares,que son 5 en el espacio de 3 dimensiones (los famosos sólidos plató-nicos), 6 en el espacio de 4 dimensiones, pero sólo 3 en los espaciosde dimensiones mayores. Irónicamente, los casos más difíciles de es-tudiar resultan ser justamente los de 3 y 4 dimensiones, los que co-rresponden al espacio y al espacio-tiempo en que vivimos. Los ejem-plos anteriores muestran de qué manera también el estudio de pro-piedades elementales de objetos simples, como los números enterosy las figuras geométricas, puede necesitar el desarrollo de técnicassofisticadas y de áreas abstractas. Y ya que es esta perspectiva, pre-cisamente, la que permite justificar a posteriori tanto los objetos comolos métodos de la matemática moderna, nos atendremos a ella paraexponer sus etapas más significativas.

5.1. Análisis: La medida de Lebegue (1902)

Por su propia definición, la geometría (de geo “tierra” y metrein“medida”) se ocupa de problemas referidos a longitudes de curvas,áreas de superficies y volúmenes de sólidos. Estos problemas fue-ron afrontados de manera sistemática a partir de los Elementos deEuclides, que en el año 300 a.C proporcionaron un fundamento geo-métrico a toda la matemática griega.

Consideremos por ejemplo, para fijar la atención, el problema delárea. Euclides no dio ninguna definición ni del área ni de alguna de

42 5. Matemática Pura

sus medidas, pero enunció algunas “nociones comunes” de las quese deducen las siguientes propiedades: superficies “iguales” tienenáreas iguales (invarianza); una superficie que se obtiene “sumando”entre sí un número finito de superficies tiene un área igual a la sumade las áreas de éstas (aditividad finita); una superficie contenida enotra tiene un área menor o igual a ésta (monotonía).

Sobre la base de las dos primeras nociones, se puede llegar a asig-nar un área a cada polígono en dos pasos: por una parte, asignandoun área a cada triángulo (por ejemplo, “base por altura dividido 2”);por otro lado, descomponiendo el polígono en triángulos y suman-do sus áreas. Naturalmente, para que todo funcione se deberá de-mostrar, por un lado, que el área de un triángulo no depende de laelección de la base y de su respectiva altura; por otro lado, que el áreade un polígono no depende de la elección de la triangulación.

Aunque estos desarrollos están implícitos en Euclides, su trata-miento era extremadamente carente desde un punto de vista lógicoy usaba, en particular, numerosas suposiciones escondidas, que seexplicitaron cuidadosamente sólo en el siglo XVII. E1 trabajo de sis-tematización de la geometría de Euclides se concluyó en 1899, con lapublicación de los Fundamentos de la geometría de Hilbert.

En 1833, Jànos Bolyai demostró un teorema interesante, que com-plementó los resultados de Euclides que acabamos de mencionar. Es-te teorema explicaba que dos polígonos que tienen el misma área sepueden descomponer en un número finito de triángulos equivalen-tes. En particular, todo polígono se puede “cuadrar” en el sentidode descomponerlo en un número finito de triángulos que, vueltos acomponer, constituyen un cuadrado con la misma área. O viceversa,un cuadrado se puede convertir en un polígono cualquiera volvien-do a componer una apropiada descomposición del mismo en trián-gulos (Figura 2).

La Matemática del siglo XX 43

En lo que respecta a los volúmenes de poliedros, se puede imagi-nar un tratamiento análogo, en el que las triangulaciones se sustitu-yan por descomposiciones en tetraedros. El tercer problema de Hilbertpreguntaba si vale un teorema análogo al de Bolyai, es decir, si todopoliedro se puede descomponer en un número finito de tetraedrosque, vueltos a componer, constituyan un cubo con el mismo volu-men. Max Dehn dio inmediatamente una respuesta negativa; él de-mostró, por ejemplo, que esto no es posible ni siquiera para los mis-mos tetraedros.

bb b

b

Figura 2. “Cuadratura” de un triángulo

Una vez resuelto el problema del área para las figuras rectilíneascomo los polígonos, se debe pasar, naturalmente, al del área de lasfiguras curvilíneas, ante todo a la del círculo. La idea es aproximarestas figuras mediante polígonos, ya sea desde el interior como des-de el exterior: para la tercera noción común de Euclides, el área de lafigura curvilínea estará comprendida entre las áreas de estas aproxi-maciones, y si éstas tienden a un límite común, el área de la figuracoincidirá con este límite.

Sin embargo, esta noción general es bastante reciente (fue intro-ducida en 1887 por Giuseppe Peano y en 1893 por Camille Jordan).Un primer caso especial, que usa polígonos (semi)regulares, es elmé-todo de exhaución de Eudoxio, del siglo IV a.C., empleado por Arquí-medes alrededor del 225 a.C. para calcular el área del círculo y lasuperficie de la esfera. Un segundo caso especial, que usa polígonos

44 5. Matemática Pura

constituidos por un número finito de rectángulos, es la integral deRiemann, introducida en 1854 por Bernhard Riemann, y que permitecalcular el área de cualquier superficie cuyo borde esté delimitadopor funciones continuas.

En realidad, desde el siglo XVII al XIX, la existencia del área deuna superficie se daba por descontada, y las integrales se considera-ban sólo el método para calcularla. Fue Augustin Cauchy, en 1823,quien dio un vuelco a este enfoque, y definió el área como la integralmisma; esto planteó el problema de determinar cuáles eran las su-perficies que tenían un área y, en particular, cuáles eran las funcionesque tenían una integral.

La noción de integral de Riemann es muy general y permite in-tegrar también funciones con infinitas discontinuidades, si éstas noconstituyen un conjunto “desmedido”. Hacia finales del siglo XX, conla proliferación de ejemplos de funciones no integrables en el sen-tido de Riemann, se hizo necesario poder precisar una medida delconjunto de discontinuidades, que permitiera separar las funcionesintegrables de las que no lo son.

La noción introducida por Peano y Jordan no resultó suficiente,y el problema fue resuelto definitivamente por Henri Lebesgue, en1902, con el concepto de medida de Lebesgue. Sustancialmente, Lebes-gue suplantó la aditividad finita de Euclides por la aditividad nume-rable: una superficie que se obtiene “sumando” entre sí una cantidadnumerable de superficies tiene un área igual a la suma de las áreasde éstas, Y hoy se considera a una superficie dotada de área (o a unsólido dotado de volumen) cuando es medible en el sentido de Le-besgue.

Seguro con su definición de conjunto medible, Lebesgue pudodemostrar que una función es integrable en el sentido de Riemannexactamente cuando el conjunto de sus discontinuidades mide 0, lo

La Matemática del siglo XX 45

que no excluye que el conjunto pueda ser muy grande y contener,por ejemplo, tantos puntos como el conjunto mismo de los númerosreales, aunque no pueda ser demasiado “denso”.

Además, así como la integral de Riemann es un caso particular dela medida de Peano o Jordan, se puede definir una integral de Lebesguecomo un caso particular de la medida de Lebesgue. Las funcionesintegrables en el sentido de Riemann también lo son en el sentido deLebesgue, y con el mismo valor, pero existen funciones integrablesen el sentido de Lebesgue que no lo son en el sentido de Riemann.

En cuanto al problema de determinar cuáles conjuntos son medi-bles, Giuseppe Vitali demostró inmediatamente que no todos lo son.Luego se descubrió que con los conjuntos no medibles se pueden ha-cer cosas que no se pueden hacer con los conjuntos medibles. Hastael punto de que, por la costumbre de tratar con conjuntos medibles,aquéllos no medibles pueden parecer paradójicos.

Por ejemplo, en 1914, Félix Hausdorff demostró que dada una es-fera, es posible subdividir su superficie en un número finito de piezas(obviamente, no medibles) que, vueltas a componer, constituyen dosesferas, cada una con la misma área de la inicial. Y en 1924, StefanBanach y Alfred Tarski demostraron un resultado análogo para losvolúmenes. En otras palabras, en el espacio, las áreas y los volúme-nes no se preservan por descomposición en piezas no medibles.

Una analogía de esas paradojas no es posible en el plano. Pero, en1988, Miklos Laczkovich demostró que, dado un circulo, es posiblesubdividirlo en un número finito (aunque enorme: 1050 aproximada-mente) de piezas (no medibles) que, vueltas a componer, constituyenun cuadrado con el misma área. En otras palabras, en el plano la cur-vatura no se preserva por descomposición en piezas no medibles.

46 5. Matemática Pura

5.2. Álgebra: La Clasificación de los campos de Steinitz (1910)

Como lo indica su nombre, los números naturales constituyen unade las intuiciones primordiales de la matemática: en cuanto proba-bles abstracciones de los latidos del corazón, tienen sus raíces en eldevenir y el tiempo, así como los puntos geométricos son, en cambio,una abstracción del ser y del espacio.

Históricamente, la primera extensión de los naturales fue la delos números racionales positivos, permite una inversión del producto.Puesto que la división no presenta grandes dificultades conceptuales,los racionales ya estaban bien establecidos en el siglo VI a.C., y fuerontomados por los pitagóricos como fundamento de su filosofía.

En cambio, la extensión de los números naturales a los númerosenteros, positivos y negativos, necesitó dos innovaciones esenciales.La primera fue la aparición del cero, cuya ausencia ni siquiera per-mite presentar el problema de la inversión de la suma; el cero fueintroducido en el siglo VII d.C. por los hindúes, y en la segunda mi-tad del primer milenio por los mayas. La segunda innovación fue laconsideración de cantidades negativas, que no tienen sentido hastaque los números se consideran a la manera griega, como medidas decantidades geométricas; también los negativos fueron introducidosen el siglo VII d.C. por los hindúes, para medir deudas.

Si se integran las dos extensiones anteriores a la consideración delos números racionales, tanto positivos como negativos, se obtiene elprimer ejemplo de campo, es decir, según la definición dada porHein-richWeber en 1893, de un conjunto de elementos dotado de operacio-nes de suma y producto que poseen las propiedades usuales, inclusola invertibilidad. Los hindúes fueron los primeros en adoptar explí-citamente el campo de los racionales, pero los árabes primero y loseuropeos después rechazaron los números negativos hasta el sigloXVIII y, aún en 1831, Augustus de Morgan negaba su sensatez.

La Matemática del siglo XX 47

Un segundo ejemplo típico de campo lo dan los números reales.Mientras que los irracionales fueron descubiertos por los pitagóricosy manipulados formalmente por hindúes y árabes, aquéllos no fue-ron considerados como números sino hasta el siglo XVII, a partir deRenéDescartes y JohnWallis. Y hubo que esperar hastamediados delsiglo XIX para llegar a definiciones de los números reales, basadas enlos números racionales, las secciones de Richard Dedekind en 1958 ylas sucesiones convergentes de Georg Cantor (y otros) en 1872.

Los números complejos fueron introducidos por Gerolamo Cardanoen 1545, para solucionar las ecuaciones de tercer grado, y las ope-raciones de campo basadas en estos números fueron definidas porRaffaele Bombelli en 1572; pero, en ambos casos, se trataba de arti-ficios formales con puros símbolos, que no representaban más que“números imaginarios”, actitud que persistió hasta el siglo XVIII. Só-lo el teorema fundamental del álgebra, que establece que todo poli-nomio de grado n de coeficientes complejos tiene n ceros complejos,demostrado por primera vez por Gauss en 1799, les confirió el esta-do de números independientes, y brindó el primer ejemplo de campoalgebraicamente cerrado, es decir, que contiene todos los ceros de supolinomio. La definición formal de los números complejos, como pa-res de números reales, y de las respectivas operaciones de campo fuedada por William Hamilton en 1837.

Conmotivaciones diferentes, tanto Evariste Galois, en 1830, comoDedekind, en 1871, llegaron ala definición de una clase completa decampos, mediante un procedimiento de extensión de los racionales.Consideraron, dado un irracional α, el conjunto mínimo de númerosreales (o complejos) que forma un campo y contiene tanto a los racio-nales como al mismo α; este conjunto se puede generar directamente,partiendo de α y haciendo todas las posibles adiciones, sustracciones,multiplicaciones y divisiones (excepto por 0). Si el elemento a que se

48 5. Matemática Pura

agrega es el cero de un polinomio de coeficientes racionales, como enel caso de

√2 la extensión se llama algebraica; de lo contrario, como

en el caso de π, se llama trascendente.

Además de los campos infinitos, de los cuales todos los casos cita-dos son ejemplos, existen también campos finitos. Como ejemplo bastaconsiderar los enteros módulo n, del tipo de los que se usan para lashoras del día (de 12 o 24 elementos), o para los minutos de la hora(de 60 elementos); se generan como los típicos enteros, partiendo de0 y agregando cada vez 1, con la diferencia de que cuando se llega an se llega de nuevo a 0. Para que los enteros módulo n constituyanun campo, es necesario y suficiente que n sea un número primo.

Los ejemplos citados muestran el modo en que las nociones dela matemática moderna, entre las cuales la de campo fue uno de losprimeros ejemplos significativos, permiten unificar una gran varie-dad de ejemplos diferentes sobre la base de algunas característicascomunes. Pero es precisamente la generalidad de estas nociones loque tiende a desenfocar los contornos, con el riesgo de que se tor-nen inaprensibles; entonces, para describir su extensión se necesitanresultados de clasificación, que constituyen un aspecto complemen-tario de la abstracción.

Uno de los primeros ejemplos de esos resultados fue, precisamen-te, la clasificación de los posibles tipos de campo; quien la encontrófue Ernst Steinitz en 1910, sobre la base de la siguiente noción de ca-racterística: dado un campo, se parte del elemento que tiene funciónde 0 y se sigue agregando el elemento que tiene función de 1; si des-pués de p sumas se vuelve a 0, p debe ser un número primo, y se diceque el campo tiene característica p; si en cambio nunca se vuelve a 0,se dice que el campo tiene característica 0.

Los tipos de campos finitos se pueden caracterizar inmediata-mente, sobre la base de la característica: para todo primo p, existen

La Matemática del siglo XX 49

infinitos campos finitos de característica p, llamados campos de Galois.Estos campos tienen un número de elementos que es una potenciapositiva de p, y para cada potencia positiva de p existe exactamenteuno.

Dado un campo cualquiera, se define luego su campo primo par-tiendo de 0 y 1, y haciendo todas las posibles adiciones, sustraccio-nes, multiplicaciones y divisiones (excepto por 0). Si la característicadel campo de partida es p, su campo primo es un par de númerosenteros módulo p. Si en cambio la característica es 0, el campo pri-mo es una copia de los números racionales. Y todo campo se puedeobtener de su campo primo, mediante sucesivas extensiones: prime-ro una serie, eventualmente infinita, de extensiones trascendentes yluego una serie, eventualmente infinita, de extensiones algebraicas.

Viceversa, partiendo de un campo cualquiera se puede efectuaruna serie de extensiones algebraicas, hasta construir su cierre algebrai-co, es decir, el mínimo campo algebraicamente cerrado que lo contie-ne. Esto ejemplifica una de las típicas consecuencias de la abstrac-ción, es decir, la posibilidad de obtener versiones generales de resul-tados particulares; en este caso, la extensión a campos cualesquieradel proceso de cierre que lleva de los números reales a los númeroscomplejos, mediante el agregado de todos los posibles ceros de poli-nomios.

5.3. Topología: El Teorema del Punto Fijo de Brouwer (1910)

Desarrollando la teoría de los conjuntos como fundamento de lamatemática, Cantor descubrió varias propiedades inesperadas. Unade las más sorprendentes se refiere a la fundamental noción geomé-trica de dimensión; espacios de distinta dimensión, como una rectay un plano, pueden tenerla misma cantidad de puntos y ser, por lotanto, indistinguibles desde el punto de vista de los conjuntos. El des-

50 5. Matemática Pura

cubrimiento perturbó tanto a Cantor que lo hizo exclamar, despuésde demostrar esta noción en 1874: “Lo veo, pero no lo creo”.

Obviamente, el resultado de Cantor no significaba que la nociónde dimensión fuera una ilusión de la que había que liberarse. Seña-laba más bien un límite más allá del cual las nociones puramentereferidas a conjuntos resultaban inadecuadas, y debían ceder el pasoa otras de diferente naturaleza.

En 1910, Luitzen Brouwer demostró que la topología -el estudio delas propiedades de los objetos geométricos que se mantienen cuan-do los objetos son deformados continuamente, sin romperlos- es ca-paz de distinguir dimensiones distintas; por ejemplo, tanto una rec-ta como un plano están constituidos por una sola pieza, pero unarecta se divide en dos partes si se le saca un punto, y un plano no(la propiedad topológica en cuestión se llama conexión). Naturalmen-te, Brouwer demostró el teorema de invarianza de la dimensión engeneral; más precisamente, para cualquier objeto topológico que sepueda triangular de manera análoga a como se puede hacer paralas superficies habituales (tales objetos se llaman complejos, y los queconstituyen las triangulaciones simplex).

Pero el mayor descubrimiento de Brouwer se relaciona con unapropiedad de las transformaciones continuas, que constituyen el prin-cipal objeto de estudio de la topología. En efecto, demostró, tambiénen 1910, un teorema del punto fijo que se convirtió en un instrumentoesencial en las áreas más variadas, desde el análisis hasta la econo-mía.

En el caso unidimensional, el teorema de Brouwer se reduce alhecho de que una función continua que tenga como argumento yvalores todos los puntos de un intervalo debe mantener invariadopor lo menos un punto, hecho intuitivamente evidente que significasimplemente que toda curva dentro de un cuadrado unitario, que se

La Matemática del siglo XX 51

extienda interrupciones de un lado al otro, debe atravesar la diagonalpor lo menos una vez (Figura 3).

En el caso bidimensional, el teorema de Brouwer dice que unafunción continua que tenga como argumentos y valores a todos lospuntos de un círculo, debemantener invariado por lo menos un pun-to. Por ejemplo, si se rastrilla en modo continuo la grava de un can-tero circular, debe haber al menos una piedrita que no sea movida.

El teorema de Brouwer tiene más valor general de lo que los dosejemplos citados hacen suponer. Por una parte, el teorema se extien-de a los análogos multidimensionales de intervalos y círculos, comoesferas e hiperesferas; un ejemplo de aplicación en el caso tridimen-sional es que si el viento sopla sobre toda la tierra, debe soplar ver-ticalmente por lo menos en un punto, y por lo tanto debe haber unciclón. Por otro lado, el teorema vale para todas las funciones defini-das en simplex, es decir, en superficies lo suficientemente parecidasa intervalos y círculos, o sea, limitadas y provistas de borde, y sinentradas (propiedades topológicas, éstas, que se llaman compacidad yconvexidad).

La formulación original del teorema demostraba indirectamentela existencia de un punto fijo, pero no indicaba directamente cómohacer para encontrar unes irónicamente el mismo Brouwer desarro-lló más tarde una filosofía de la matemática, denominada intuicionis-mo, que considera ilegítimo ese tipo de demostraciones no construc-tivas. De todos modos, en el caso particular del teorema del puntofijo. Emmanuel Sperner dio una demostración constructiva en 1929:con la llegada del ordenador, los cálculos que requería tal demostra-ción se hicieron practicables, y hoy se pueden encontrar puntos fijosde manera efectiva.

52 5. Matemática Pura

b

Figura 3. Teorema del punto fijo unidimensional

En otra dirección, las condiciones para la existencia de puntosfijos se han generalizado de distintas maneras. En lo particular, sehan demostrado algunos teoremas de gran utilidad; en 1922, por Ba-nach, para contracciones definidas en espacios métricos completos (enlos cuales, a diferencia de los espacios topológicos abstractos, existeuna noción de distancia); en 1928, por Knaster y Tarski, para funcio-nes monótonas definidas en órdenes parciales completas (en los cualescada cadena de elementos tiene un extremo superior); en 1928, porSolomon Lefschetz, para funciones continuas definidas en complejoscompactos y contractibles, y no sólo en simplejos; y en 1941. por Kaku-tani, para funciones semicontinuas cuyos conjuntos de imágenes seantodos convexos, y no sólo para funciones continuas.

5.4. Teoría deNúmeros: LosNúmeros TrascendentesdeGelfond (1929)

El descubrimiento fundamental de Pitágoras, en el siglo VI a.C.,sostiene que existe una correspondencia entre música, naturaleza ymatemática: las relaciones armónicas (los intervalos) correspondena relaciones físicas (entre las cuerdas de un instrumento) y se cuan-tifican con relaciones numéricas (las fracciones). Los pitagóricos novieron en estas coincidencias una casualidad, sino la manifestaciónde una necesidad, que codificaron con el credo “todo es racional”,que debe interpretarse en su sentido literal de que todo se puede

La Matemática del siglo XX 53

describir mediante números racionales (ratio significa, precisamente,“relación”).

El credo fue cuestionado inmediatamente por el ulterior descu-brimiento de Pitágoras de grandezas inconmensurables, que corres-ponden a números irracionales; en matemática, la diagonal y el ladode un cuadrado, cuya relación es

√2; y en música, los intervalos de

octava y de quinta, cuya relación es (log2 3)− 1.

Otro ejemplo simple de irracional es 3√2, que resuelve un proble-

ma referido a la duplicación de un altar. Durante la peste de Atenasdel 430 a.C., que diezmó a una cuarta parte de la población, los ate-nienses interrogaron al oráculo de Apolo en Delos, quien solicitó quese duplicara el altar cúbico del dios. Los atenienses construyeron unode doble lado, pero que aumentó el volumen ocho veces, y la pestecontinuó. La solución correcta es precisamente 3

√2, que mide la rela-

ción entre los lados de dos cubos cuyos volúmenes son uno el dobledel otro, así como

√2 mide la relación entre los lados de dos cuadra-

dos cuyas áreas son una el doble de la otra.

La clasificación de los números reales en racionales e irracionaleses bastante cruda, y una clase interesante de números reales fue intro-ducida implícitamente por los griegos: los números construibles conregla y compás. Por ejemplo,

√2 es construible, pero 3

√2 no. Aunque

los griegos sospecharon esto, la demostración llegó sólo en 1837, gra-cias a Pierre Wantzel, y requirió una caracterización algebraica de losnúmeros construibles con regla y compás, cuyas respectivas aplica-ciones corresponden a las operaciones de suma y extracción de raízcuadrada.

De cualquier modo, todos los números construibles son algebrai-cos, en el sentido de que son soluciones de ecuaciones algebraicas decoeficientes enteros, pero no ocurre a la inversa; por ejemplo, 3

√2 es

algebraico, porque es la solución de x3 − 2 = 0, pero no es construi-

54 5. Matemática Pura

ble. Los números no algebraicos se llaman trascendentes, y su existen-cia fue demostrada por primera vez en 1844 por Joseph Liouville.

La demostración de Liouville se basaba en una observación in-teresante: el hecho de que un número algebraico irracional no puedeestar bien aproximado mediante números racionales, en el sentidode que casi todas las fracciones de denominador q que aproximen unnúmero irracional que es solución de un polinomio de grado n, cum-plen un error de al menos 1

qn , Por lo tanto, para construir un númerotrascendente es suficiente construir un número irracional es decir noperiódico, pero que puede ser bien aproximado mediante númerosracionales, por ejemplo

0,10100100000010000000000000000000000001...,

donde el primer bloque de ceros después de la coma tiene 1 cero,el segundo 1 · 2, el tercero 1 · 2 · 3, y así sucesivamente; cortando eldesarrollo en los 1 después de la coma se obtienen buenas aproxi-maciones racionales, correctas hasta el siguiente 1 (que cada vez estámás lejos).

Durante un siglo se aportaron muchas mejoras a la observaciónde Liouville. El mejor resultado posible lo obtuvo Klaus Roth en 1955:casi todas las fracciones de denominador q que aproximen un núme-ro irracional algebraico cumplen un error de al menos 1

q2+ para cual-quier número real 2+ mayor que 2 (el resultado no vale para 2). Poreste resultado Roth obtuvo la medalla Fields en 1958.

En 1873, Cantor encontró la mejor extensión posible del enuncia-do existencial del teorema de Liouville: casi todos los números realesson trascendentes, porque los números algebraicos son muy pocos.Más precisamente, éstos forman un conjunto que es numerable en elsentido de Cantor, y de medida 0 en el sentido de Lebesgue.

La Matemática del siglo XX 55

De todos modos, el resultado de Cantor nada decía de la trascen-dencia de números reales específicos. Con respecto a e, la base de loslogaritmos naturales, su trascendencia fue conjeturada en 1748 porLeonhard Euler, y demostrada en 1873 por Charles Hermite. De latrascendencia de e deriva inmediatamente también la de e2 y la de√e = e

12 y más en general la de ex, para todo exponente racional

(distinto de 0). En 1882, Ferdinand Lindemann redactó la demostra-ción y probó que ex es trascendente incluso si x sólo es algebraico(distinto de 0), y de este resultado dedujo una gran cantidad de con-secuencias. Ante todo, también log x debe ser trascendente si x esalgebraico (distinto de 0 y 1), porque elog x = x. Además, dado queEuler había comprobado en 1746 que

eix = cos x+ i sen x,

donde i es la raíz imaginaria de −1 (que, aunque no es real, siguesiendo algebraica, ya que es solución de x2 + 1 = 0), y se deducetambién que sen x y cos x son trascendentes si x es algebraico.

Un caso especial del resultado de Lindemann, de particular im-portancia, se obtiene cuando x = π; en este caso la expresión deEuler se reduce a la que muchos consideran la fórmula más bella dela matemática:

eiπ = −1

El exponente iπ produce un valor no trascendente de ex y del teore-ma de Lindemann se deduce que este exponente no puede ser alge-braico; y ya que i es algebraico, π debe no serlo. El hecho de que π

sea trascendente implica, en particular, la no constructibilidad de π

y, por lo tanto, la imposibilidad de otro famoso problema griego quequedó abierto durante dos milenios: la cuadratura del circulo (conregla y compás).

56 5. Matemática Pura

Afinales del siglo XIX no se conocían explícitamentemuchos otrosnúmeros trascendentes, además de e y π, y el séptimo problema de Hil-bert preguntaba si lo era, por ejemplo 2

√2. Generalizando, Hilbert

conjeturó que ab siempre es trascendente, si a es algebraico (distintode 0 y 1) y b es irracional algebraico.

Aún en 1919, Hilbert consideraba que este problema era más di-fícil de resolver que la hipótesis de Riemann o el teorema de Fer-mat. Pero en 1929 Alexander Gelfond demostró la trascendencia deeπ , introduciendo una nueva metodología, que condujo, en 1930, ala demostración de la trascendencia de 2

√2 realizada por Carl Siegel,

premio Wolf en 1978, y en 1934 a la de toda la conjetura de Hilbert, porparte de Gelfond y Thorald Schneider. En 1966, Alan Baker concluyólos resultados de un siglo, comprobando que cualquier producto fi-nito de números trascendentes de los del tipo encontrado por Linde-mann y/o por Gelfond, por ejemplo eπ 2

√2, también es trascendente;

por este resultado Baker obtuvo la medalla Fields en 1970.

No obstante los progresosmencionados, los números trascenden-tes siguen siendo bastantemisteriosos. Los númerosmás obvios cuyatrascendencia no se conoce son e+ π, e π y πe, pero existen muchosmás; por ejemplo, la constante γ de Euler, que mide la diferencia asin-tótica entre el logaritmo y la serie armónica, es decir, la suma de losinversos de los números enteros; o la constante ζ(3), es decir, la su-ma de los inversos de los cubos de los números enteros (la constanteζ(2), o sea la suma de los inversos de los cuadrados de los númerosenteros, es trascendente porque Euler calculó, en 1734, que su valores π2

6 ).

5.5. Lógica: El Teorema de Incompletitud de Gödel (1931)

Uno de los grandes éxitos matemáticos del siglo XIX fue el des-cubrimiento de la geometría hiperbólica, es decir, una geometría en la

La Matemática del siglo XX 57

que el axioma de las paralelas es falso. Los axiomas que quedan dela geometría euclídea permiten demostrar, dada una recta y un pun-to fuera de la misma, que existe al menos una paralela a la recta quepasa por el punto (la perpendicular a la perpendicular). El axiomade las paralelas afirma que existe sólo una paralela, por lo tanto sunegación implica que existe más de una.

Muchos matemáticos se dedicaron a desarrollar la geometría hi-perbólica, en la que el axioma de las paralelas es falso, con la espe-ranza de demostrar que esta geometría es inconsistente, y de demos-trar por el absurdo que el axioma de las paralelas es verdadero. Y enla primera mitad del siglo XIX, Carl Friedrich Gauss, Nikolai Loba-chevsky y Jànos Bolyai demostraron, efectivamente, que la supuestageometría hiperbólica es muy extraña; por ejemplo, no todos los án-gulos tienen la misma suma angular; por tres puntos no colinearesno pasa necesariamente un círculo; no existen rectángulos, ni rectasequidistantes; y el teorema de Pitágoras es falso.

Pero, por más extraña que parezca, la geometría hiperbólica nose mostró contradictoria. Y en 1868, Eugenio Beltrami demostró quees tan consistente como la euclídea; en efecto, es posible encontrarun modelo del plano hiperbólico en el plano euclídeo. Los modelosmás conocidos de la geometría hiperbólica fueron encontrados porFélix Klein, en 1871, y por Henri Poincaré en 1882; en ambos, el planohiperbólico es un circulo sin el borde; en el primero, las rectas sonsegmentos euclídeos, pero los ángulos debenmedirse de una maneradiferente de la euclídea; en el segundo, los ángulos son los euclídeos,pero las rectas son arcos de círculo perpendiculares al borde (Figura4-5).

58 5. Matemática Pura

Figura 4-5. Modelos de Klein y Poincaré

Una vez que se redujo la consistencia de la geometría hiperbólicaa la de la geometría euclídea, había que afrontar esta última. Los grie-gos habrían necesitado una demostración directa, ya que ellos habíanadoptado fundamentos geométricos para toda la matemática, tras eldescubrimiento pitagórico de los números irracionales. Por ejemplo,en los Elementos, Euclides representaba los números como segmen-tos, la adición como concatenación de segmentos, la multiplicacióncomo área de un rectángulo, y así sucesivamente.

La geografía y la astronomía estimularon una reducción inversa,de la matemática al álgebra. En el siglo II a.C. Hiparco, quien descu-brió la precesión de los equinoccios, comenzó a utilizar coordenadasde puntos para describir curvas dadas, pero sólo respecto de un sis-tema elegido cada vez sobre la base de la curva. El primero en elegirun sistema de coordenadas fijo fue Oresme, en el siglo XIV, que estabatan vinculado con el uso geográfico que seguía llamando “longitud”y “latitud” a las coordenadas.

La introducción de una notación algebraica satisfactoria, y espe-cialmente el uso de letras para indicar variables, permitió a Pierre deFermat, en 1629, y a René Descartes, en 1637, desarrollar la geometríaanalítica. La observación crucial fue que, poniendo en corresponden-cia los puntos con números, también se obtenía una correspondencia

La Matemática del siglo XX 59

inducida entre las propiedades de los puntos y las de los números.Por ejemplo, las ecuaciones de primero y segundo grado describen,respectivamente, las rectas y las cónicas (elipse, hipérbola, parábola).

En todo caso, tanto para Fermat como para Descartes, el álgebraestaba subordinada a la geometría, y el mismoNewton siguió tratan-do, en los Principia, las órbitas de los planetas a la manera geométricade los griegos, y no en modo algebraico. El cambio de ruta fue obrade John Wallis, quien en 1657 reescribió de manera algebraica doslibros de Euclides y el tratado sobre las cónicas de Apolonio.

Pero una efectiva reducción de la geometría al álgebra tuvo queesperar la llegada de los Fundamentos de la geometría, de Hilbert, en1899. Hilbert definió un modelo algebraico de la geometría euclídeade la manera en que hoy se conoce: un punto del plano es un parde número reales, una recta es el conjunto de las soluciones de unaecuación de primer grado, la distancia entre dos puntos se defineme-diante el teorema de Pitágoras, y la congruencia mediante el concep-to de isometría (transformación lineal que preserva las distancias).Pero no se trata sólo de definiciones, hay que demostrar que una iso-metría preserva no sólo las distancias sino también los ángulos, y lademostración no es banal.

A fines del siglo XIX, la consistencia de toda la geometría habíasido reducida a la de la teoría de los números reales. Este traspasode responsabilidades podría continuar aún, por ejemplo, reduciendola teoría de los números reales a la de los números enteros. Es más,lo habían hecho ya, algunos decenios antes, Karl Weierstrass, GeorgCantor y Richard Dedekind, lo que le permitió exclamar a LeopoldKronecker: “Dios ha creado los números enteros, todo lo demás esobra del hombre”. Pero tarde o temprano habría sido necesario de-mostrar la consistencia de alguna teoría directamente, y conmétodostan elementales que su consistencia no pudiera ser puesta en duda.

60 5. Matemática Pura

En los albores del siglo XX, el segundo problema de Hilbert requi-rió la demostración directa de la consistencia de la teoría de núme-ros, reales o enteros. Una solución completamente inesperada fue laque dio, en 1931, Kurt Gödel, quien comprobó que la consistencia decualquier teoría que contenga la teoría de los números enteros no sepuede demostrar dentro de la misma teoría. En otras palabras, nin-guna teoría que pretenda fundamentar la matemática es capaz deautojustificarse, y está obligada a buscar su justificación fuera de sí.En particular, ninguna teoría de ese tipo que sea consistente puedeser también completa, en el sentido de que pueda demostrar todaslas verdades matemáticas expresables en su lenguaje, y una de lasverdades que no puede demostrar es precisamente la propia consis-tencia; es por eso que el resultado de Gödel se denomina teorema deincompletud.

De todos modos, la imposibilidad de probar la consistencia deuna teoría desde su interior no excluye la posibilidad de demostra-ciones externas, en tanto sean convincentes, y por lo tanto no consti-tuye la última palabra sobre el segundo problema de Hilbert. En par-ticular, una demostración de consistencia significativa, aunque ob-viamente no elemental, de la teoría de los números enteros la dio, en1936, Gerhard Gentzen, y representa el punto de partida de la teo-ría de la demostración que tiene el objetivo de buscar demostracionesanálogas para teorías cada vez más fuertes.

5.6. Calculo Variacional: Las superficies minimales de Douglas (1931)

Según la Eneida (I, 360-368), en el origen de la fundación de Carta-go se encuentra la solución a un problema de naturaleza matemática.La reina Dido, cuando huyó de Tiro y desembarcó en las costas delnorte de África, obtuvo del rey local el permiso de escoger un peda-zo de tierra que fuese abarcado por la piel de un buey. Después de

La Matemática del siglo XX 61

cortar de la piel una tira finísima, Dido la usó para delimitar un árealo más grande posible; su elección fue un trozo de tierra semicircularen la costa demar, para delimitar con la cuerda sólo una parte del pe-rímetro. Dido había intuido que el círculo es la figura que, a paridadde perímetro, tiene la máxima área: Jacob Steiner dio la primera de-mostración matemática en 1838, que fue completada por Weierstrassen 1872.

Los problemas de este tipo se llaman de máximo o de mínimo, yen casos simples se pueden resolver fácilmente con los métodos delcálculo infinitesimal. Más precisamente, expresándolos en forma defunción, y buscando los puntos críticos de ésta, anulando su deri-vada. En casos más complejos se necesitan técnicas más sofisticadasque fueron codificadas en el cálculo variacional, cuyo nombre derivadel hecho de que, en este caso, varía toda la función (δ f ) y no sólouna parte infinitesimal de la misma (d f ).

Fue Galileo, en 1630, quien propuso el primer problema genui-namente variacional: encontrar, dados dos puntos no en vertical unosobre el otro, la curva (llamada braquistócrona) que permita ir de unpunto al otro en el menor tiempo posible. Galileo dio una soluciónequivocada, un arco de círculo. Jean Bernoulli volvió a proponer elproblema en 1696, y fue resuelto correctamente por Newton, Leibnizy los hermanos Bernoulli; la solución es un arco de cicloide, es de-cir, la curva que describe un punto del borde de una circunferencia,mientras la circunferencia rueda sobre una recta sin deslizarse.

Anteriormente, en el segundo libro de los Principia (“Comentarioa la proposición 34”), Newton ya había encontrado la primera solu-ción correcta de un problema variacional: determinar cuál es la su-perficie de revolución que, moviéndose en el agua a velocidad cons-tante y en la dirección de su eje, ofrece la menor resistencia al movi-miento del agua. Él previo que la solución del problema podía ser de

62 5. Matemática Pura

utilidad en la construcción de barcos y, en efecto, problemas seme-jantes se volvieron luego comunes en aeronáutica, en la construcciónde submarinos y aeroplanos.

El primer resultado fundamental del cálculo variacional fue ha-llado en 1736 por Euler, quien descubrió la ecuación diferencial queaún hoy fundamenta el cálculo, y que establece una condición nece-saria para la solución de un problema variacional (así como la anu-lación de la derivada es una condición necesaria para la solución delos problemas de máximo o mínimo). Más tarde, en 1744, Euler escri-bió un libro entero que ofrecía el primer tratamiento sistemático deltema.

YaHerón deAlejandría había enunciado, en el siglo 1 d.C, el prin-cipio que indica que la luz semueve según recorridos queminimizantanto el tiempo como el espacio. Y en el siglo XV, Leonardo da Vin-ci había manifestado que estaba convencido de que la naturaleza era“económica”. En 1744, Pierre Louis deMaupertuis se explayó y siste-matizó estas intuiciones en el principio de mínima acción: los fenóme-nos naturales ocurren minimizando la acción, es decir, el productomvr de masa, velocidad y distancia.

Aunque el concepto de acción deMaupertuis era poco preciso, suformulación expresó matemáticamente la intuición filosófica de queen la base del comportamiento de la naturaleza hay un principio va-riacional. Euler intuyó la posibilidad de derivar las leyes de la físicaa partir de tal principio, pero el primero en concretarla fue Lagrange,en 1761, quien definió correctamente la acción como

mv ds o∫

mv2 dt,

y obtuvo una versión de la segunda ley del movimiento de Newtonpartiendo del principio de mínima acción. La formulación definitiva

La Matemática del siglo XX 63

de la mecánica en esta forma fue obtenida por Wiliam Hamilton, en1835, quien obtuvo las clásicas ecuaciones diferenciales que descri-ben posición y cantidad de movimiento, en función de la hamiltonia-na H que representa la energía.

En 1847, el físico Joseph Plateau advirtió que si se sumerge unalambre con forma de curva cerrada en agua con jabón, cuando se loextrae se forma en su interior una burbuja de jabón que constituyeuna superficie de área mínima respecto del perímetro definido por lacurva. Por lo tanto, las pompas de jabón ofrecen una solución empí-rica al problema de encontrar una superficie de área mínima en loscasos en que la forma del alambre es muy compleja, pero es difícilencontrar una solución explícita.

Entonces surge espontáneamente el problema de Plateau: demos-trar que para toda curva cerrada en el espacio existe una superficieminimal que tiene la curva como perímetro. El problema parece va-go si no se especifica qué se entiende por curva cerrada, pero desde1887 se puede adoptar la definición de Camille Jordan: una curva esel conjunto de los puntos cuyas coordenadas son imágenes de fun-ciones continuas de un parámetro en cierto intervalo. Y el problemade Plateau se interpreta haciendo referencia a esta definición.

La solución debió esperar casi un siglo y la encontró Jessie Dou-glas en 1931, que por este trabajo obtuvo la medalla Fields en 1936,la primera vez que fue asignada. Otros trabajos sobre las superficiesminimales remitieron que Enrico Bombieri obtuviera lamedalla Fieldsen 1974 y Ennio de Giorgi el premio Wolf en 1990. Es así como el cálcu-lo variacional ha visto subir sus acciones desde principios de siglo,cuando Hilbert pensaba que no había recibido el reconocimiento quemerecía, y decidió llamar la atención hacia el cálculo variacional conel vigésimo tercer problema, el único de carácter general en su lista. Perotambién el vigésimo y el decimonoveno problema se referían a cuestio-

64 5. Matemática Pura

nes del cálculo variacional; más precisamente, a la existencia y al tipo(analítico) de las soluciones de una vasta clase de problemas varia-cionales (llamados regulares). El estudio de estos problemas condujoal desarrollo de una amplia área del análisis moderno.

Volviendo a Plateau, uno de sus experimentos consistió en su-mergir dos veces en agua con jabón unos alambres con forma de cu-bo; sorprendentemente, la burbuja que se obtiene en este caso consis-te en una especie de hipercubo, es decir, una burbuja casi cúbica cen-tral, conectada con el cubo original de láminas planas (Figura 6). Engeneral, láminas del mismo tipo llenan los huecos de las superficiesde área mínima que se obtienen con pompas de jabón; la existenciade superficies de área mínima con un número arbitrario de huecos, ypor lo tanto que se pueden obtener con pompas de jabón, fue demos-trada en 1987 por David Hoffman y William Meeks, basándose estavez en representaciones gráficas computerizadas obtenidas en 1983(Figura 7).

Figura 6. Pompa de jabón hipercúbica. (De la película de MichelleEmmer, Pompas de jabón, c©2000 Emmer)

La Matemática del siglo XX 65

Figura 7. Superficie minimal con huecos

5.7. Análisis: Las distribuciones de Schwartz (1945)

Los griegos conocían, obviamente, algunas curvas especificas co-mo las secciones cónicas y varias espirales, pero jamás tuvieron lanecesidad de considerar la noción de función de manera sistemática.Esta necesidad sólo surge con el nacimiento de la ciencia moderna;en efecto, el estudio del movimiento requería considerar una vastaclase de curvas, entre ellas naturalmente la parábola, la elipse y lacicloide, que son respectivamente las trayectorias descriptas por unproyectil, un planeta o un punto sobre una rueda que gira sobre unplano.

Durante mucho tiempo, el único modo permitido para definirfunciones fue a través de fórmulas, aunque la clase de fórmulas seenriqueció constantemente con el desarrollo de la matemática. En elsiglo XVII, Descartes exigía limitarse a ecuaciones algebraicas, es de-cir, a polinomios de grado arbitrario en x e y. En el siglo XVIII, Euler,motivado por el estudio de la cuerda vibrante, permitió la conside-ración de expresiones analíticas que comprenden funciones trigono-métricas, exponenciales y logarítmicas; él las veía como versiones in-finitarías de funciones algebraicas, a través de expansiones en series

66 5. Matemática Pura

de potencia. En el siglo XIX, Joseph Fourier, motivado a su vez por elestudio del calor, incluyó por fin también las series trigonométricas.

La tesis fundamental de Fourier era que toda función se puedepresentar, en un intervalo, mediante una serie trigonométrica. Fueprecisamente en el intento de demostrar demostrar esta tesis cuandoPeter Lejeune Dirichelet descubrió, en 1829, un famoso ejemplo defunción no representable cuyos valores son 1 para argumentos irra-cionales.

Esta función no estaba definida mediante fórmulas de ningún ti-po, pero en pocos años Dirichelet hizo de necesidad virtud: en 1837propuso la definición de función que se utiliza todavía hoy, como co-rrespondencia que a cada argumento x asocia uno y sólo un valory, independientemente del modo en que esta correspondencia estédefinida.

El paso de las funciones definibles a las funciones arbitrarias es,en cierta forma, análogo al paso de los números reales algebraicosa los arbitrarios; en ambos casos se provoca un incremento expo-nencial del número de elementos, la mayoría de los cuales será detodas maneras inaccesible a las descripciones, justamente por la li-mitación numérica de las mismas. Pero en la práctica, las funcionesy los números de uso corriente tienden a ser definibles de algún mo-do explícito. Irónicamente, la misma función de Dirichelet no es unaexcepción, ya que Peano y René Baire demostraron que esa funciónse puede representar analíticamente mediante la expresión

f (x) = lı́mm→∞

lı́mn→∞

cos(m!πx)n

Motivado por sus estudios sobre el electromagnetismo, OliverHeaviside introdujo, en 1893, la función impropia δ definida por es-tas dos propiedades: sus valores son siempre 0, excepto en el punto

La Matemática del siglo XX 67

x = 0, en el cual el valor es infinito; y el área definida por el gráficode la curva tiene valor 1. Considerada en sí misma la δ es obviamenteparadójica, ya que difiere sólo en un punto de la función constante 0,que tiene integral 0, y cualquier valor asignado en ese punto no de-bería hacer cambiar el valor de la integral. Un solo valor, por si fuerapoco indefinido e infinito, contribuye en cambio un área finita.

Sin embargo, funciones impropias como la δ permiten expresarderivadas de funciones discontinuas. Por ejemplo, la misma δ puedeser considerada la derivada de la función H de Heaviside, que describeun impulso instantáneo unitario, y vale 0 para argumentos meno-res que 0, y 1 para los demás. La justificación de esta afirmación seobtiene mediante un procedimiento al límite: la δ es aproximada poruna función que vale 0 casi siempre, excepto en un intervalo en tornodel x = 0, en el cual el valor está determinado por la condición deque el área total sea precisamente 1; la H, en cambio, es aproximadapor integrales de las aproximaciones de la δ, que valen precisamente0 antes del intervalo y 1 después, pero que en el intervalo conectanestos dos valores de manera continua (Figura 8).

Las nociones y los procedimientos eurísticos empleados por Hea-viside desataron un gran escándalo entre los matemáticos, e inclusofue expulsado de la Royal Society de Londres por indignidad teórica.Como consecuencia hoy la δ no se asocia con su nombre, sino con elde Paul Dirac, que la usó en 1930 en su clásico Principios de mecánicacuántica.

Pero también Dirac recibió su dosis de críticas severas, especial-mente por parte de John von Neumann, autor de una formulaciónalternativa de la mecánica cuántica, de la que hablaremos más ade-lante. De todos modos, gracias a la reputación de Dirac, la δ se po-pularizó inmediatamente entre los físicos, y más tarde también entrelos matemáticos.

68 5. Matemática Pura

Figura 8. Aproximaciones de las funciones H y δ

Una extensión del concepto de función que incluyera también lasfunciones impropias fue desarrollada por Laurent Schwartz a partirde 1945, en un estudio que culminó, en 1950, en los dos volúmenesde la Teoría de las distribuciones. Él desarrolló en particular las técnicasde diferenciación de las distribuciones, mostrando que toda funcióncontinua, en el sentido clásico, es derivable en el sentido de las distri-buciones, lo que también incluye casos patológicos como la curva deKoch, de la que hablaremos más adelante, que clásicamente no tieneen cambio derivada en ningún punto. Por este trabajo, Schwartz ob-tuvo la medalla Fields en 1950. Más tarde, se convirtió en uno de losfamosos intelectuales franceses que tomó posición contra la guerrade Argelia, y su departamento fue volado con una bomba.

Puesto que las distribuciones generalizan las funciones así comolos números reales generalizan los números racionales, algunos pro-blemas clásicos referidos a las funciones se pueden extender a las dis-tribuciones. Por ejemplo, el ya citado decimonoveno problema de Hilbertse preguntaba qué operadores diferenciales sobre funciones teníansólo soluciones analíticas, y en 1904 Serge Bernstein demostró que larespuesta era: los operadores elípticos. En su libro, Schwartz propusoextender el problema a los operadores diferenciales sobre distribu-ciones: la solución dada por Lars Hörmander llevó a la definición de

La Matemática del siglo XX 69

la nueva e importante clase de los operadores hipoelípticos, y le valió lamedalla Fields en 1962 y el premio Wolf en 1988.

A propósito de operadores elípticos, uno de los resultados fun-damentales sobre ellos es el teorema del índice, demostrado en 1963por Michael Atiyah e Isadore Singer. El índice de un operador midela cantidad de sus soluciones, y se obtiene sustrayendo los númerosque determinan la existencia y la unicidad de las soluciones (el pri-mer número es la dimensión del sistema de relaciones lineares queuna solución debe satisfacer, el segundo es la dimensión del espaciode todas las soluciones). El enunciado del teorema establece que elíndice es en realidad un invariante topología), es decir, que no cam-bia si se perturba el espacio sobre el cual el operador está definido, loque, por una parte, permite calcular el índice de manera alternativay, por otra, crea un fecundo puente entre el análisis y la topología.La complicada demostración original requería las más diversas téc-nicas, desde la teoría del cobordismo de Thom, que mencionaremosmás adelante, a la K-teoría desarrollada anteriormente por el mis-mo Atiyah, quien obtuvo por todos estos trabajos la medalla Fields en1966. Más recientemente, el teorema del índice fue reinterpretado entérminos de mecánica cuántica, y la teoría de cuerdas, a la que ha-remos referencia enseguida, permitió a Edward Witten proporcionaruna demostración más simple y comprensible, que le valió la medallaFields en 1990.

5.8. Topología Diferencial: Las estructuras exóticas de Milnor (1956)

El hecho de que durante tiempo la Tierra haya podido ser con-siderada plana y de que así lo siga pareciendo cuando sólo se con-sideran zonas lo suficientemente pequeñas demuestra que una su-perficie como la esfera puede ser locamente euclídea, aunque no losea globalmente (técnicamente, se dice que la esfera es localmente

70 5. Matemática Pura

difeomorfa, aunque no localmente isométrica, al plano).

Una esfera, entonces, puede considerarse como una pelota de tra-po, constituida por un gran número de pequeñísimos parches prác-ticamente planos, que se sobre otros de manera uniforme y regular.Y la estructura de toda la pelota se puede reducir, por un lado, a laestructura de cada parche y, por el otro, a su posición respecto de unsistema de referencia canónico, como el retículo de los meridianosy los paralelos. Este modo de concebir las cosas permite extender ala esfera el cálculo diferencial, es decir, todo el instrumental de deri-vadas e integrales, que originalmente fue concebido y desarrolladopara el plano euclídeo.

En 1854, Bernhard Riemann introdujo una noción de variedad deRiemann en n dimensiones, que generaliza el enfoque anterior: se co-locan juntos, de manera uniforme y regular pequeñísimos trozos delespacio euclídeo en n dimensiones. Tal variedad admite una estruc-tura diferencial cuando es posible extender a ella el cálculo diferencialhabitual, del espacio en n dimensiones, de manera análoga al modomencionado para la esfera.

Los trabajos de Kerékjártó en 1923, Rado en 1925 y Moise 1952demostraron en conjunto que todas las variedades de Riemann, bi-dimensionales o tridimensionales, así como todos los espacios euclí-deos de dimensión distinta de 4, admiten una única estructura dife-rencial. Y se pensaba que así debía ser en general.

Sin embargo, en 1956 John Milnor demostró que la esfera en 7dimensiones admite más de una estructura diferencial, para ser máspreciso, veintiocho. Por este inesperado resultado, que inauguró lanueva área de la topología diferencial y de las llamadas estructurasexóticas, Milnor recibió la medalla Fields en 1962 y el premio Wolf en1989. En 1969, Michel Kervaire demostró, en cambio, que existen va-riedades en 10 dimensiones que no admiten ninguna es tructura di-

La Matemática del siglo XX 71

ferencial. Junto con el resultado de Milnor, esto prueba que, por lotanto, ni la existencia ni la unicidad una estructura diferencial estánaseguradas en general.

Una clasificación de las variedades diferenciales de dimensiónmayor o igual a 5 fue encontrada en 1962 por Sergei Novikov, quepor este trabajo obtuvo la medalla Fidelds, en 1970. Por lo tanto, losdesarrollos recientes de la topología diferencial consideran la dimen-sión 4, que es el único caso en que el grupo de las rotaciones delespacio euclídeo no es simple (ya que es el producto de dos paresdel grupo de rotación tridimensional). Los trabajos fundamentalesen este campo son de Michael Freedman y Simon Donaldson, quie-nes obtuvieron por esos trabajos la medalla Fields en 1986.

Por una parte, en 1982 Freedman demostró que a cada variedadtetradimensional se puede asociar una matriz entera simétrica condeterminante igual a ±1, definida sobre la base de las propiedadesde intersección de la variedad. Y viceversa, cada matriz de este tipocorresponde a una variedad. En otras palabras, estas matrices de-finen un invariante topológico que permite clasificar las variedadestetradimensionales. Dado que, ya en 1952, Rokhlin había demostradoque no todas las matrices pueden corresponder a variedades diferen-ciales, el resultado de Freedman prueba la existencia de variedadestetradimensionales que no admiten ninguna estructura diferencial.

Por otra parte, en 1983 Donaldson probó que sólo las matricescorrespondientes a variedades diferenciables son unitarias. Tambiénencontró otros invariantes, que permiten distinguir entre sí varie-dades diferenciables que son topológicamente equivalentes, demos-trando en particular la existencia de estructuras exóticas del espacioeuclídeo tetradimensional, donde pueden ocurrir cosas extrañas; porejemplo, a diferencia del espacio tridimensional, en el que toda zonacerrada y limitada está contenida en una esfera, hay zonas cerradas

72 5. Matemática Pura

y limitadas que no están contenidas en una hiperesfera. Más tarde,en 1985, Taubes y Gompf demostraron que el espacio tetradimensio-nal admite no sólo infinitas estructuras exóticas, sino también unacantidad continua.

Un aspecto interesante de los trabajos de Donaldson es que enellos se utilizan métodos físicos para obtener resultados matemáti-cos, y esto inauguró una tendencia que alcanzó su punto máximo enlos trabajos de EdwardWitten, al que haremos referencia en seguida.Sustancialmente, Donaldson reemplaza las ecuaciones de Maxwelly el grupo U(1) típicos del electromagnetismo por las ecuaciones deYang-Mills el grupo SU(2), típicos de la teoría electrodébil, de la quehablaremos, y usa las solucionesminimales (llamadas instantones) co-mo instrumentos geométricos. Esto deja entrever la posibilidad deobtener otros resultados usando análogamente las mismas ecuacio-nes pero otros grupos, por ejemplo, el SU(3) típico de la cromodiná-mica.

Volviendo a la topología diferencial, un problema todavía abiertoes si la esfera en 4 dimensiones admite más de una estructura dife-rencial. Si la respuesta fuera negativa, entonces el teorema de Milnorsobre la esfera en 7 dimensiones sería lo mejor posible, en efecto, yase sabe que las esferas en 2, 3, 5 y 6 dimensiones tienen una sóla es-tructura diferencial. De cualquier modo, el número de estructuras di-ferenciales de la esfera depende fuertement del número de dimensio-nes, aunque siempre sea finito en el caso distinto de 4; por ejemplo,en 8 dimensiones hay 2, en 11 dimensiones 992, en 12 dimensiones 1,en 15 dimensiones 16.256, en 31 dimensiones más de 16 millones...

La Matemática del siglo XX 73

5.9. Teoría de los Modelos: Los Números Hiperreales de Robinson(1961)

La primera aparición explícita de los infinitesimales en matemáti-ca se produjo en el siglo XV, cuando Nicola Cusano definió el círculocomo un polígono de infinitos lados que poseen un largo infinitesi-mal, y dedujo el teorema de Arquímedes sobre el área del círculo endos palabras: se descompone el círculo en infinitos triángulos de baseinfinitesimal y altura igual al radio; ya que el área de cada triánguloes base por altura dividido 2, el área del círculo será entonces la cir-cunferencia (o sea la suma de las bases de los triángulos) por el radiodividido 2.

El problema de este enfoque reside, naturalmente, en el concep-to de triángulo infinitesimal; si su área es nula entonces también elcírculo debería tener área nula; pero si su área no es nula, entonces elcírculo debería tener área infinita; pero en ninguno de los dos casosse obtendría el resultado correcto.

En 1629 Pierre de Fermat utilizó los infinitesimales en la defini-ción de derivada introducida por él como (medida de la inclinaciónde la) tangente de una curva en un punto. Él consideró una secan-te que pasa por dos puntos: el punto dado y otro punto que distadel primero un infinitesimal h. Y calculó la tangente (trigonométrica)de la tangente (geométrica) como relación incremental, en modo se-mejante a como se hace actualmente. Por ejemplo, en el caso de unaparábola:

(x+ h)2 − x2

h=

2xh+ h2

h= 2x+ h = 2x

En este caso, h se considera distinto de 0 cuando se lo simplificacomo divisor, pero igual a 0 cuando se lo elimina luego en el final; unprocedimiento que no podía no provocar serias dudas acerca de su

74 5. Matemática Pura

consistencia.

En 1635, Bonaventura Cavalieri utilizó los infinitesimales en ladefinición de integral, introducida por él para calcular áreas y volú-menes. Siguiendo las huellas de Cusano, consideró las figuras geo-métricas como compuestas por infinitos indivisibles: las curvas porpuntos, como “las perlas de un collar”; las superficies por segmentosparalelos, como “los hilos de una tela”; y los sólidos por superficiesparalelas, como “las páginas de un libro”. Pero a diferencia de per-las, hilos y páginas, las dimensiones de estos indivisibles eran unavez más infinitesimales.

Si bien Leibniz y Newton lograron madurar las ideas introduci-das por Fermat y Cavalieri, desarrollando una auténtica nueva me-todología para la solución de problemas matemáticos y físicos, nopudieron hacer mucho responder a las objeciones que surgieron porel uso “fantasmas de cantidades desaparecidas” como los llamó elobispo Berkeley en una despiadada crítica.

En particular, Leibniz fundó todo el cálculo sobre la noción deinfinitesimal, que él veía como una cantidad evanescente, pero nodesvanecida (hoy diríamos, simplemente no arquimediana), o sea,más pequeña que cada fracción 1

n , pero no nula. Y aún hoy quedanhuellas de su enfoque, tanto en el nombre de cálculo infinitesimaldado a la nueva disciplina, como en las notaciones que inventó paraderivadas e integrales:

d f (x)dx

y∫

f (x) dx

Es decir, la derivada está representada como relación dedos infi-nitesimales (d es la inicial de “diferencia”), y la integral como sumade indivisibles de largo infinitesimal (el símbolo

es la estilizaciónde S, que es la inicial de “suma”). El uso simétrico de d y

recuerda

La Matemática del siglo XX 75

el teorema fundamental de Newton y Leibniz, según el cual deriva-das e integrales son operaciones inversas, justamente como suma yresta.

Mientras la aproximación de Leibniz al cálculo a través de los in-finitesimales reflejaba su preocupación principal que era filosófica yrelacionada con los constituyentes últimos de la realidad (las móna-das), la de Newton, en cambio, reflejaba las aplicaciones fundamen-tales que él tenía en mente, que eran físicas y estaban vinculadas a lamedición del cambio (la velocidad). A diferencia de Cavalieri, New-ton Veía las figuras geométricas como generadas por movimientoscontinuos, las curvas por puntos, las superficies por segmentos, lossólidos por superficies. Para él, la derivada no era la relación estáticade dos infinitesimales, sino la “fluxión” dinámica de una cantidad“fluyente”. Y en los Principia declaró explícitamente: “Las relacionesfinales en las que ciertas cantidades se desvanecen no son, hablan-do estrictamente, relaciones de cantidades finales, sino límites a loscuales se aproximan tales relaciones, disminuyendo sin fin”.

Augustin Cauchy retomó esta idea en 1821, y basó todo el cálcu-lo en el concepto de límite. En su formulación, que es la actual, elejemplo de Fermat resulta:

lı́mh→0

(x+ h)2 − x2

h= lı́m

h→0

2xh+ h2

h= lı́m

h→0(2x+ h) = 2x.

De esta manera, la simplificación del número h está justificadapor el hecho de que es una cantidad distinta de 0, mientras su elimi-nación se sustituye con un límite en el que h tiende a 0, sin que seanecesario considerarlo igual a 0. En otras palabras, los infinitesimalesson variables y no constantes.

Karl Weierstrass, en 1859, dio la definición precisa de límite en lostérminos actualmente usuales de “ǫ − δ”, y sobre estas bases se pudo

76 5. Matemática Pura

considerar concluida la sistematización del análisis. Pero en la defi-nición no explicaba los infinitesimales, simplemente los había elimi-nado, a costa de una considerable complicación de los fundamentosdel cálculo.

La rehabilitación de los infinitesimales se produjo en 1961, cuan-do Abraham Robinson demostró que los métodos de la lógica ma-temática, especialmente el llamado teorema de compacidad, permi-ten encontrar una clase de números hiperreales que tienen las mismaspropiedades que los números reales, pero contienen, además de losnúmeros reales habituales, también sus variantes infinitesimales (demanera análoga a como los números reales contienen, además de losnúmeros enteros, también sus variantes decimales).

El análisis clásico de los números reales se puede extender a unanálisis no estándar de los números hiperreales, en cuyo ámbito elcálculo del ejemplo de Fermat resulta perfectamente correcto, h esefectivamente distinto de 0, y por lo tanto se puede dividir por elmismo; y aunque 2x+ h y 2x sean números hiperreales distintos, tie-nen las mismas partes reales (así como dos números decimales pue-den ser distintos, pero tener la misma parte interna), y, por lo tanto,son iguales desde el punto de vista de los números reales.

Los números reales pueden verse como una completación de losnúmeros racionales obtenida pasando números cuyo desarrollo de-cimal es finito o periódico, a números cuyo desarrollo es infinito. Demanera análoga, los números hiperreales se pueden ver como unacompletación de los números reales, obtenida pasándolos a númeroscuyo desarrollo es doblemente infinito.

Esto hace pensar en ulteriores completitudes, con números cuyodesarrollo decimal sea cada vez más largo. En 1976, John Conwayintrodujo los números surreales, cuyo desarrollo decimal se extiendepor todos los infinitos traducidos por Cantor, del que hablaremos

La Matemática del siglo XX 77

enseguida; de este modo se obtiene en un sentido preciso, la máximacompletitud posible de los números reales.

5.10. Teoría de Conjuntos: El Teorema de Independencia de Cohen(1963)

El primer problema de Hilbert, al que indudablemente él conside-raba el más importante, preguntaba simplemente cuántos eran losnúmeros reales. Naturalmente, desde un punto de vista intuitivo, larespuesta a la pregunta de Hilbert es obvia: los números reales soninfinitos.

Pero Cantor había demostrado que no se puede hablar simple-mente de “infinito”, como si fuera un concepto bien definido: de he-cho, ¡no sólo existen varios tipos de infinitos, sino que existen infini-tos!. Para darle un sentido a la pluralidad de infinitos, él había redes-cubierto un enfoque abstracto para comparar la cantidad de elemen-tos de dos conjuntos cualesquiera, que ya había sido usado en 1851por Bernhard Bolzano, y anticipado por Duns Scoto en el siglo XIII ypor Galileo en 1638.

La idea es que dos conjuntos tienen el mismo número de elemen-tos si pueden ponerse en correspondencia biunívoca, es decir, si esposible unir elementos de uno a elementos del otro, de manera talque todos los elementos de cada conjunto tengan una y sólo una pa-reja. Por ejemplo, las clases de las sillas y las personas que están enuna habitación tienen el mismo número de elementos si ninguna si-lla está vacía y todas las personas están sentadas, sí cada uno ocupaun solo lugar y no lo comparte.

Y un conjunto tiene un número de elementos menores que otrosi el primero se puede poner en correspondencia biunívoca con unaparte del segundo, pero el segundo no se puede poner en correspon-dencia biunívoca con el primero. Por ejemplo, un par tiene una canti-

78 5. Matemática Pura

dad menor de elementos que una terna, una terna que una cuaterna,una cuaterna que una quinterna, y así sucesivamente. De este modose pueden distinguir fácilmente entre sí los conjuntos finitos que tie-nen distinta cantidad de elementos, así como los conjuntos finitos delos infinitos.

Pero es natural pensar que, con respecto a los conjuntos infinitos,éstos son todos equivalentes, y los primeros resultados de Cantoriban precisamente en esta dirección. Por ejemplo, él demostró quelos números enteros positivos y negativos pueden colocarse en co-rrespondencia biunívoca sólo con los números enteros positivos, or-denándolos de la siguiente manera:

0, 1,−1, 2,−2, 3,−3, . . .

Análogamente, como ya había notado John Farey en 1816, los nú-meros racionales (positivos) pueden ponerse en correspondencia bi-unívoca con los números enteras (positivos), ordenándolos sobre labase de la suma de nominador y denominador del siguiente modo:

11,12,21,13,14,23,32,41, . . .

(las repeticiones podrían eliminarse fácilmente si se quisiera).

En 1874 Cantor descubrió, en cambio, que no es posible poner encorrespondencia biunívoca los números reales con los números ente-ros, cualquier lista de números reales debe estar incompleta, porqueno contiene los números reales que tengan la primera cifra decimaldistinta de la primera cifra decimal del primer número de la lista, lasegunda cifra distinta de la segunda cifra del segundo número, y asísucesivamente.

Entonces, los números reales son más que los números enteros

La Matemática del siglo XX 79

y, con una demostración análoga a la anterior, denominada métododiagonal, Cantor demostró, en 1891, que para cada conjunto infinitose puede encontrar otro que tiene una mayor cantidad de elementos.

Ya que puede demostrarse que el infinito de los números ente-ros es el más pequeño posible, el infinito de los números reales esmayor que él. La pregunta natural es si ése es el infinito que vieneinmediatamente después o si, en cambio, hay otros en el medio; enotras palabras, si existen subconjuntos de números reales que tenganmás elementos que los números enteros, pero menos que los núme-ros reales. En 1883 Cantor conjeturó que no, y esta afirmación se co-noció como hipótesis del continuo (“continuo” es el nombre con el quea veces se indica el conjunto de los números reales).

El primer resultado sobre este problema lo obtuvo Kurt Gödel en1938. Basándose en la frase de Wittgenstein “de lo que no se pue-de hablar hay que callar”, decidió acotar la atención a los conjuntosconstructibles, los únicos de los que se puede hablar en un precisolenguaje jerarquizado. El descubrimiento de Gödel fue que los con-juntos constructibles constituyen un universo que satisface todos losaxiomas de Zermelo y Fraenkel, y también la hipótesis del continuo.Esto significa que su negación no puede derivarse de los axiomas, amenos que sean contradictorios. En otras palabras, la hipótesis delcontinuo es consistente con la teoría de los conjuntos, en el sentidode que no puede ser refutada.

Paul Cohen, en 1963, obtuvo un resultado complementario al deGödel. Esta vez, él decidió ampliar la atención a conjuntos genéricos,que satisfacen todas las propiedades típicas de la teoría de los con-juntos. El descubrimiento de Cohen fue que el agregado de conjuntosgenéricos a los conjuntos constructibles genera universos que satis-facen todos los axiomas de Zermelo y Fraenkel y, en algunos casos,también la negación de la hipótesis del continuo; esto significa que

80 5. Matemática Pura

no se puede derivar de los axiomas, a menos que no sean contradic-torios. En otras palabras, la hipótesis del continuo es independiente dela teoría de los conjuntos, en el sentido de que no puede ser ni proba-da ni, como ya había demostrado Gödel, refutada. Por este resultadoCohen obtuvo la medalla Fields en 1966.

Entonces está resuelto el primer problema de Hilbert, y la solu-ción es que no puede ser resuelto con las nociones de teoría de losconjuntos que hoy son de uso común, lo que, obviamente, no implicaque en el futuro no puedan sumir extensiones de estas nociones queparezcan igualmente naturales pero que permitan decidir la hipóte-sis del continuo en un sentido u otro. Por ahora debemos conformar-nos con separar los resultados probados en la teoría de los conjuntosusando la hipótesis del continuo (o su negación), de los resultadosque no la utilizan.

5.11. Teoría de Singularidades: La Clasificación de las Catástrofes deThom (1964)

La manera más sencilla de describir curvas en el plano en formaanalítica es mediante polinomios x e y, que definen las llamadas cur-vas algebraicas. En 1637, Descartes descubrió que los polinomios deprimer grado describen las rectas, y los de segundo grado las seccio-nes cónicas ya estudiadas por los griegos, es decir, hipérbola, elipse yparábola; su nombre deriva del hecho de que todas esas secciones sepueden obtener por proyección y sección de un círculo, en el sentidode que proyectando el círculo desde un punto se obtiene un cono, yseccionando el cono se obtienen las secciones cónicas.

Los polinomios de tercer grado definen las cúbicas, cuyo estudiose pudo retomar sólo con los nuevos métodos del cálculo infinitesi-mal. Newton descubrió, en 1676, que los tipos de cúbicas son aproxi-madamente ochenta, y todos se pueden obtener por proyección y

La Matemática del siglo XX 81

sección de las curvas elípticas, llamadas así por su rol en el cálculo dellargo de arcos de elipse (una elipse no es una curva elíptica), y cuyaforma general es:

y2 = ax3 + bx2 + cx+ d.

El asunto es interesante porque sólo existen cinco posible, tiposde curvas elípticas, clasificados sobre la base de los posibles cerosdel polinomio de tercer grado a la derecha del igual (Figura 9).

Más precisamente, se obtienen cuatro casos cuando los tres ce-ros son todos reales; si son todos distintos, la curva es de dos piezas,de las cuales una es cenada; si coinciden dos ceros, pueden ser me-nores que el restante, en cuyo caso constituyen un punto aislado, omayores, en cuyo caso forman un nudo; si los tres ceros coinciden,se obtiene una cúspide. El quinto caso se obtiene cuando hay ceroscomplejos, que deben ser dos y distintos, porque un polinomio detercer grado de coeficientes reales siempre tiene un cero real, y losceros complejos siempre vienen en pares, entonces la curva quedaformada por una sola pieza lisa.

En cada punto de una sección cónica la tangente es única y la cur-va está de un solo lado de la misma, pero para curvas más complejas,estas propiedades pueden no valer; cuando esto ocurre, nos encon-tramos ante puntos singulares. Estos puntos ya losmuestran las curvaselípticas: en los nudos y en las cúspides hay dos tangentes, en el pri-mer caso distintas y en el segundo coincidentes; en las flexiones lacurva pasa de un lado al otro de la tangente, cambiando concavidad.En 1740, el abad Jean Paul de Gua de Malves probó que, en gene-ral, todos los puntos singulares de las curvas algebraicas se obtienencomponiendo nudos, cúspides y flexiones, de distintas maneras.

El estudio de las curvas no algebraicas es más difícil y es un obje-tivo de la teoría de la singularidad deducir el comportamiento global

82 5. Matemática Pura

y = cúbica

b b b

y2 = cúbica

3 ceros realesdistintos

b b b

b b

3 ceros coincidentesmenores que el 3o

b b

b b

2 ceros coincidentesmenores que el 3o

b b

b

3 ceros coincidentes

b

b

2 ceros complejos

b

Figura 9. Clasificación de las curvas elípticas

La Matemática del siglo XX 83

de la curva a partir del conocimiento local de sus puntos singulares.

Más en general, se trata de clasificar familias de curvas o super-ficies reduciéndolas a un número restringido de tipos determinadospor su singularidad, de manera análoga a la clasificación de las cúbi-cas mencionada anteriormente.

La noción de derivada permitió inmediatamente, a Fermat en1638 y a Newton en 1665, estudiar las curvas lisas, es decir, las quetienen derivada en todos los puntos, y cuyos puntos singulares sonaquéllos en los que la primera derivada es nula. Las curvas lisas sepueden reducir, mediante deformaciones locales, a las curvas lisasque tienen a lo sumo puntos singulares regulares, es decir en las quela segunda derivada no es nula: en esos puntos la curva es aproxima-da por un monomio de segundo grado, es decir, por una parábola; ydependiendo de que el signo sea positivo o negativo, la parábola estádirigida hacia arriba o hacia abajo, y por lo tanto, el punto singulares un mínimo o un máximo. Por ejemplo, la cúbica x3 tiene un puntosingular no regular, es decir, una flexión, en el origen, donde la tan-gente es horizontal; pero basta una mínima rotación de la tangentepara transformarla en una curva de tipo x3 + x, sin puntos singula-res, o en una de tipo x3 − x, con un máximo y un mínimo (Figura10).

En 1934, Marston Morse amplió estos resultados de las curvas alas superficies a n dimensiones. Probó que las superficies lisas se pue-den reducir, mediante deformaciones locales llamadas difeomorfis-mos, a superficies lisas que tienen a lo sumo puntos singulares regu-lares; en estos puntos la superficie es aproximada por una suma al-gebraica de monomios de segundo grado en cada variable, es decir,por una superficie con forma de montura, cuyo tipo está determina-do por la cantidad de monomios con signo positivo o negativo, esdecir, por la cantidad de direcciones hacia las que se dirige la mon-

84 5. Matemática Pura

tura para arriba o abajo.

El teorema de Morse caracteriza completamente los puntos sin-gulares regulares y, por lo tanto, deja abierto el problema de la carac-terización de los que no son regulares; estos últimos se denominancatástrofes porque corresponden a bifurcaciones radicales en el com-portamiento del sistema, y el estudio de las superficies con puntossingulares no regulares es el objeto de la teoría de las catástrofes desa-rrollada por René Thom.

x3 − x x3 x3 + x

Figura 10.

En el caso de las curvas lisas, las únicas catástrofes son las flexio-nes, en este caso la curva es plana porque atraviesa la tangente hori-zontal. En el caso de las superficies en n dimensiones, existen variasposibilidades, según el número de direcciones en que la curva es pla-na, llamado corrango y del mínimo número de deformaciones necesa-rias para eliminar las irregularidades, llamado codímensión; por ejem-plo, la cúbica x3, que ya mencionamos, obviamente tiene corrango 1,y también tiene codimensión 1, porque alcanza con agregarle un so-lo término para eliminar su flexión. Inspirado en un trabajo de 1947de Hassler Whitney, premio Wolf en 1982, acerca de las cúspides, en1964 Thom conjeturó que corrango y codimensión son suficientes pa-ra clasificar las catástrofes. Más precisamente, que si la codimensión

La Matemática del siglo XX 85

es menor o igual a 4 las catástrofes sólo son de siete tipos: cuatro decorrango 1, pliegues, cúspides, colas de golondrinas y mariposas; ytres de corrango 2, pirámides, portafolios y hongos (Figura 11). En elcaso de codimensiones mayores, en cambio, las catástrofes resultaninfinitas. La conjetura de Thom fue comprobada por John Mather en1966.

pliegue cúspide cola de golondrina mariposa

ombligo elíptico(pirámide)

ombligo hiperbólico(portafolio)

ombligo parabólico(hongo)

Figura 11. Clasificación de las catástrofes

Lo interesante de la teoría de las catástrofes está en el hecho deque fue uno de los primeros instrumentos matemáticos que parecie-ron capaces de poner orden en el caos, y describir regularidades delcomportamiento irregular. En 1972, el mismo Thom inauguró, en suinfluyente libro Estabilidad estructural y morfogénesis, sus aplicacionesal estudio de los fenómenos más dispares, desde la formación de losembriones hasta el estallido de las revolucione que después fueronllevadas al extremo por Christopher Zeeman.

Desde este punto de vista aplicativo, la teoría de las catástrofesen la actualidad ha sido superada doblemente. Primero por la teoríade las estructuras disipativas y por la termodinámica de los fenóme-nos irreversibles de Ilya Prigogine, que le valieron el premio Nobel dequímica en 1977. Y más tarde, por las teorías del caos y de la dinámicade los sistemas inestables, de las que hablaremos más adelante.

86 5. Matemática Pura

5.12. Álgebra: La Clasificación de los Grupos Finitos de Gorenstein(1972)

Se sabe desde los tiempos de los babilonios que existe una simplefórmula algebraica que permite calcular las soluciones de cualquierecuación de segundo grado

ax2 + bx+ c = 0

y precisamente:

x =−b±

√b2 − 4ac2a

En el siglo XVI, varios matemáticos italianos, entre ellos Niccolò Fon-tana (llamado Tartaglia), Gerolamo Cardano y Ludovico Ferrari, en-contraron fórmulas algebraicas que permiten calcular las solucionesde cualquier ecuación de tercer o cuarto grado. Pero Paolo Ruffini, en1799, y Niels Abel, en 1824, demostraron que no existen formulas al-gebraicas que permitan calcular las soluciones de cualquier ecuaciónde quinto grado.

En 1832, Evariste Galois resolvió el problema general de decidircuáles ecuaciones se pueden resolver mediante fórmulas algebrai-cas. Para formular su teoría, Galois introdujo el concepto de grupode permutaciones de las soluciones, entendiendo permutación de unconjunto de elementos simplemente como un modo de volver a dis-ponerlos; por ejemplo, 2-3-1 es el resultado de una permutación de1-2-3.

En 1849, Auguste Bravais, estudiando problemas de cristalogra-fía, introdujo el concepto análogo de grupo de simetría En este caso seconsideran las transformaciones geométricas que mantienen invaria-da una figura respecto de ciertos criterios; por ejemplo, las simetríasde rotación de un polígono regular en el plano, o de un poliedro re-gular en el espacio. Grupos de simetría particularmente interesantes

La Matemática del siglo XX 87

son los referidos a las rotaciones del círculo o de la esfera, que soninfinitas (porque el ángulo de rotación puede ser cualquiera); en estecaso se obtienen ejemplos de los grupos de Lie que analizaremos másadelante.

Como ya demuestran los ejemplos citados, grupos de distinta na-turaleza aparecen naturalmente en distintas áreas de la matemáti-ca, y en 1849 Arthur Cayley introdujo el concepto de grupo abstracto,constituido por un conjunto de elementos y por una operación talesque: primero, la aplicación repetida de la operación a elementos delconjunto produce otra vez elementos del conjunto; segundo, existeun elemento llamado “neutro”, que desempeña respecto de la ope-ración el mismo rol que 0 o 1 desempeñan respecto de la suma o elproducto; tercero, la operación se puede “invertir”, del mismo modoen que la sustracción o la división invierten la suma o la multiplica-ción; cuarto, la operación es asociativa, en el mismo sentido en quelo son la suma o la multiplicación, es decir

a+ (b+ c) = (a+ b) + c y a · (b · c) = (a · b) · c

En general, no es necesario que la operación también sea conmutati-va, en el sentido en que lo son la suma y el producto, o sea

a+ b = b+ a y a · b = b · a

pero, si lo es, se obtiene un grupo abeliano.

La generalidad del concepto de grupo hace que resulte fácil deaplicar pero, al mismo tiempo, difícil de caracterizar. Una simplifi-cación esencial, realizada por Galois, consiste en definir la clase delos grupos simples, que son los constituyentes elementales de los gru-pos en el mismo sentido en que los números primos lo son para losenteros, es decir, se introduce una operación de factorización de gru-

88 5. Matemática Pura

pos, y los grupos simples son los que admiten como factores sólo a símismos o al grupo unitario (constituido por un solo elemento). En-tonces, el problema de la clasificación de los grupos se reduce al dela clasificación de los grupos simples.

El primer paso fue la clasificación de los grupos continuos de trans-formaciones, introducidos en 1874 por Sophus lie, llamados grupos deLie, en su honor. Pueden definirse como aquellos grupos que admitenun sistema de coordenadas locales respecto del cual las operacionesde grupo resultan analíticas. La teoría de los grupos de Lie, que invo-lucra al álgebra, la topología y el análisis ya desde su definición, hasido y sigue siendo fuente de problemas profundos y difíciles. Unode éstos, el quinto problema de Hilbert preguntaba si todo grupo lo-calmente euclídeo (es decir, que admite un sistema de coordenadaslocales) era un grupo de Lie, y fue resuelto afirmativamente en 1952por Gleason, Montgomery y Zippin.

Aunque un grupo de Lie sea infinito, es posible identificar suselementos especificando sólo un número finito de parámetros, quese llama dimensión del grupo. Por ejemplo, el grupo de las rotacionesdel círculo, que se indica tanto con U(1) como con SO(2), tiene di-mensión 1 porque basta especificar el ángulo de rotación. En cambioel grupo de las rotaciones de la esfera, que se indica con SO(3), tie-ne dimensión 3 porque se necesita especificar tanto el eje de rotación(que puede ser identificado por latitud y longitud) como el ángulode rotación.

La clasificación de los grupos simples de Lie fue esbozada porWilhelm Killing, en 1888, y perfeccionada por Elie Cartan en 1894.Se descubrió, ante todo, que hay cuatro familias infinitas todas cons-tituidas por grupos cuyos elementos son matrices de n líneas y ncolumnas, y que se distinguen sobre la base de las propiedades deéstas; por ejemplo, SO(n) y SU(n) son, respectivamente, los grupos

La Matemática del siglo XX 89

formados por las matrices Especiales Ortogonales y por las matricesEspeciales Unitarias1. Además, existen cinco grupos esporádicos queno entran en ninguna de las cuatro familias, y constituyen excepcio-nes llamadas G2, D4, E6, E7 y E8, que respectivamente tienen dimen-sión 14, 52, 78, 133 y 248.

La teoría de los grupos de Lie es el lenguaje que hoy permite ex-presar las teorías de campo unificadas de la física de las partículas.Más precisamente, se ha descubierto que las fuerzas electromagnéti-ca, nuclear débil y nuclear fuerte respetan particulares simetrías derotación de fase de los campos, de cambio de carga de las partícu-las y de cambio de colores de los quark, y que las propiedades deestas simetrías son descriptas por los grupos de Lie U(1), SU(2) ySU(3). Las dimensiones respectivas de estos grupos son 1, 3 y 8, ycorresponden al número de bosones que transmiten las tres fuerzas:1 fotón, 3 bosones débiles y 8 gluones.

El primer intento de descripción matemática de estas simetríasfue realizado por Chen Ning Yang y Robert Mills en 1954, quienesusaron el grupo SU(2) para la descripción de algunas simetrías delas interacciones fuertes (en vez de débiles), dando el primer ejem-plo de las que actualmente se llaman ecuaciones de Yang-Mills. Elsegundo intento fue efectuado por Murray Gell-Mann en 1961, queusó el grupo SU(3) para la descripción de las simetrías de los sabo-res (en vez de los colores) de los quark, lo que le valió el premio Nobelde física en 1969. La identificación en 1968 de U(1) × SU(2) comogrupo característico de la teoría electrodébil, por parte de SheldonGlashow, Abdus Salam y StevenWeinberg les valió el premio Nobel de

1Los nombres derivan del hecho de que las transformaciones lineales determi-nadas por matrices unitarias preservan la unidad de largo, es decir, la distancia,mientras aquellas que están determinadas por matrices ortogonales preservan tam-bién la ortogonalidad. Técnicamente, una matriz es especial si su determinante esigual a 1, ortogonal si el producto con su transpuesta es la identidad, y unitaria si elproducto con tu transpuesta conjugada es la identidad.

90 5. Matemática Pura

física en 1979. Finalmente, SU(3) fue identificado en 1973 por Wein-berg, David Gross y FrankWilczek como el grupo característico de lacromodinámica.

Por lo tanto, el progreso hacia la unificación final de las fuerzas fí-sicas pasa a través de la determinación de un apropiado grupo de Lieque contenga el producto U(1) × SU(2)× SU(3). El mínimo gruposimple de Lie que satisface matemáticamente el requisito es SU(5),de 24 dimensiones, pero no parece apropiado físicamente, pues lagran unificación que se basa en ese grupo prevé fenómenos inciertoscomo una decadencia demasiado veloz del protón y la existencia demonopolios magnéticos. El grupo al que se apunta hoy para la de-nominada teoría del todo, que también comprenda la gravedad, es encambio una doble pareja del máximo grupo esporádico E8 que al te-ner doble dimensión de 248, prevé la existencia de 496 bosones decampo, de los que, sin embargo, sólo se conocen actualmente los 12ya mencionados.

En lo que respecta a la clasificación de los grupos simples fini-tos, el asunto resulta más complicado que en los grupos de Lie. Afinales del siglo XIX se conocían seis familias infinitas, y cinco gruposesporádicos descubiertos en 1861 por Émile Mathieu en el estudiode geometrías finitas, de los cuales el más grande tenía alrededor de250.000.000 de elementos.

De las seis familias, cuatro eran los análogos de las familias degrupos de Lie. La quinta familia era la de los grupos cíclicos, es decir,los enteros módulo n, de los que ya hemos hablado, los grupos cícli-cos simples son exactamente aquellos que tienen un número primode elementos.

La sexta familia era la de los grupos alternos, definidos por Galois.La primera observación de partida es que, en realidad, cada permuta-ción se puede obtener mediante sucesivo cambios de elementos con-

La Matemática del siglo XX 91

secutivos, por ejemplo, la permutación 2-3-1 se puede obtener de 1-2-3 cambiando entre ellos primero los primeros dos elementos (2-1-3)y (2-3-1). Los grupos alternos están constituidos por las permutacio-nes que se obtienen mediante un número igual de sucesivos cambiosde elementos, como en el ejemplo mencionado. Y los grupos alternosque se obtienen de las permutaciones en un conjunto con un núme-ro de elementos mayor que 4 son todos simples (Galois demostróque este hecho determina precisamente la imposibilidad de encon-trar fórmulas algebraicas para resolver en general las ecuaciones degrado superior al cuarto).

Nuevas familias fueron encontradas en 1957 por Claude Cheva-lley, en particular, cada grupo esporádico de Lie originó una familiaentera de análogos definidos en campos finitos. Nuevos grupos es-porádicos fueron encontrados en 1965 por Zvonimir Janko. Estos re-sultados abrieron una fase de descubrimiento, que condujo a la iden-tificación de 18 familias y 26 grupos esporádicos, entre los cuales,el más grande es un monstruo de aproximadamente 1054 elementos.Como en la física de las partículas, frecuentemente los nuevos gru-pos fueron primero previstos teóricamente, y después “observadosen laboratorio”. Por ejemplo, el monstruo que acabamos de mencio-nar fue previsto en 1973 por Bernd Fischer y Robert Griess, y fueconstruido (¡a mano!) por Fischer en 1980.

Pero el auténtico problema era demostrar que las 18 familias ylos 26 grupos esporádicos constituyen la clasificación buscada, en elsentido de que cada grupo simple finito o está en una de las familiaso es uno de los grupos esporádicos. El proyecto para solucionar es-te problema lo enunció Daniel Gorenstein en 1972; la demostración,terminada en 1985, necesitó la colaboración de un centenar de mate-máticos, ocupa 500 artículos con un total de 15.000 páginas y tiene elrécord de complejidad en la historia de la matemática.

92 5. Matemática Pura

El programa de Gorenstein procede por casos, reduciendo las po-sibilidades a un centenar y demostrando, para cada una, un teoremade clasificación reducido. Uno de los casos más importantes es el delos grupos simples con una cantidad impar de elementos; para lasegunda conjetura de Burnside, de 1906, deben ser exactamente los gru-pos cíclicos con un número primo de elementos (mayor que 2). Laconjetura fue demostrada en 1962 por Walter Feit y John Thompson,en un artículo de 250 páginas, y por este trabajo Thompson obtuvola medalla Fields en 1970 y el premio Wolf en 1992.

De todos modos, la clasificación de los grupos finitos no es el fi-nal de la historia. Por ejemplo, la primera conjetura de Burnside, de1902, preguntaba si todo grupo que tuviera un número finito de ge-neradores (todo elemento es una combinación de ellos) y que fueraperiódico de orden n (después de n combinaciones con sí mismo, ca-da elemento se neutraliza) es finito. Ya que el viceversa es obvio, laconjetura habría caracterizado completamente a los grupos finitos,pero fue refutada en 1968 por Petr Novikov (padre de Sergei,medallaFields en 1970) y S. I. Adian. . Una versión reducida de la conjetura, yareformulada en los años 1930, se conforma con requerir la finitud, nodel grupo en sí mismo, sino sólo del número de sus cocientes finitos,y fue demostrada en 1991 por Efim Zelmanov, quien obtuvo por estetrabajo la medalla Fields en 1994. Comprobó el caso en que n es unapotencia de un número primo, y el caso general se puede conducir aéste mediante el teorema de clasificación de los grupos finitos (no seconoce una demostración más directa de la conjetura).

5.13. Topología: La Clasificación de las Superficies Tridimensionalesde Thurston (1982)

Uno de los grandes éxitos matemáticos del siglo XIX fue la clasi-ficación de las superficies bidimensionales cerradas desde un punto

La Matemática del siglo XX 93

de vista topológico, es decir, considerándolas como si fueran envol-torios de goma que se pueden deformar a gusto, pero sin romperlos.Desde este punto de vista abstracto, un globo inflado y uno desinfla-do son la misma superficie, aunque desde el punto de vista externouno pueda parecer una esfera y el otro una hoja replegada o enros-cada. En cambio, un globo y un salvavidas son superficies distintas,porque no se puede deformar el globo para que parezca un salvavi-das sin romperlo.

La clasificación utiliza esencialmente el concepto de superficie noorientable, descubierto en 1858 por Johann Listing y Augustus Moe-bius. El ejemplo más conocido es la llamada cinta de Moebius, queya aparece en mosaicos romanos del siglo III: se toma una cinta rec-tangular de papel, se la hace dar una media vuelta en el sentido dellargo, y luego se pegan entre sí los dos lados cortos (si no se hace darla media vuelta se obtiene un cilindro). La cinta de Moebius tiene unsolo lado y un solo borde (Figura 12). Además, no es orientable, en elsentido de que en la cinta no se pueden distinguir el sentido horarioy antihorario (o las manos derecha e izquierda): un trompo que gireen cierto sentido y recorra toda la cinta, cuando vuelva al punto departida quedará girando en la dirección opuesta.

Los trabajos de Riemann en 1857, Moebius en 1863 y Félix Kleinen 1882 llegaron a demostrar todos juntos que toda superficie bidi-mensional cerrada es equivalente, desde un punto de vista topoló-gico, a exactamente una de las superficies de dos familias infinitas.La primera familia consiste en la esfera, y en las superficies (orien-tables) que se obtienen agregando a la misma un número finito dearos; un caso particularmente interesante es la esfera con un solo aro,que equivale a la superficie con forma de rosca llamada toro (Figura13). En particular, las superficies bidimensionales orientables estáncompletamente determinadas por el número de sus huecos (Figura

94 5. Matemática Pura

14). La segunda familia consiste en las superficies (no orientables)que se obtienen de la esfera separando un número finito de círcu-los y sustituyéndolos con otras tantas cintas de Moebius (lo cual sepuede realizar, porque la cinta tiene un solo borde); dos casos parti-cularmente interesantes son las esferas a las que se aplicaron una odos cintas, que equivalen respectivamente a las superficies llamadasplano proyectivo y botella de Klein (Figura 15).

Existen tres tipos de geometría posibles para una superficie bidi-mensional, la euclídea usual, la hiperbólica y la esférica (esta últimadifiere sustancialmente de las otras dos, porque en ella no hay rec-tas paralelas, dos círculos máximos se encuentran siempre). Desdeel punto de vista de la geometría que se asocia a las mismas, las su-perficies de las dos familias se dividen de la siguiente manera: a laesfera y al plano proyectivo se les puede asignar una geometría esfé-rica; al toro y a la botella de Klein, una geometría euclídea; y a todaslas demás superficies una geometría hiperbólica.

Una vez obtenida la clasificación de las superficies bidimensiona-les, es natural intentar clasificar las superficies en tres dimensiones:un trabajo que realizó William Thurston en los años 1970 y que nose concluyó aún, pero que le valió la medalla Fields en 1983. Él de-mostró que en el caso tridimensional existen no sólo tres, sino ochogeometrías posibles: del espacio euclídeo, del espacio hiperbólico, dela tóperesfera, de los hipercilindros de sección esférica, de los hiper-cilindros de sección hiperbólica, más otras tres (dos de las cuales co-rresponden a asignar al espacio euclídeo distancias diferentes de lahabitual). Para complicar aunmás las cosas, no a todas las superficiestridimensionales se les puede asignar una sola de estas geometrías,por lo tanto es necesario, en general, cortar la superficie en pedazosy asignar geometrías distintas a los diferentes pedazos. Afortunada-mente, como demostróMilnor en 1962, las superficies tridimensiona-

La Matemática del siglo XX 95

les se pueden descomponer en pedazos canónicos de manera sustan-cialmente única, utilizando cortes bidimensionales apropiados, porlo tanto, “sólo” se trata de asignar geometrías a las piezas canóni-cas y esto ya se hizo para muchas de las superficies tridimensionales(aunque todavía no para todas). Como ya ocurrió en el caso de dosdimensiones, la geometría hiperbólica es la que tiene más posibilida-des.

Figura 12. Cilindro y Cinta de Moebius

Figura 13. Toro

Figura 14. Clasificación de las superficies bidimensionablesorientables

Figura 15. Plano Proyectivo y Botella de Klein

96 5. Matemática Pura

Como ya dijimos al hablar de las variedades exóticas MichaelFreedman logró una clasificación topològica de las superficies en cua-tro dimensiones, y por ello obtuvo la medalla Fields en 1986. Mientrasque para las superficies en 5 o más dimensiones se obtiene una cla-sificación desde la teoría de la homotopía, de la que hablaremos másadelante. El caso tridimensional sigue siendo el único que falta com-pletar, pero no es el final de la historia.

En efecto, existe una subclase importante de superficies multidi-mensionales, constituida por las variedades algebraicas (reales o com-plejas) definibles mediante sistemas de ecuaciones algebraicas. Lasvariedades unidimensionales (o curvas) algebraicas complejas son su-perficies reales particulares, y su clasificación topològica desciendede la clasificación general expuesta anteriormente, en términos denúmero de huecos.

Una clasificación de las variedades bidimensionales (o superficies)algebraicas complejas (o tetradimensionales reales) fue uno de los es-pectaculares resultados de la escuela italiana de geometría de GuidoCastelnuovo, Federigo Enriques y Francesco Severi, obtenido entre1891 y 1949. En algunos casos, por ejemplo el de las superficies lla-madas de tipo general, los italianos demostraron el resultado de ma-nera completa. En cambio en otros casos, por ejemplo el de las super-ficies llamadas irregulares las demostraciones quedaron incompletasporque todavía faltaban los medios técnicos necesarios, que fuerondesarrollados recién en los años 1950 por Kunihiko Kodaira, y le va-lieron la medalla Fields en 1954 y el premio Wolf en 1984/1985. Es poresto que el teorema de clasificación de las variedades algebraicas bi-dimensionales actualmente se llama de Enriques-Kodaira.

El estudio más complicado acerca de las variedades tridimensiona-les algebraicas complejas (o en seis dimensiones reales) inicialmentefue emprendido por Corrado Segre, pero en este caso la falta de me-

La Matemática del siglo XX 97

dios técnicos adecuados fue aun más limitativa que en el anterior, yno le permitió a la escuela italiana ir más allá de notables intuicionesy conjeturas. El desarrollo de la tecnología necesaria y la clasificaciónde las variedades tridimensionales algebraicas fue, en cambio, unode los espectaculares resultados de la escuela japonesa de geometríade Heisuki Hironaka, Shing Tung Yau y Shigefumi Mori, que porsus trabajos obtuvieron la medalla Fields en 1970, 1983 y 1990. En par-ticular, el primero mostró cómo resolver las singularidades de unavariedad, transformándola apropiadamente en otra sin singularida-des. El segundo caracterizó las variedades de Calabi-Yau, que no sóloconstituyen una pieza importante de la clasificación sino que, comoexplicaremos más adelante, también encontraron aplicaciones ines-peradas en la teoría de las cuerdas. El tercero formuló y concluyó elllamado programa del modelo minimal, sobre el cual, precisamente, sebasa la clasificación.

5.14. Teoría de Números: La demostración de Wiles del Último Teo-rema de Fermat (1995)

En 1637, Fermat leyó la Aritmética de Diofanto, un monumentallibro del siglo III, y anotó al margen la siguiente observación:

Dividir un cubo en dos cubos, o en general una potencian-ésima en dos potencias n-ésimas, es imposible si n es mayorque 2: encontré una demostración realmente importante de esto,pero el margen es demasiado pequeño para contenerla.

Esta observación había sido anticipada para los cubos en 1070por Omar Khayyâm, matemático y poeta, autor del Robâ’iyyât. En suforma general se hizo famosa con el nombre de el último teorema deFermat, y durante 350 años fue uno de los problemas más famosos dela matemática.

98 5. Matemática Pura

Fermat requería que n fuera mayor que 2 porque ya los babi-lonios, y después los pitagóricos, sabían que hay cuadrados que sepueden escribir como suma de dos cuadrados, por ejemplo

32 + 42 = 52, o sea 9+ 16 = 25.

En la correspondencia de Fermat se encontró una demostracióndel teorema para n = 4, que usa un ingenioso método llamado des-censo infinito, que consiste en suponer por absurdo que haya una so-lución, y demostrar que entonces debe haber otra cuyos números nosean más grandes que los de la anterior, y al menos uno sea estricta-mente más pequeño, lo que conduce a una imposible regresión infi-nita.

En el transcurso de los años, los mejores matemáticos se empe-ñaron en este problema, y confirmaron el teorema en varios casos:n = 3 Euler en 1753, n = 5 Dirichelet y Legendre en 1825, n = 7Lamé en 1839, todo n menor que 100 Kummer entre 1847 y 1857.Aunque en 1980 la verificación ya había llegado a todo n menor que125.000, todavía faltaba la demostración general del teorema.

E1 primer auténtico resultado general se obtuvo de manera másbien indirecta. E1 punto de partida es la observación que indica queel teorema de Fermat requiere soluciones enteras de ecuaciones deltipo

an + bn = cn.

Entonces, ya que

( ac

)n+

(

bc

)n

= 1,

La Matemática del siglo XX 99

se trata de encontrar soluciones racionales de ecuaciones del tipo

xn + yn = 1.

Estas ecuaciones definen una curva si se las considera sobre nú-meros reales, y una superficie si se las considera sobre números com-plejos; además, estas superficies se pueden clasificar sobre la basedel número de huecos que tienen. Por ejemplo, para n = 2 no hayhuecos, porque la ecuación anterior define un circulo como curva yuna esfera como superficie; y existen infinitas soluciones racionales,que ya Diofanto sabía cómo describir completamente. En, de n ma-yor que 2 sí existen, en cambio, huecos, uno para n = 3, tres paran = 4, seis para n = 5, y así sucesivamente (Figura 16). Naturalmen-te, al aumentar la cantidad de los huecos aumenta la complejidadde la superficie y disminuye la posibilidad de encontrar solucionessimples (racionales).

Figura 16. Superficies asociadas a la ecuación x3 + y3 = 1

Además de las ecuaciones anteriores, mientras tanto, otro tipohabía resultado particularmente interesante, las llamadas curvas elíp-

100 5. Matemática Pura

ticas, que ya hemos mencionado. En este caso la cantidad de huecosde la superficie correspondiente es uno, y también aquí es posibleobtener infinitas soluciones racionales.

En 1922, Leo Mordell propuso la conjetura de Mordell: “Los únicostipos de ecuaciones que admiten infinitas soluciones racionales son aquellosque definen superficies sin huecos o con un solo hueco.”

Esto significa que, si vale la conjetura de Mordell, el teorema deFermat es casi verdadero, porque para todos los n mayores que 3 (yel caso n = 3 ya había sido resuelto por Euler) la ecuación define unasuperficie con más de un hueco y, por lo tanto, puede tener a lo sumoun número finito de soluciones racionales.

En 1962, Igor Shafarevich propuso, a su vez, la conjetura de Shafa-revich: “En ciertas condiciones, se pueden encontrar las soluciones enterasde una ecuación descomponiendo primero la ecuación, es decir, considerandolos varios análogos obtenidos limitando los enteros bajo los varios númerosprimos, resolviendo estos análogos finitos, y volviendo a componer luego lassoluciones para obtener una solución de la ecuación de partida.”

En otras palabras, se trata de reconstruir las soluciones sobre labase del conocimiento de sus restos respecto de la división por variosnúmeros primos.

En 1968, Parshin encontró un vinculo entre las dos conjeturas yprobó que la conjetura de Mordell deriva de la de Shafarevich. Laconjetura de Shafarevich fue demostrada en 1983 por Gerd Faltings,quien obtuvo por este trabajo la medalla Fields en 1986. La demostra-ción utiliza de manera esencial la solución de Deligne de la ulteriorconjetura de Weil, de la que hablaremos enseguida.

La demostración de la conjetura de Mordell es un resultado taninteresante que fue publicitado como el “teorema del siglo”, pero pa-rece no ser de gran ayuda en lo que respecta al teorema de Fermat,

La Matemática del siglo XX 101

incluso una sola solución racional de la ecuación

xn + yn = 1

produciría en efecto una solución entera de la ecuación

an + bn = cn,

y por lo tanto infinitas soluciones (obtenidas multiplicando la ante-rior por una constante). En realidad, en 1985 Andrew Granville yRoger Heath-Brown lograron derivar del teorema de Faltings la vali-dez del teorema de Fermat para infinitos exponentes primos. Es más,para casi todos los exponentes, desde un punto de vista de teoría dela medida.

A la demostración del teorema de Fermat para todos los expo-nentes mayores que 2 se llegó, una vez más, por un camino muyindirecto, a través de la denominada conjetura de Taniyama. El puntode partida es, en este caso, la observación que indica que la ecuación

x2 + y2 = l.

se puede parametrizar mediante las llamadas funciones trigonomé-tricas, seno y coseno, que satisfacen precisamente la ecuación funda-mental

(sen α)2 + (cos α)2 = 1.

Entonces, resolver la ecuación de Fermat para n = 2 significa en-contrar un ángulo α cuyos seno y coseno sean racionales. De maneraanáloga, las llamadas funciones trigonométricas hiperbólicas para-metrizan la ecuación

x2 − y2 = l.

102 5. Matemática Pura

Pasando de las ecuaciones cuadráticas que definen las cónicas a lascúbicas, Taniyama conjeturó, en 1955, que ciertas funciones modula-res, más generales que las trigonométricas, parametrizan de maneraanáloga cualquier curva elíptica.

En 1985, Gerhard Frey encontró la relación entre la conjetura y elteorema de Fermat, y propuso asociar a la ecuación de Fermat

an + bn = cn

la curva elípticay2 = x(x+ an)(x− bn).

Frey notó que su curva elíptica posee propiedades demasiado bellaspara ser verdaderas; por ejemplo, el discriminante que determina laexistencia de raíces del polinomio

(x+ an)(x− bn) = x2 + x(an − bn)− anbn,

es decir∆ =

(an − bn)2 + 4anbn = an + bn = cn

es una potencia n-ésima perfecta. En 1986, Ken Ribet demostró que lacurva de Frey no puede ser parametrizada por funciones modulares;esto, dicho de otra manera, significa que de la conjetura de Taniyamadesciende el teorema de Fermat.

“Sólo” faltaba demostrar también la conjetura. En 1995, AndrewWiles logró comprobar una parte, para una dase de curvas elípticasllamadas semiestables, a la que pertenece la curva de Frey, resolvien-do de esta manera uno de los más famosos problemas abiertos dela matemática moderna. Wiles obtuvo por este histórico resultado elpremio Wolf en 1995/1996, pero no pudo recibir una medalla Fieldsen 1998 porque acababa de cumplir más de cuarenta años.

La Matemática del siglo XX 103

En 1999, Brian Conrad, Richard Taylor, Christophe Breuil y FredDiamond completaron el trabajo de Wiles, demostrando que la con-jetura de Taniyama también vale para las curvas elípticas no semies-tables.

5.15. Geometría Discreta: La solución de Hales al Problema de Ke-pler (1998)

En 1600, Sir Walter Raleigh le pidió al matemático Thomas Ha-rriot una fórmula para calcular cuántas balas de cañón había en unapila. Naturalmente, depende de cómo estén amontonadas, y Harriotse preguntó cuál sería el modo más eficiente para hacerlo. En 1606,el problema llegó hasta el astrónomo Johannes Kepler, quien encon-tró una analogía con el problema de la formación de los cristales denieve, de las celdas de las colmenas y de las semillas de las granadas.En particular, imaginó que en todos estos casos se pone en acción unmismo mecanismo, por el cual esferas dispuestas en retículos espa-ciales de distintas formas, al expandirse, tienden a llenar completa-mente el espacio intermedio.

En 1611, Kepler reformuló el problema matemático subyacentede la siguientemanera: determinar cuál es la configuración de esferascon el mismo radio que tiene la máxima densidad, en el sentido dela relación (al límite) entre el volumen total de las esferas y el delespacio que las contiene. Un problema análogo en el plano requierela determinación de la configuración de círculos con el mismo radioque tenga la máxima densidad, en este caso, con respecto al área.

Las dos configuraciones obvias para considerar en el caso de loscírculos son la cuadrada y la hexagonal (Figura 17), y Kepler deter-minó que sus densidades son, aproximadamente, 0,785 y 0,907; porlo tanto, la configuración hexagonal es la mejor de las dos, como tam-bién puede observarse a simple vista. Pero esto no resuelve el proble-

104 5. Matemática Pura

ma, que requiere la mejor configuración posible.

En 1831 Gauss demostró que la configuración hexagonal es la me-jor entre todas las reticulares, tales que los centros de los círculosformen un retículo planar, o sea, una configuración simétrica de para-lelogramos. En 1892 Axel Thue anunció que había demostrado quela configuración hexagonal es la mejor en absoluto, pero la demos-tración fue publicada recién en 1910.

En el espacio, las cuatro configuraciones obvias para considerarson las que se obtienen superponiendo entre sí estratos obvios de es-feras; hay dos elecciones para las configuraciones de los estratos ho-rizontales (cuadradas y hexagonales), y dos elecciones para la dispo-sición vertical de los estratos (con los centros de las esferas alineados,o desfasados). Pero en realidad, las cuatro configuraciones descritassólo son tres: cuando se superponen desfasados estratos cuadradoso hexagonales se produce la misma configuración (Figura 18).

Kepler determinó que la densidad de las configuraciones cuadra-da alineada, hexagonal alineada y (cuadrada o hexagonal) desfasadaes, aproximadamente, 0,524, 0,605 y 0,740; por lo tanto, la configura-ción desfasada es la mejor de las tres. Y, en efecto, es la que se utilizaespontáneamente para acomodar la fruta en las mesas de los merca-dos. Pero, una vez más, esto no resuelve el problema matemático.

Gauss demostró que, análogamente a la configuración hexagonalen el plano, la configuración desfasada en el espacio es la mejor en-tre todas las reticulares, es decir, tales que los centros de las esferasformen un retículo espacial, o sea, una configuración simétrica de pa-ralelepípedos. El caso general constituía la tercera parte del decimoc-tavo problema de Hilbert y fue resuelto en 1998 por Thomas Hales, quecomprobó que la configuración desfasada es efectivamente la mejor.La estructura de la demostración recuerda la del teorema de los cua-tro colores, de la que hablaremos mas adelante; se trata de reducir las

La Matemática del siglo XX 105

configuraciones que hay que verificar a un número suficientementepequeño como para que pueda ser controlado por el ordenador. Lareducción utiliza 250 páginas, y el programa para el ordenador 3 gi-gabytes.

Figura 17. Configuraciones de círculos

Figura 18. Configuraciones de esferas

Figura 19.

Cuando la cantidad de dimensiones aumenta, el problema se po-ne aun más interesante. Ante todo, en 2 dimensiones se pueden co-locar 4 círculos de radio 1 dentro de un cuadrado de lado 4, y quedalugar en el centro para un circulito de radio

√2 ≈ 0, 41. En 3 dimen-

siones se pueden colocar 8 esferas de radio 1 dentro de un cubo delado 4, y queda lugar en el centro para una pequeña esfera de radio

106 5. Matemática Pura

√2 ≈ 0, 73 (Figura 19). En n dimensiones se pueden colocar 2n hiper-

esferas de radio 1 dentro de un hipercubo de lado 4, y queda lugaren el centro para una pequeña hiperesfera de radio

√n− 1.

Los radios de las pequeñas hiperesferas que se pueden colocarentre las hiperesferas siguen creciendo con el número de dimensio-nes, como se puede ver en el pasaje de 2 a 3. Cuando se alcanzan 9dimensiones la pequeña hiperesfera tiene radio

√9− 1 = 2, por lo

tanto toca las caras del hipercubo, y cuando n es mayor que 9, ¡se saledel cubo!

El problema de la mejor configuración de hiperesferas pluridi-mensionales entre todas las reticulares fue resuelto hasta la dimen-sión 8. Pero se sabe que no siempre las configuraciones reticularesofrecen la mejor densidad; por ejemplo, en 1971, Leech y Sloane de-mostraron que no es así en 10 dimensiones.

Un caso particularmente interesante es el de la dimensión 24; en1965 Leech construyó una configuración, llamada precisamente re-tículo de Leech, que esprobablemente la mejor entre todas las reticu-lares, y en la cual cada hiperesfera toca otras 196.560 esferas (en laconfiguración desfasada del espacio a 3 dimensiones, cada esfera to-ca otras 12). Del estudio de este retículo, John Conway dedujo, en1968, tres de los 26 grupos esporádicos usados en el teorema de cla-sificación de los grupos simples finitos.

El problema de la configuración de hiperesferas a máxima den-sidad en espacios multidimensionales reviste actualmente una granimportancia para la transmisión de mensajes, especialmente para lacompresión de los datos y la corrección de los errores. En efecto, ca-denas combinadas de n símbolos identifican las aristas de un hiper-cubo de n dimensiones, y para evitar errores de transmisión se quiereevitar que aristas adyacentes a una arista que codifica el mensaje, co-difiquen a su vez mensajes; una configuración de hiperesferas a má-

La Matemática del siglo XX 107

xima densidad permite maximizar el número de mensajes, minimi-zando la posibilidad de error. Y el retículo de Leech fue descubierto,precisamente, trabajando en problemas de este tipo.

108 5. Matemática Pura

6

Matemática Aplicada

La matemática, como Jano, tiene dos caras: la primera mira haciael interior del hombre, al mundo de las ideas y de las abstracciones,y la segunda mira hacia afuera, al mundo de los objetos y de lo con-creto. La primera cara representa el lado puro de la matemática, en lacual la atención se concentra desinteresadamente en sus entes, con elfin de conocerlos por lo que son. La segunda cara constituye la parteaplicada, en la que la atención hacia los mismos entes es interesada,con el fin de poder aplicarlos por lo que pueden hacer.

Las aplicaciones de la matemática han constituido una caracterís-tica constante de su historia, desde los tiempos de los egipcios y delos babilonios hasta la Revolución Industrial, y todas las ramas dela matemática clásica han sido, en sus orígenes, estimuladas por pro-blemas prácticos: mercantiles en aritmética, agrícolas en geometría, yfísicos en análisis. Después, estas áreas fueron estimuladas continua-mente por motivaciones pragmáticas y utilitarias, que contribuyerona su desarrollo, incluso teorético, con repercusiones frecuentementeinesperadas.

109

110 6. Matemática Aplicada

La matemática del siglo XX no es una excepción, y muchas de susramas se originaron justamente gracias a los estímulos externos, pararesolver problemas relacionados con el mundo real. Algunas de estasmotivaciones derivan de áreas científicas cuya fertilidad ha sido ex-perimentada, como la física: la física ha inspirado, si no el nacimiento,ciertamente el crecimiento del cálculo tensorial, el análisis funcionaly la teoría de los nudos, que son esenciales para la formulación dela relatividad general, de la mecánica cuántica y de la teoría de lascuerdas.

En cambio, otras motivaciones derivan de áreas que recién enel siglo XX se hicieron científicas, precisamente cuando el descubri-miento de instrumentos matemáticos adecuados permitió tratar y re-solver algunos problemas fundamentales. Los ejemplos típicos son laeconomía y la biología: para resolver problemas de economía surgieronlas teorías de los juegos, del equilibrio general y de la optimización; yproblemas de biología, considerados durante años inaccesibles, hoyse pueden afrontar mediante la teoría de los nudos.

Los instrumentos matemáticos mencionados, sobre tos que nosexplayaremos más adelante, rayan los límites de la sofisticación téc-nica. Pero la técnica no se necesita en absoluto para que un argumen-to matemático tenga efectos explosivos, a condición de que su ausen-cia esté compensada por sofisticación filosófica. Antes de avanzar,queremos mostrar precisamente, con tres ejemplos correspondientesa las tres áreas mencionadas, de quémodo, incluso la matemática ele-mental puede ser suficiente, si se utiliza de manera cuidadosa, pararesolver significativos problemas fundamentales de otras ciencias.

La primera de estas cuestiones se refiere a la noción de realidadfísica, que fue puesta en duda por el descubrimiento de la mecánicacuántica y, más precisamente, por la descripción de los fenómenossubatómicos en términos de función de onda. Por su dificultad de

La Matemática del siglo XX 111

interpretación, Niels Bohr propuso considerar la teoría como la des-cripción, no de hipotéticas partículas físicas, sino sólo de los resul-tados de experimentos en los aparatos de medición; según Bohr, lanoción de realidad, que se había desarrollado históricamente para ladescripción del mundomacroscópico, dejaba de tener sentido a nivelmicroscópico.

Esta interpretación idealista de la nueva física encontró, natu-ralmente, profundas resistencias, en particular por parte de AlbertEinstein. Él siguió pensando toda su vida que era posible encontraruna descripción realista de los fenómenos subatómicos, de la cual lamecánica cuántica habría resultado ser sólo una aproximación, y en1935 propuso un famoso experimento mental, llamado de Einstein,Podolsky y Rosen por el nombre de sus autores, que demostraba laincompletud de la mecánica cuántica.

En 1964, John Bell encontró una versión del experimento que po-día verificarse prácticamente y que tuvo resultados inesperados. Setrata de considerar un rayo de luz que pasa sucesivamente a travésde dos filtros polarizados; la mecánica cuántica prevé, y la experien-cia lo confirma, que una vez que el rayo de luz haya pasado a travésdel primer filtro, la fracción de sus fotones que pasa a través del se-gundo es cos2(α), donde α es el ángulo formado por las direccionesde polarización de los dos filtros.

Consideremos qué ocurre cuando cada uno de los dos filtros secoloca o verticalmente, o a 60◦, o a 120◦. Si los dos filtros tienen lamisma dirección, lo cual ocurre en 1

3 de los casos posibles, el segundofiltro deja pasar todos los fotones del rayo que sale del primero. Si, encambio, los dos filtros tienen direcciones distintas, lo que ocurre enlos restantes 2

3 de los casos, éstos forman siempre un ángulo recíproco

de 60◦, y el segundo filtro deja pasar( 12

)2= 1

4 de los fotones quesalen del primero. Por lo tanto, en promedio, pasa sólo 1

3 +23 · 1

4 = 12

112 6. Matemática Aplicada

de los fotones.

Lo que Bell descubrió es que estos resultados experimentales secontradicen con la hipótesis de que los fotones se pueden pensar,de manera realista, como partículas que llegan a los filtros estandoya polarizadas en una determinada dirección. En efecto, si así fuera,cuando los filtros tienen la misma dirección pasarían efectivamentelos mismos fotones a través de ambos. Si, en cambio, los filtros es-tán polarizados cada uno en cualquiera de las tres direcciones, porel segundo deberían pasar al menos de los fotones que salieron delprimero, y por lo tanto más de 1

2 . En efecto, en los tres casos en quelos filtros tienen la misma dirección, pasan a través de ellos los mis-mos fotones; y si un fotón pasa a través de los filtros colocados endos direcciones distintas, también debería pasar cuando se cambienlas dos direcciones entre sí, o sea, en otros dos casos.

Un simple cálculo de aritmética elemental pudo demostrar que lahipótesis del realismo ingenuo se contradice con los resultados expe-rimentales. Y algunas versiones más sofisticadas del teorema de Bell,confirmadas por famosos experimentos de Alain Aspect en 1982, de-muestran que, aunque es posible interpretar de manera realista lamecánica cuántica, esto no se puede hacer manteniendo intacta laconcepción de la realidad que tenemos a nivel macroscópico. En par-ticular, no se puede seguir suponiendo que objetos separados en elespacio no puedan interactuar instantáneamente, y por lo tanto, sedebe postular la existencia de conexiones holísticas, que no formanparte del bagaje cultural occidental.

El segundo problema fundacional que afrontamos se refiere a lanoción de selección social entre varias alternativas, a partir del cono-cimiento de las preferencias individuales. El problema surge en lassituaciones más variadas, desde la selección de los candidatos en unaelección política, hasta la de un plan económico por parte de un con-

La Matemática del siglo XX 113

sejo de administración.

Una dificultad del problema fue descubierta en 1785 por MarieJean Antoine Nicolás de Caritat, más conocido como el marqués deCondorcet, y se puede ilustrar con un ejemplo práctico. En las elec-ciones presidenciales estadounidenses de 1976, Jimmy Carter ven-ció a Gerald Ford, quien había obtenido la nomination republicana alganarle a Ronald Reagan. Pero las encuestas decían que Reagan lehabría ganado a Cárter, aunque en condiciones políticas diferentes,como efectivamente ocurrió en 1980. Se había producido una situa-ción paradójica prevista por Condorcet: que en un sistema electoralen el que los candidatos son seleccionados en elecciones sucesivas,dos a dos, el ganador puede depender del orden en que se realizanlas votaciones. Por ejemplo, para hacer ganar a Ford habría basta-do con hacer primero la votación entre Carter y Reagan, y luego lavotación entre el ganador (Reagan) y Ford.

La pregunta es si es posible, de alguna manera, enmendar el sis-tema electoral, para que resulte imposible que se verifiquen situa-ciones como la descripta. La respuesta, sorprendentemente negativa,fue encontrada en 1951 por Kenneth Arrow, y fue el punto de partidade la teoría de las selecciones sociales, que le valió a Arrow el premioNobel de economía en 1972.

El teorema de Arrow establece que no existe ningún sistema elec-toral que satisfaga los principios de libertad individual, de la depen-dencia del voto, de la unanimidad y del rechazo de la dictadura. Másexplícitamente, no existe ningún sistema electoral en el que: cada vo-tante puede votar por el candidato que prefiere, el resultado de laelección sólo depende de los votos dados, gana un candidato que ob-tenga todos los votos y ningún elector solo es capaz de determinarsiempre el resultado de la elección.

Naturalmente, las hipótesis en las que se basa el teorema deArrow

114 6. Matemática Aplicada

se consideran irrenunciables en un sistema democrático, y por estogeneralmente se dice de manera sucinta que Arrow ha demostradoque la democracia no existe. Lo interesante, desde nuestro punto devista, es que la demostración es de naturaleza matemática, y que sellega a ella mediante una simple axiomatización de las condicionesen las que se basa la paradoja de Condorcet; esto demuestra que lamatemática también se puede aplicar en un campo humanista que,a primera vista, podría haberse considerado resistente a análisis for-males.

El último problema fundacional se refiere a la noción de autorre-producción, característica de los organismos vivientes. En 1951, Johnvon Neumann, desarrollando la teoría de los autómatas celulares, sepropuso el problema de construir una máquina capaz de autorre-producirse, y lo resolvió matemáticamente de la siguiente manera,inspirándose en una técnica usada en teoría de la computabilidad.

Consideremos una máquina C que sea un constructor universal,en el sentido de que sepa construir cualquier máquina M de cier-to tipo, a partir de una descripción m de la misma. En particular, lamáquina C puede construir una copia de sí misma, a partir de la pro-pia descripción c, pero ésta no es todavía una autor reproducción:partiendo del sistema constituido por C y por su descripción c, seobtiene, en efecto, sólo una copia de la misma máquina C, a la cual lefalta, sin embargo, una copia de su descripción c.

Para obviar el problema, consideremos entonces una máquina Fque sea una fotocopiadora universal, en el sentido de que sepa repro-ducir una copia de cualquier descripción m. Juntando las máquinasC y F, se puede obtener una nueva A que, a partir de la descripciónm, haga una copia de m, construya M, y le agregue la copia de m. Lamáquina A con la propia descripción a ahora se puede autor repro-ducir efectivamente, porque construye A y le agrega la descripción

La Matemática del siglo XX 115

a.

Aunque el mecanismo recién descripto haya sido pensado en tér-minos de reproducciónmecánica, en 1953 Francis Crick y James Wat-son descubrieron que estemecanismo también ofrece unmodelomo-lecular de la reproducción biológica, en un trabajo que les valió elpremio Nobel de medicina en 1962. Más precisamente, la descripción mcumple el rol de un gen, o sea de un segmento de adn, que codificala información para la reproducción. P, una enzima especial llamadaarn polimerasa, tiene la función de duplicar el material genético enun segmento de arn. C, un conjunto de ribosomas, construye proteí-nas según la información de este segmento. A es una célula autorre-productiva.

Naturalmente, el modelo no sólo está simplificado, sino que tam-bién se desinteresa completamente de los “detalles” químicos delmecanismo, dejando de lado especialmente la famosa estructura dedoble hélice del adn descubierta por Crick yWatson; un tipo de estu-dios que, obviamente, forma parte de otros campos. Lo interesante,desde nuestro punto de vista, era mostrar de qué manera el plano ge-neral de la reproducción se puede descubrir en la teoría, y que hayasido descubierto en la práctica mediante un simple uso de técnicaslógicas.

Después de estos ejemplos de aplicación de la matemática ele-mental en problemas fundacionales, ahora podemos pasar a afrontarlas aplicaciones de la matemática superior en problemas más propia-mente científicos.

6.1. Cristalografía: Los Grupos de Simetría de Bieberback (1910)

El mandamiento que en la tradición cristiana se reduce a “no ten-drás dioses ajenos delante de mí”, en la formulación original (Éxodo,

116 6. Matemática Aplicada

XX, 3-6; Deuteronomio, V, 7-10) continuaba: “No te harás imagen, nininguna semejanza de cosa que esté arriba en el cielo, ni abajo en latierra, ni en las aguas debajo de la tierra”.

Las prohibiciones de un arte figurativo fueron tomadas muy enserio por los hebreos y los árabes, que desarrollaron un arte pura-mente abstracto y geométrico, y exploraron los posibles tipos de de-coración mural. El resultado más elevado en este campo se alcanzóen el siglo XIV, con los azulejos de la Alhambra de Granada (Figura20).

Aunque, obviamente, las posibles decoraciones murales sean ili-mitadas en número, no lo son, en cambio, en lo que respecta al ti-po. En efecto, desde un punto de vista matemático, las simetrías queexhiben estas decoraciones pueden clasificarse sobre la base de lasposibles combinaciones (más precisamente, de los posibles gruposde simetría) de transformaciones que las mantienen invariadas: tras-laciones a lo largo de una recta, reflexiones respecto de una recta yrotaciones en torno de un punto.

En 1891, Fedorov demostró que existen sólo 7 tipos distintos degrupos de simetría para frisos lineales, como los griegos y los zóca-los (Figura 21), y 17 para los planos, como los usados en suelos yalfombras (Figura 22). Además, los grupos planos sólo pueden exhi-bir simetrías de rotación de 180◦, 120◦, 90◦ y 60◦, o sea de tipo axial,triangular, cuadrado y hexagonal. Casi todos estos tipos fueron em-pleados efectivamente en las decoraciones de la Alhambra, y en va-rias ciudades más, desde egipcias a japonesas.

Si los objetos planos simétricos más comunes son las decoracio-nes murales, los espaciales más conocidos son los cristales. La crista-lografía fue precisamente uno de los primeros campos de aplicaciónde la teoría de los grupos, a partir de 1849 con Auguste Bravais. Yen 1890, antes de demostrar el resultado análogo para los tipos de

La Matemática del siglo XX 117

grupos de simetría plana, Fedorov ya había demostrado que existensólo 230 tipos distintos de grupos de simetría espacial.

Figura 20. Azulejos de la Alhambra

La primera parte del decimoctavo problema de Hilbert preguntabasi, para cada n, los tipos de grupos de simetría en n dimensiones sonun número finito. En 1910, Ludwig Bieberbach dio una respuesta po-sitiva, pero aún hoy se desconoce una fórmula explícita para obtenerel número de tales grupos en general; por ejemplo, recién en los años1970 se logró demostrar que existen 4.783 grupos de simetrías tetra-dimensionales.

La segunda parte del decimoctavo problema de Hilbert era com-plementaria de la primera; en vez de preguntar cuántos eran los po-sibles modos simétricos de cubrir el plano, preguntaba si existía untipo de azulejos que permitiera cubrir todo el plano, pero sólo dema-nera no simétrica. También aquí la respuesta es positiva, y fue dadapor Heesch en 1935. La Figura 23 muestra un ejemplo, de MauritsEscher.

Más exigente es la búsqueda de un tipo de azulejos que permitacubrir todo el plano, pero sólo de manera no periódica, es decir, sinrepetir al infinito la misma configuración. La pregunta fue formulada

118 6. Matemática Aplicada

en 1961 por Hao Wang; su interés se centraba en el hecho de queuna respuesta negativa habría representado un procedimiento paradecidir si, dado un conjunto de azulejos, éstos podían cubrir todo elplano o no.

Alfombra ʺdragón y fénixʺ, Asia Menor

I

Vitral de colores, Catedral de Bourges

II

III

Decoración de un cofre (Renacimiento francés)

IV

VI

VII

Margen de pergamino de la Antigua Grecia

Decoración china pintada sobre porcelana

Brocado italiano del Renacimiento

V

Mosaico de Pompeya

Figura 21. Los 7 grupos de simetría lineal

La Matemática del siglo XX 119

I

Decoración muralmedieval francesa

II

Alfombra ghiordes

III

Manuscrito medievalcon miniaturas con diseño romboidal

IV

Alfombra shiraz

V

Decoración depenachos de arco,

la Alhambra

VI

Alfombra francesadel Renacimiento

VII

Tejido del siglo XVI

VIII

Seda morisca delsiglo XIV

IX

Mosaico dePompeya

X

Cieloraso egipcio

XI

Vitral francés

XII

Decoración árabe

esmaltados

XIII

Azulejos persas

de hierro forjado

XIV

Jarrón japonés

con miniaturas

XV

Manuscrito persa

modernos

XVI

Azulejos ingleses

con miniaturas

XVII

Manuscrito persa

Figura 22. Los 17 grupos de simetría plana

En 1966, Robert Berger demostró en cambio, que tal procedimien-to de decisión no existe, y que por lo tanto existen azulejos para cu-brir el plano sólo de manera no periódica. El ejemplo original de Ber-

120 6. Matemática Aplicada

ger era bastante complejo, y consistía en 20.246 azulejos distintos. En1974, Roger Penrose encontró un ejemplo simple, de sólo dos azule-jos (Figura 24). No se sabe si existen ejemplos formados por un soloazulejo (un ejemplo de un único poliedro que por sí solo llena todoel espacio, de manera no periódica, fue encontrado en 1993 por JohnConway).

El ejemplo de Penrose es interesante matemáticamente porqueexhibe una simetría de rotación pentagonal (Figura 25) que ningunacobertura plana simétrica puede exhibir. El ejemplo también adqui-rió interés físico cuando, en 1984, el cristalógrafo Daniel Schechtmandescubrió una aleación de aluminio y manganeso, cuya estructuramolecular tenía una superficie que exhibía una simetría del mismotipo, que ninguna estructura cristalina puede exhibir; esas estructu-ras fueron denominadas cuasicristales.

Figura 23. Maurice Escher, Fantasmas, 1971

La Matemática del siglo XX 121

Figura 24. Azulejos de Penrose

El descubrimiento de los cuasicristales muestra que, para la des-cripción de la naturaleza, la teoría de los grupos no es la última pa-labra, y por lo tanto se necesita alguna teoría más general. Por estarazón, en el estudio de las propiedades de los cuasicristales y en labúsqueda de una clasificación de sus estructuras, en particular delos grupos cuasicristalográficos, se están empeñando matemáticos co-mo SergeiNovikov y Enrico Bombieri,medallas Fields en los años 1970y 1974.

Figura 25. Azulejos de Penrose

122 6. Matemática Aplicada

6.2. Cálculo Tensorial: La relatividad general de Einstein (1915)

El hecho de que la tierra haya sido considerada plana durantemucho tiempo muestra intuitivamente que la curvatura de una es-fera es tanto más pequeña cuanto más grande es el radio. Formal-mente, la curvatura de un círculo se define como el inverso del radio.Para curvas más complicadas, la curvatura fue definida por Newtonen 1671, considerando en cada punto la curvatura del círculo (llama-do osculador) que aproxima la curva en ese punto.

La curvatura de una superficie fue definida por Gauss en 1827,considerando en cada punto el producto entre la mínima y la máxi-ma curvatura de las curvas obtenidas seccionando la superficie conplanos perpendiculares al plano tangente, y que pasen por ese pun-to. Por ejemplo, la esfera tiene la misma curvatura que sus círculosmáximos, que precisamente constituyen sus secciones; y el cilindrotiene curvatura nula, porque una de las secciones es simplementeuna recta.

Pero para poder calcular la curvatura de una superficie de esamanera hay que realizar medidas fuera de la misma, pasando a tra-vés del espacio que la contiene. Gauss descubrió que también es posi-ble calcular la curvatura mediante medidas efectuadas sólo sobre lasuperficie, en particular, determinando que la tierra es redonda sintener que mirarla desde el espacio.

Gauss demostró también un resultado tan satisfactorio que hastaél, conocido por su exigencia, lo llamó theorema egregium, y decía quelas superficies que poseen una geometría intrínseca, en el sentido deque las figuras se puedenmover sobre ellas sin sufrir deformaciones,son exactamente las que tienen curvatura constante. El análogo delas rectas sobre estas superficies son las llamadas geodésicas, o sealas líneas de mínima distancia entre dos puntos. Por ejemplo, sobreuna esfera las geodésicas son los arcos de círculos máximos; y sobre

La Matemática del siglo XX 123

el cilindro son las curvas que se obtienen uniendo los dos puntoscon un segmento, después de que el cilindro fue cortado a lo largo ydesplegado en el plano.

En el plano, las únicas curvas de curvatura constante son la recta,que tiene curvatura nula, y el círculo, que tiene curvatura positiva. Enel espacio, el plano y el cilindro tienen curvatura nula, y la esfera tie-ne curvatura constante positiva. Pero Gauss descubrió que tambiénexisten superficies de curvatura constante negativa, por ejemplo lapseudoesfera, que se obtiene rotando en torno a su asíntota una curvallamada tractriz, que se obtiene caminando a lo largo de una recta ytirando un peso mediante una cuerda de largo fijo (Figura 26).

Figura 26. Tractriz y Pseudoesfera

En 1854, Riemann amplió la noción de curvatura también a susvariedades, que no siempre pueden penetrar en el espacio euclídeo.Y determinó la geometría de las variedades de curvatura constante,que es euclídea si la curvatura es nula, esférica si la curvatura es po-sitiva e hiperbólica si la curvatura es negativa. En particular, la pseu-doesfera representa unmodelo de una parte del plano hiperbólico enel espacio euclídeo (sólo una parte, porque la pseudoesfera tiene unagujero pero el plano hiperbólico no); precisamente, fue elaborandoeste modelo parcial que Beltrami obtuvo el primer modelo completodel plano hiperbólico, del que ya hemos hablado.

124 6. Matemática Aplicada

Además de modelos de geometrías matemáticas, las variedadesde Riemann pueden ser consideradas como modelos del mundo físi-co; el primero que propuso esta posibilidad fue Gauss, quien efectuómedidas geográficas para determinar si la geometría del universorealmente era euclídea, como siempre se había pensado, o no.

Las únicas magnitudes que tienen relevancia geométrica son lasque, como la distancia, se pueden expresar de manera independien-te del sistema de coordenadas. Análogamente ocurre para las leyesfísicas; ya que éstas generalmente se expresan en forma diferencial,para poder aplicar la geometría riemanniana a la física era necesa-rio emprender un estudio de invarianza de las ecuaciones diferen-ciales respecto de los cambios de coordenadas sobre variedades deRiemann.

El instrumento desarrollado con este fin, a partir de 1892, por Gre-gorio Ricci Curbastro, fue llamado cálculo tensorial. Los tensores a losque se refiere son cantidades que se transforman de tal manera quesus componentes en un sistema de coordenadas son combinacioneslineales de los componentes en otro sistema, con coeficientes dadospor las derivadas de la transformación. Ricci definió operaciones al-gebraicas (suma y multiplicación) y diferenciales (derivación cova-riante) sobre los tensores, permitiendo de este modo extender a lasvariedades de Riemann todo el aparato analítico ya desarrollado enel caso euclídeo.

En 1901, Ricci y Tullio Levi Civita expresaron en forma tensorial,y por lo tanto invariante respecto de cambios de coordenadas, va-rias leyes físicas. Pero la aplicación más interesante la hizo AlbertEinstein, que en 1915 encontró en el cálculo tensorial el instrumentoadecuado para describir su teoría de la relatividad general.

Las variedades de Riemann usadas por Einstein son tetradimen-sionales, con tres dimensiones espaciales y una temporal; por esta ra-

La Matemática del siglo XX 125

zón, en general se habla de ellas como de modelos del espacio-tiempo.La forma específica de la variedad, y en particular su curvatura, estádeterminada por la distribución de la materia en el universo, y loscuerpos libres se mueven sobre la variedad recorriendo las geodési-cas, como rocas que ruedan a lo largo de una pendiente según líneasde mínima resistencia.

Una vez reducida la gravitación a la geometría, es natural bus-car una reducción semejante también de las otras fuerzas físicas. Laprimera formulación de una teoría que comprende también el elec-tromagnetismo fue encontrada por Hilbert en 1915; él dedujo elegan-temente (e independiente) las ecuaciones de Einstein, ademas de lasde Maxwell, desde un único principio variacional, en conformidadcon las preguntas formuladas en su sexto problema, que requería unaaxiomatización de la física.

Hermann Weyl efectuó en 1918 una tentativa distinta, que des-cribió tanto la gravitación como el electromagnetismo usando unavariedad tetradimensional de naturaleza afín (no riemanniana), envez de métrica (riemanniana); en esas variedades, mientras el para-lelismo es independiente del sistema de coordenadas, no está dichoque la distancia lo sea. Esto requiere una nueva definición de geodé-sica, dado que ya no puede ser definida como una línea de mínimadistancia; un requerimiento que ya había sido formulado en el cuartoproblema de Hilbert, que pedía precisamente un tratamiento generalde la noción de geodésica. La solución de Levi Civita, en 1917, fuedefinir las geodésicas como las curvas cuyas tangentes son todas pa-ralelas entre sí.

Aunque la teoría de Weyl (como la de Hilbert) no haya resulta-do satisfactoria desde el punto de vista físico, inauguró el estudio delas variedades no riemannianas en geometría. Un satisfactorio tra-tamiento común de los campos gravitacionales y electromagnéticos

126 6. Matemática Aplicada

sigue siendo hoy un problema abierto, y forma parte del problemamás general de unificación de todas las fuerzas en una teoría del todo.

6.3. Teoría de Juegos: El Teorema Minimax de Von Neumann (1928)

La vida obliga a hacer constantemente elecciones en todo nivel(personal, familiar, social) y en todo campo (moral, económico, polí-tico), en situaciones en que no se conoce perfectamente la situación,ni el comportamiento ajeno, ni los efectos de las decisiones. La teo-ría de los juegos tiene la finalidad de modelizar matemáticamente esteproceso decisional, en la típica manera de la ciencia, es decir, abstra-yendo de las situaciones reales algunos elementos que se presten aun tratamiento formalizado.

Un primer ejemplo significativo de tal análisis del comportamien-to se remonta a 1651, en el Leviatán de Thomas Hobbes. Él propusola idea de que las sociedades humanas son alianzas que se hacen ne-cesarias para contener el violento estado de naturaleza, fundado porun lado en la agresión contra todos, y por el otro en el miedo de ca-da uno; en otras palabras, sobre la preferencia por la no cooperaciónpropia y la cooperación ajena. Mediante el contrato social, los indi-viduos renuncian al derecho de ejercer la violencia a cambio de laseguridad de ser protegidos, y el orden social resulta favorable nosólo para quienes lo imponen, sino para todos; el resultado del con-trato social es entonces un cambio de las reglas de juego.

Un segundo ejemplo significativo se encuentra en un pasaje delDiscurso sobre el origen de la desigualdad entre los hombres, de Jean Jac-ques Rousseau, de 1755. En este caso, las sociedades humanas estánconsideradas como evoluciones de las alianzas temporales que erannecesarias para la caza de animales grandes, ante los cuales un in-dividuo aislado no habría podido vencer. Pero mientras dos indivi-duos están, por ejemplo, participando en una cacería de un ciervo,

La Matemática del siglo XX 127

puede ocurrir que uno de ellos vea una liebre, que podría cazar solo;aquí surge pues la tentación de cazarla, considerando que, aunqueun ciervo sea mejor que una liebre, una liebre es mejor que nada. Yla tentación está reforzada por la consideración de que quizás el otrocazador también avistó la liebre y abandonó la cacería.

Otros ejemplos se pueden ver, naturalmente, en auténticos jue-gos, de donde la teoría sacó su nombre. Éstos pueden jugarse no sólopor diversión, como las cartas o el ajedrez, sino también por adiestra-miento, como en el caso del Kriegspiel que utilizaba cartas militares yelaborados soldaditos, y fue considerado el inspirador de las estrate-gias vencedoras en las guerras prusianas con Austria en 1866 y conFrancia en 1870, y en la guerra japonesa con Rusia en 1905.

El primer trabajo matemático sobre la teoría de los juegos fue elartículo presentado en el Congreso Internacional de Matemáticos de1912 por Ernst Zermelo. En su trabajo, Zermelo comprobó que el jue-go del ajedrez (y, más en general, todo juego que no puede proseguiral infinito) está determinado en este sentido: o existe una estrategiaque permite siempre ganar al blanco, o existe una estrategia que per-mite siempre ganar al negro, o existe una estrategia que permite aambos jugadores empatar siempre. Pero el resultado de existenciano es constructivo, en el sentido de que no dice cuál de los tres casossucede efectivamente, por esto no tiene aplicaciones prácticas.

Los fundamentos de la teoría de los juegos fueron expuestos en1921 por Emile Borel, que fue también ministro de la Marina fran-cesa. Él usó el póquer como ejemplo, y afrontó, entre otros, el difícilproblema de tratar el bluff. Además, Borel planteó el problema dedeterminar en cuáles casos existe una estrategia que se pueda consi-derar óptima, y cómo hacer para encontrarla.

Una aplicación del teorema del punto fijo de Brouwer le permitióa John von Neumann demostrar, en 1928, el primer teorema profun-

128 6. Matemática Aplicada

do de la nueva teoría. Este establece que en ciertos juegos a suma cero,es decir, en los que la victoria de un jugador es igual y contraria a laderrota del otro, y a información perfecta, es decir, en el que cada ju-gador conoce exactamente tanto los posibles movimientos del otrocomo sus consecuencias, existe una estrategia que permite a ambosjugadores minimizar sus máximas pérdidas, de aquí el nombre deminimax.

Para cada posible jugada propia, cada jugador considera todas lasposibles jugadas del adversario y la máxima pérdida que podría pro-vocarle; entonces juega el movimiento que produce la mínima pérdi-da. Esta estrategia, que minimiza la máxima pérdida, es óptima paraambos jugadores si tienenminimax iguales (en valor absoluto) y con-trarios (en signo), si tal valor es cero, entonces es inútil jugar.

El teorema minimax fue mejorado y extendido en varias ocasio-nes por Von Neumann, por ejemplo, a juegos de información imper-fecta, o con más de dos jugadores; este último caso se complicó porla posibilidad de cooperación entre algunos jugadores, en forma dealianzas o coaliciones. El trabajo de Von Neumann culminó, en 1944,en el clásico texto La teoría de los juegos y el comportamiento económico,escrito con el economista Oscar Morgenstern.

La formalización más satisfactoria de la noción de estrategia óp-tima es el concepto de equilibrio de Nash, propuesto en 1950 por JohnForbes Nash; en el caso particular de los juegos de suma cero, se re-duce al minimax de Von Neumann. Nash demostró que todo juegono cooperativo con dos o más jugadores, incluso no de suma cero,admite un equilibrio, y por este trabajo obtuvo el premio Nobel de eco-nomía en 1994.

En el caso de dos jugadores, un equilibrio de Nash es una situa-ción en la que ninguno de los dos tiene recriminaciones que hacer,en el sentido de que incluso sabiendo anticipadamente cuál sería el

La Matemática del siglo XX 129

comportamiento del otro jugador, cada uno se habría comportadodel mismo modo. En otras palabras, la situación no se puedemejorarcon actos individuales unilaterales, aunque se pueda hacer con actoscolectivos.

Es bastante obvio que si un estado no es de equilibrio, entoncesno es racional; en efecto, al menos un jugador tendrá motivos parapensar que podría haber actuado mejor. Ser un equilibrio de Nashconstituye entonces una condición necesaria para un comportamien-to racional, pero no una condición suficiente; en efecto, existen juegosen lo; que los equilibrios de Nash no son para nada racionales.

Un ejemplo típico es el dilema del prisionero, propuesto por AlbertTucker en 1950. La situación se refiere a dos sospechosos de un cri-men, que son arrestados e interrogados separadamente; si uno de losdos denuncia al otro, recibirá una recompensa y será liberado, mien-tas el cómplice será condenado con la pena entera; pero si ambos sedenuncian mutuamente, entonces ambos serán condenados con unapena reducida; si, en cambio, ninguno de los dos habla, ambos seránliberados. El único equilibrio de Nash es, en este caso, que ambosdenuncien al compañero, pero el equilibrio no es racional, porqueciertamente es de interés común no hablar.

En la segunda mitad del siglo la teoría de los juegos asumió unrol fundamental en el análisis de situaciones de conflicto, y la apli-can regularmente los consejeros militares, económicos y políticos delos gobernantes de varios países industrializados, sobre todo en losEstados Unidos.

6.4. Análisis Funcional: La Axiomatización de la Mecánica Cuánticade Von Neumann (1932)

Los problemas de la física matemática conducen naturalmente aecuaciones diferenciales o integrales, en las que una función incóg-

130 6. Matemática Aplicada

nita se encuentra bajo el signo de derivada o de integral. Métodospara la solución de ecuaciones diferenciales (primero para las deri-vadas ordinarias y luego para las parciales) fueron desarrollados yaa partir de finales del siglo XVII. Los primeros pasos explícitos pa-ra la solución de las ecuaciones integrales (más complicadas) fuerondados, en cambio, recién en los primeros decenios del siglo XIX. Lateoría general de las ecuaciones integrales fue iniciada en el últimodecenio del siglo XIX por Vito Volterra, y desarrollada en el primerdecenio del siglo XX por David Hilbert.

Estos desarrollos del análisis dejaron ver un aspecto esencial: queen matemática generalmente se trabaja no sólo con funciones queoperan sobre números, sino con funcionales que operan sobre funcio-nes. Por ejemplo, como las operaciones de elevación al cuadrado ode extracción de raíz cuadrada asignan explícitamente a un núme-ro otro número, precisamente su cuadrado o su raíz cuadrada, asílas operaciones de derivación y de integración (indefinida) asignana una función otra función, precisamente su derivada o su integral.Análogamente, así como una ecuación define implícitamente uno omás números, o sea sus soluciones, también una ecuación diferen-cial o integral define implícitamente una o más funciones, o sea sussoluciones.

Justamente las dificultades en el tratamiento de estos funcionales,sobre todo en el cálculo variacional y en la teoría de las ecuacionesintegrales, condujeron a la exigencia de desarrollar una propia teoríaabstracta e independiente, que hiciera emerger sus propiedades, teo-ría que precisamente fue llamada análisis funcional, para indicar quetrata funcionales y distinguirla del análisis real (o complejo) que, encambio, trata funciones que operan sobre números reales (o comple-jos).

Los ambientes naturales para el desarrollo del análisis real (o com-

La Matemática del siglo XX 131

plejo) son los espacios euclídeos, cuyos puntos se identifican con suscoordenadas cartesianas. En el caso, por ejemplo, de un espacio den dimensiones, un punto se identifica con n números x1, . . . , xn, y ladistancia de ese punto desde el origen se calcula con el teorema dePitágoras, mediante la expresión

x21 + . . .+ x2n

En su estudio sobre las ecuaciones integrales, Hilbert debió traba-jar con funciones que se podían expresar mediante una suma infi-nita (llamada serie de Fourier), con infinitos coeficientes x1, x2, . . ., ydescubrió que la condición que permitía que estas funciones fuerantratadas en su teoría era que la suma

x21 + x22 + . . .

fuera finita. Pero si esta suma es finita, también lo es su raíz cuadra-da; por lo tanto, estas sucesiones de números se pueden pensar comolas coordenadas de puntos en un espacio euclídeo de “infinitas di-mensiones”, para el cual sigue valiendo el teorema de Pitágoras. En1907, Erhard Schmidt y Maurice Fréchet introdujeron entonces el es-pacio de Hilbert H, cuyos elementos son los puntos que tienen infinitascoordenadas que satisfacen la condición que acabamos de describir.

Sin embargo, puesto que para Hilbert las sucesiones eran sólo unmodo de tratar las funciones, Schmidt y Fréchet introdujeron tam-bién directamente un espacio funcional L2, cuyos puntos son las fun-ciones (definidas sobre intervalo) que satisfacen un análogo a la con-dición de Hilbert, es decir, el hecho de que la integral de Lebesguede su cuadrado sea finito, de aquí el nombre L2. Que el espacio deHilbert H y el espacio funcional L2 sean en realidad la misma co-sa, se explica en el contenido del llamado teorema de representación de

132 6. Matemática Aplicada

Friedrich Riesz y Ernst Fischer.

Los espacios H y L2 son los dos casos particulares de una vastaclase de espacios de Banach, introducidos en 1922 por Stefan Banach,que proporcionaron la correcta axiomatización de las propiedadesnecesarias para el desarrollo de la teoría de las ecuaciones integrales.En particular, las construcciones de soluciones de estas ecuacionesmediante sucesivas sustituciones, según una técnica anticipada yaen 1832 por Joseph Liouville, resultaron ser casos particulares de ungeneral teorema del punto fijo de Banach.

Pero lo que representó la fortuna del análisis funcional no fuetanto su adecuación para tratar la teoría de las ecuaciones integrales,sino su inesperada e inmediata aplicación a la mecánica cuántica. Enefecto, ésta había sido formulada originariamente, con motivacionespuramente heurísticas (en dos formalismos completamente distintos,aunque después resultaran equivalentes) mediante matrices infinitasde observables, por Werner Heisenberg en 1925, que por este trabajorecibió el premio Nobel en 1932; y mediante funciones de onda, porErwin Schrödinger en 1926, quien por este trabajo obtuvo el premioNobel en 1933.

Ya en el invierno de 1926, en el espíritu de su sexto problema, elmismo Hilbert había intentado extraer de los dos formalismos unaformulación axiomática teóricamente satisfactoria, y de la que deri-varan los dos. Sus ideas no funcionaron directamente, porque la teo-ría de las distribuciones que las habría justificado todavía no habíasido desarrollada, pero su asistente John vonNeumann las reformulóen 1927, en términos de espacios H y L2; en el primer caso, se obtienela versión de la mecánica cuántica de Heisenberg; en el segundo, lade Schrödinger, y la equivalencia de las dos es una consecuencia delteorema de representación de Riesz y Fischer.

En la formulación final de Von Neumann, concluida en 1932 en

La Matemática del siglo XX 133

el clásico Los fundamentos matemáticos de la mecánica cuántica, los infi-nitos estados de un sistema cuántico constituyen las coordenadas deun punto en un espacio de Hilbert, y las magnitudes físicas del sis-tema (por ejemplo, posición y cantidad de movimiento) están repre-sentadas por funcionales particulares o, en la terminología usual, poroperadores particulares. La física de la mecánica cuántica se reduce asía la matemática de particulares operadores (lineales hermitianos) enespacios de Hilbert; por ejemplo, el famoso principio de indetermina-ción de Heisenberg (según el cual la posición y la cantidad de mo-vimiento de una partícula no pueden ser simultáneamente medidoscon precisión arbitraria) se traduce a la no conmutabilidad de los dosoperadores correspondientes.

Fomentado por estas aplicaciones físicas, el estudio de los opera-dores que representan las magnitudes físicas de un sistema se con-virtió en una importante rama de la matemática moderna, bajo elnombre de álgebras de operadores de Von Neumann. Estas álgebras sepueden ractorizar de varias maneras; por ejemplo, en dos conjuntosde operadores, en los que los elementos del primero conmutan conlos elementos del segundo. Además de estos factores, llamados detipo I, existen otros dos tipos: II, y III. Una clasificación completa delos factores de tipo III fue dada por Alain Connes, que obtuvo poreste trabajo la medalla Fields en 1983. Y de un estudio de los factorestipoII, Vaugham Jones derivó sus invariantes para los nudos, de losque hablaremos enseguida, y por este trabajo también él obtuvo unamedalla Fields en 1990.

En cuanto a los espacios de Banach, la teoría tropezó pronto conuna larga serie de problemas de una dificultad aparentemente insal-vable, lo que provocó que decayeran durante algún tiempo. El re-surgimiento se produjo a partir de los años 1950, cuando las nuevasmetodologías introducidas por los exponentes de la escuela france-

134 6. Matemática Aplicada

sa, desde Laurent Schwartz hasta Alexandre Grothendieck, medallasFields en 1950 y 1966, permitieron finalmente resolver muchos pro-blemas clásicos. El argumento está viviendo en este momento unatercera juventud, testimoniada por la asignación a Jean Bourgain y aWilliam Gowers de la medalla Fields en 1994 y 1998. El primero de-terminó la máxima sección de un espacio de Banach que se parece alespacio de Hilbert. El segundo demostró que el único espacio de Ba-nach con mucha simetría (es decir, isomorfo a cada uno de sus subes-pacios) es el espacio de Hilbert, y que existen espacios de Banach conpoca simetría (es decir, no isomorfos a ninguno de sus propios subes-pacios).

6.5. Teoría de la Probabilidad: La Axiomatización de Kolmogorov(1933)

Los primeros problemas de naturaleza probabilística surgieronde la consideración de juegos de azar, en particular aquéllos relacio-nados con los dados. Uno de estos problemas, para nada banal, estácitado en la Summa de Luca Pacioli, de 1494: si en un juego la victoriase obtiene cuando uno de dos jugadores alcanza primero n puntos,pero el juego se interrumpe cuando ellos han alcanzado respectiva-mente p y q puntos, ¿cómo se debe dividir la apuesta entre ellos?

El problema fue discutido por Cardano en el Libel de ludo aleae, de1526, en el que también se enuncia explícitamente la regla que indicaque el cálculo de la probabilidad conjunta de dos eventos indepen-dientes se obtiene multiplicando sus probabilidades individuales.

La correspondencia sobre el problema entre Blas Pascal y Pierrede Fermat, en 1654, marca la fecha de nacimiento oficial de la teoríade la probabilidad. La solución requirió algunas propiedades del de-nominado triángulo de Pascal, es decir, de los coeficientes del desa-rrollo binomial; se trata, en efecto, de calcular las probabilidades que

La Matemática del siglo XX 135

tiene un jugador de vencer todos los puntos que quedan, todos me-nos uno, todos menos dos, y así sucesivamente, hasta el puntaje mí-nimo que, sumado a los puntos que ya tiene, le permite vencer elpartido.

En 1656, Christian Huygens publicó la solución de Pascal e intro-dujo el concepto de expectativa que consiste en saber cuánto se puedeesperar ganar en promedio jugando un juego varias veces, y corres-ponde a cuánto se debería estar dispuesto a pagar para participar enel juego. Para Huygens una medición de la expectativa de provechoen una situación dada era el producto de la ganancia obtenible porla probabilidad de obtenerla; y una medición de la expectativa deganancia total era la suma de las expectativas de ganancia por cadasituación posible.

Una paradoja de la noción de expectativa fue descubierta por Da-niel Bernoulli, en 1725: si un casino estuviera dispuesto a pagar unaapuesta de 2n liras a un jugador si sale cabeza por primera vez al n-ésimo tiro, ¿cuánto debería estar dispuesto a pagar el jugador parapoder participar en el juego?

Puesto que en cada tiro la ganancia se duplica pero la probabi-lidad de llegar se divide, la expectativa de ganancia en cada tiro essiempre la misma, por lo tanto la expectativa de ganancia total esinfinita. Entonces, el jugador debería estar dispuesto a jugar todo loque tiene para poder participar, y esto contrasta con la obvia obser-vación de que cuanto más paga para jugar, menor es la probabilidadde que llegue a ganar más de cuanto ha pagado.

La solución del dilema propuesta por Bernoulli reside en el hechode que el valor del dinero no es absoluto, y depende, en cambio, decuánto se tiene; unamisma suma vale mucho para quien tienemuchomenos y poco para quien tiene mucho más. Entonces, para calcularla expectativa de ganancia se debe multiplicar la probabilidad no por

136 6. Matemática Aplicada

la ganancia efectiva, sino por cuánto vale la ganancia para el jugador,es decir, por su utilidad; suponiendo, por ejemplo, que la utilidad de-crezca de manera logarítmica, la ganancia total cesa de ser infinitapara hacerse muy pequeña y la paradoja desaparece.

El primer libro sobre la teoría de la probabilidad fue Ars Conjec-tandi de Jacques Bernoulli, tío de Daniel, publicado en 1713. En estelibro se formula la ley de los grandes números: si un evento ocurre mveces sobre n intentos, al crecer el número de intentos, la relación m

n

se acerca cada vez más a la probabilidad del evento. Esta ley permi-te, en teoría, calcular probabilidad a posteriori, cuando no sea posibleefectuar a priori el cómputo de los casos favorables y posibles.

Pero en la práctica, subsiste el problema de inferir estadística-mente la probabilidad de un evento desde el conocimiento parcialdel hecho de que éste ocurrió m veces sobre n intentos. El problemafue afrontado en 1761 por Thomas Bayes, y su solución necesitó laformulación de la ley de Bayes: la probabilidad de que dos eventosocurran simultáneamente es el producto de la probabilidad de queuno ocurra absolutamente, por la probabilidad de que el otro ocurraen relación con el primero.

En 1777, Georges Louis Leclere, conde de Buffon, consideró el si-guiente problema de la aguja: dada una hoja con renglones, ¿cuál es laprobabilidad de que una aguja de largo igual a la mitad de la distan-cia entre los renglones caiga sobre uno de ellos, cuando se deja caercasualmente sobre la hoja?. Puesto que la caída de la aguja dependede su ángulo de inclinación respecto de los renglones, se puede es-perar que la respuesta dependa de algún modo de π; puntualmente,Buffon demostró que la probabilidad es 1

π. Para la ley de los grandes

números, se puede entonces aproximar el valor de π haciendo ungran número de tiros con la aguja; ésta fue la primera aplicación deaquello que hoy se llama método Montecarlo, que consiste en calcular

La Matemática del siglo XX 137

una constante demostrando primero que es la probabilidad teóricade cierto evento, y realizando luego empíricamente un gran númerode simulaciones prácticas de ese evento.

En 1809, Gauss encontró la famosa curva de campana, de ecua-ción e−x2 que describe la distribución de probabilidad de errores me-dios en las observaciones (Figura 27); la curva es simétrica, porquees igualmente probable que el error sea por defecto o por exceso; yse aplana hacia el infinito, porque la probabilidad de un error muygrande es muy pequeña. Naturalmente, existen muchas curvas quetienen estas propiedades: como se ve en el exponente, Gauss deri-vó la suya sobre la base del método de los mínimos cuadrados, según elcual la mejor aproximación a un conjunto de observaciones es la queminimiza el cuadrado de los errores.

Figura 27. Curva de Gauss

Todos estos desarrollos confluyeron en 1812 en el tratado Teoríaanalítica de las probabilidades, de Pierre Simon de Laplace. Él sistema-tizó el argumento, definiendo la probabilidad de un evento como larelación entre los casos favorables y los posibles, comprobando queel área definida por la gaussiana es

√π y considerando aplicaciones

de todo tipo en las ciencias naturales y sociales.

Entonces, si bien la probabilidad había alcanzado su madurez,todavía faltaba una definición abstracta; esta necesidad fue parte del

138 6. Matemática Aplicada

sexto problema de Hilbert, y fue resuelto en 1931 por Andrej Kolmogo-rov, premio Wolf en 1980, quien inesperadamente utilizó a tal fin elconcepto de medida de Lebesgue.

La idea de Kolmogorov era definir axiomáticamente la probabi-lidad no sólo de eventos individuales, sino de conjuntos de eventos.Es decir, se trata de asignar a estos conjuntos un número compren-dido entre 0 y 1, con las siguientes propiedades: el conjunto vacío deeventos tiene probabilidad 0; el conjunto de todos los eventos posi-bles tiene probabilidad 1; y un conjunto de eventos que se obtiene“sumando” entre sí una cantidad numerable de conjuntos indepen-dientes de eventos, tiene una probabilidad equivalente a la suma delas probabilidades de éstos (aditividad numerable).

En caso de que haya sólo una cantidad finita de eventos la de-finición descrita también permite asignar una probabilidad a even-tos independientes y equiprobables individuales. Por ejemplo, si loseventos son n, entonces el conjunto total debe tener por un lado pro-babilidad 1 y, por el otro, la suma de las probabilidades de los eventosindividuales, que entonces deberán tener probabilidad 1

n .

6.6. Teoría de la Optimización: El Método del Simplex de Dantzig(1947)

Factores contrapuestos pero convergentes condujeron, en la pri-mera mitad del siglo XX, al desarrollo de la teoría programación eco-nómica. En la Unión Soviética, la planificación fue una consecuenciateórica del nacimiento del comunismo, y se concretó en la práctica delos planes quinquenales. En los Estados Unidos, la planificación fueuna necesidad práctica del desarrollo del capitalismo, que dio ori-gen a la teoría de la búsqueda operativa para la gestión de grandesempresas.

Fue sobre todo durante el esfuerzo bélico de la Segunda Guerra

La Matemática del siglo XX 139

Mundial cuando surgieron problemas de naturaleza técnica, cuyosintentos de solución habrían llevado a la construcción de los ordena-dores por un lado, y a la programación lineal por el otro. Esta última,en particular, se propone encontrar la mejor asignación de cierto nú-mero de recursos, según un determinado criterio de optimización, eladjetivo “lineal” se refiere a la característica esencial del problema,que es imponer vínculos entre los recursos expresados en forma deinecuaciones lineales, y asignar un criterio de optimización expresa-do en forma de ecuación lineal.

En el caso de sólo dos recursos, que entonces se pueden consi-derar como puntos de un plano, cada inecuación identifica un se-miplano. Excluyendo los casos en que no hay solución (intersecciónvacía) o no hay solución óptima (intersección ilimitada), el conjun-to de las inecuaciones identifica un polígono convexo, cuyos puntosconstituyen las soluciones del problema: entre ellas, la optimizaciónrequiere elegir la mejor, según el criterio asignado. De todos modos,para encontrar esta solución no es necesario examinar todas las posi-bles soluciones y confrontar entre sí los valores del criterio de optimi-zación; basta considerar los vértices (ya que el polígono es convexo,cada punto interno está sobre un segmento cuyos extremos están so-bre el perímetro; y ya que el criterio es lineal, el valor máximo queasume sobre el segmento está en uno de los extremos, es decir, enel perímetro, y el valor máximo en el perímetro está en uno de losvértices).

En el caso de una gran cantidad de recursos y de vínculos, enel que el polígono se convierte en politopo (y por lo tanto, un tipoparticular de simplex) en un espacio multidimensional, limitarse alexamen de todos sus vértices también puede presentar dificultadesinsuperables. La solución clásica al problema fue elmétodo del simplex,desarrollado en los años 1940 por George Dantzig, Leonid Kantoro-

140 6. Matemática Aplicada

vich y Tjalling Koopmans, y por el cual los dos últimos obtuvieron elpremio Nobel de economía en 1975.

La idea del método, que se convirtió por su eficiencia práctica enuno de los algoritmos más usados en la historia de la matemáticaaplicada, es partir desde un vértice particular del politopo, examinartodos los vértices a los que está conectado y moverse al que tiene elmejor valor del criterio de optimización. Si se sigue procediendo deesta manera, se alcanza un valor que es localmente óptimo; el hechoesencial es que, al ser un politopo convexo, un óptimo local es tam-bién un óptimo global, entonces el método siempre permite llegar almejor resultado en absoluto.

Una de las hipótesis necesarias para que funcione la programa-ción lineal es que los recursos puedan asumir valores fraccionarios;los vértices del politopo determinado por las inecuaciones se obtie-nen, en efecto, mediante soluciones de sistemas de ecuaciones linea-les, y en general pueden asumir valores no enteros. Pero si los recur-sos sólo deben asumir valores enteros, como frecuentemente ocurreen la práctica, no basta con optimizar el problema como si los recur-sos pudieran ser fraccionarios y redondear después las soluciones;en efecto, a veces ocurre que pequeñas variaciones hacen saltar elóptimo de un vértice a otro. Por lo tanto, fue necesario ampliar laprogramación lineal mediante técnicas que permiten resolver estosproblemas, desarrolladas en el ámbito de la programación entera.

Otra extensión necesaria fueron las técnicas para la solución deproblemas no lineales. En este caso el método del simplex no fun-ciona por un motivo diferente, y es que sin la linealidad (y por lotanto sin convexidad) ya no es cierto que un óptimo local siemprees un óptimo global. No existen métodos generales para la soluciónde problemas no lineales, pero se desarrollaron técnicas eficaces ypotentes, por ejemplo, en el ámbito de la programación dinámica.

La Matemática del siglo XX 141

6.7. Teoría del EquilibrioGeneral: El Teorema de Existencia de Arrowy Debreu (1954)

En 1776, el mismo año de la revolución burguesa americana, eleconomista escocés Adam Smith publicó el tratado Sobre la riquezade las naciones. Para justificar el liberalismo del laissez faire, introdujola ficción retórica de una “mano invisible” que supuestamente guíael comportamiento individualista de los agentes económicos haciafines no previstos por ellos, y que resultan ser socialmente útiles.Lamentablemente, la justificación del razonamiento se basaba en uncírculo vicioso, condensado en el principio optimista: “todo lo quehay, es justo”.

Los primeros intentos de fundar una ciencia sobre la filosofíaeconómica de Smith debieron esperar hasta el siglo XIX. En 1838,Antoine-Augustine Cournot introdujo el uso de los instrumentos delcálculo infinitesimal, de las funciones a las derivadas, para describirlos conceptos fundamentales de la economía. Y en 1874, Léon Wal-ras estableció un paralelo entre economía y mecánica, en el que lalev del mercado y el equilibrio económico se consideraban como losanálogos de la ley de gravitación y del equilibrio mecánico, paraleloestablecido a finales de siglo por Vilfredo Pareto, que consideró a lossujetos económicos individuales como análogos a las partículas.

En particular, Walras enunció una teoría que sustituía la inefablemano invisible de Smith con la interacción entre oferta y demanda,y conjeturaba que el desarrollo del mercado tendía naturalmente ha-cia su equilibrio. Matemáticamente, se trata de expresar para cadamercancía la demanda y la oferta en función de los precios y de lasdisponibilidades de todas las mercancías, y de imponer que las dife-rencias entre demanda y oferta siempre sean nulas; en este caso, decada mercancía se produciría exactamente la misma cantidad que sevende. Los problemas que se deben resolver son: ante todo, la exis-

142 6. Matemática Aplicada

tencia y la unicidad de un equilibrio, es decir, de un sistema de preciosque satisfaga todas las ecuaciones; además, la convergencia automáti-ca del sistema hacia el equilibrio, sobre la base de la ley de la oferta yla demanda, según la cual los precios suben cuando la demanda crecey bajan cuando disminuye; y finalmente, la estabilidad del equilibrio,en el sentido de que si el sistema también se aleja momentáneamente,siempre tiende a volver.

Naturalmente, todo depende de la forma particular de las funcio-nes que expresan la oferta y la demanda por un lado, y la ley de laoferta y la demanda por el otro. Walras llegó a la definición de unsistema de ecuaciones no lineales y dedujo la existencia de una solu-ción a partir del hecho, ciertamente insuficiente, de que el número deecuaciones fuera igual al numero de las incógnitas. En 1933, el eco-nomista Karl Schlesinger y el matemático Abraham Wald formula-ron un sistema distinto, y por primera vez dieron una demostraciónformal de la existencia de equilibrios.

En 1938, John von Neumann introdujo dos ideas innovadoras.Ante todo, reformuló el problema no en términos de ecuaciones, co-mo se había hecho hasta entonces, sino de inecuaciones; esto abrió elcamino para una formulación análoga de los problemas de optimiza-ción, y de la solución de los lineales mediante el método de simplexde Dantzig. Además, Von Neumann demostró la existencia de unequilibrio para un sistema particular reduciéndolo a un problema deminimax y utilizando entonces una versión del teorema del puntofijo de Brouwer. Las ideas de Von Neumann, tanto sobre la teoría delos juegos como sobre el equilibrio, alcanzaron su formulación defi-nitiva en 1944, en el ya mencionado libro La teoría de los juegos y elcomportamiento económico.

La característica esencial de la demostración de existencia de equi-librio de VonNeumann fue cambiar la atención desde las técnicas del

La Matemática del siglo XX 143

cálculo diferencial clásico a la topología, es decir, desde los sistemasdinámicos a los sistemas estáticos. En 1954, Kenneth Arrow y GerardDebreu, utilizando este nuevo enfoque y una particular extensión delteorema del punto fijo de Brouwer, demostrada en 1941 por Kakuta-ni, finalmente lograron demostrar la existencia de un equilibrio paralas ecuaciones de Walras, en el caso que la ley de la oferta y la de-manda está formulada de la siguiente manera: la velocidad de varia-ción de precio de cada mercancía, y por lo tanto su derivada respectodel tiempo, es proporcional al exceso de la demanda, es decir, a ladiferencia entre oferta y demanda de esa mercancía. Por este traba-jo, Arrow y Debreu obtuvieron el premio Nobel de economía en 1972 y1983.

Por lo tanto, el empleo del teorema del punto fijo de Brouwerpermitió a Arrow y a Debreu evitar las dificultades conectadas conel estudio de la economía a través de los sistemas dinámicos, que enlos años 1950 todavía no habían sido desarrollados suficientemente.Pero volvieron a estar de moda en la segundamitad del siglo, graciastambién a la posibilidad de simulaciones computerizadas, y en 1982Stephen Smale, medalla Fields en 1966 por otros trabajos que citare-mos enseguida, cerró el círculo del desarrollo histórico, volviendo ademostrar el teorema de Arrow y Debreu con los métodos concebi-dos originalmente porWalras, y sin usar en absoluto los teoremas delpunto fijo.

Naturalmente, para poder deducir del teorema de existencia delequilibrio conclusiones políticas, que reivindiquen de algunamanerael liberalismo de Adam Smith, se lo debería demostrar de maneramás general que en la formulación simplificada de Arrow y Debreu;en particular, en una situación en que los mercados interactúan entresí, y la variación del precio de cada mercancía depende (por ejemplo,de manera lineal) del exceso de demanda de todas las mercancías, y

144 6. Matemática Aplicada

no sólo de la mercancía en cuestión.

Desdichadamente para el capitalismo, en estas condiciones másgenerales el mercado tiende autónomamente nacía la situación deequilibrio sólo en el caso, bastante raro, de dos únicas mercancías. En1960, Herbert Scarf demostró que, en cambio, bastan sólo tres mer-cancías para el sistema pueda ser globalmente inestable, y no sea enabsoluto manejado por la fantasmal mano invisible. En 1972, HugoSonnenschein demostró que el exceso de demanda global de un mer-cado puede asumir los valores de una función continua cualquiera;los equilibrios, es decir los ceros de las funciones, pueden entoncesno existir; e incluso si existen, no es seguro que el mercado tienda ne-cesariamente hacia ellos, o vuelva automáticamente cuando se aleja.

Si es posible extraer alguna conclusión política de estos desarro-llos matemáticos, es que la ley del mercado no parece en absolutoadecuada para conducirlo a una condición de equilibrio, y que só-lo la planificación puede hacerlo, sin intención de ofender a AdamSmith y a sus seguidores de fines del siglo XX, desde Margaret That-cher hasta Ronald Reagan.

6.8. Teoría los lenguajes formales: La clasificación de Chomsky (1957)

Uno de los cambios más significativos en la lingüistica modernafue el Curso de lingüística general de Ferdinand de Saussure, dictadoen los años comprendidos entre 1906 y 1911 y publicado póstuma-mente en 1916. En el trabajo se delimita un enfoque estructural delas lenguas naturales, contrapuesto a los estudios históricos, filoló-gicos y comparados que estaban de moda hasta entonces. Saussureveía el lenguaje como un sistema constituido por dos partes; por unlado, una estructura fija, social e inmutable, de reglas para manipu-lar los signos (sonoros o escritos); por el otro lado, un uso variable,individual y creativo de la estructura para expresar los significados.

La Matemática del siglo XX 145

Las ideas de Saussure mostraron la posibilidad de estudiar mate-máticamente la parte estructural de la lingüística, y más en general,las ciencias humanas; en efecto, él fue el precursor e inspirador delestructuralismo, que tuvo como objetivo el estudio de estructuras pro-fundas en las manifestaciones de las vivencias humanas, y se con-cretó en la antropología de Claude Lévi-Strauss, el psicoanálisis deJacques Lacan y la psicología de Jean Piaget.

Por su parte, también la concepción axiomática y formalista de lamatemática llevó, natural e independientemente, a ideas paralelas alas de Saussure, es decir, que la actividad lingüística se pueda redu-cir a la generación de secuencias de símbolos según reglas formales,y que los signos estén ligados a los significados de manera conven-cional y arbitraria.

No es casual que la primera formulación de reglas abstractas yformales para la descripción de las estructuras lingüísticas pertenez-ca al matemático Axel Thue, que las expresó, en 1914, en términos deproducciones gramaticales de tipo

x → y

que debe interpretarse en el sentido de que cada vez que se encuentrauna ocurrencia de x en una palabra, se la puede sustituir con unaocurrencia de y. Thue definió una gramática como un conjunto deproducciones de este tipo, y formuló el llamado problema de la palabra,que consistía en decidir si dos palabras se pueden transformar unaen la otra sobre la base de las producciones de la gramática.

En 1921, Emil Post llegó independientemente a una formulaciónsimilar y demostró un resultado sorprendente, que hoy se puede ex-presar de la siguiente manera: los lenguajes que admiten una gramá-tica de Thue son exactamente aquellos que se pueden generar me-

146 6. Matemática Aplicada

diante cualquiera de los típicos lenguajes de programación de losordenadores. En otras palabras, simples producciones gramaticalesson suficientes para describir todo lo que los más complicados pro-gramas para ordenadores pueden hacer, en particular, todos los tiposposibles de lenguaje formal o mecánico.

Sólo faltaba tratar el caso de los lenguajes humanos. A esto sededicó, en 1957, el lingüista Noam Chomsky, que en Estructuras sin-tácticas realizó los primeros pasos de un trabajo que habría debidoconducir a la descripción completa de una gramática de Thue parael inglés; un proyecto que jamás fue completado, y cuya dificultadparece haber indicado una insuficiencia estructural del enfoque pu-ramente matemático en el estudio del lenguaje natural.

De todos modos, el trabajo de Chomsky llegó a un resultado fun-damental para la teoría de los lenguajes formales: una clasificación deéstos sobre la base del tipo de producciones gramaticales permitidasen su gramática. Y, puesto que los mismos tipos de lenguajes resul-taron ser expresables también sobre la base del tipo de ordenadorescapaces de generarlos, el resultado constituyó el punto de partida dela teoría de los lenguajes formales para ordenadores, es decir, de lalingüística informática.

La clasificación de Chomsky aisla cuatro tipos de lenguajes: uni-versales, sensibles al contexto, independientes del contexto y regulares. Sus-tancialmente, en el primer tipo no hay restricciones para el tipo deproducciones gramaticales, y por lo tanto, es posible sustituir cual-quier parte de una palabra con otra. En el segundo tipo, se permite lasustitución de una parte de una palabra sólo en contextos particula-res, especificados por las producciones. En el tercer tipo, se permitesustituir sólo una única letra con una parte de una palabra. En elcuarto tipo se permite sustituir una única letra sólo con otra únicaletra.

La Matemática del siglo XX 147

La clasificación se corresponde con la de los ordenadores o autó-matas capaces de generar los distintos lenguajes: universales, limitadoslinealmente, push-down y finitos. Sustancialmente, en el primer tipo nohay restricciones para la memoria del ordenador. En el segundo tipo,no se permite que el ordenador use una memoria más grande que elinput. En el tercer tipo, se permite que el ordenador memorice datossólo como en las pilas de bandejas de los selfservice, donde las pri-meras bandejas puestas en la pila serán las últimas en ser sacadas,y viceversa. En el cuarto tipo, se permite que el ordenador sólo lea,pero no memorice los datos.

Aunque desde el punto de vista lingüístico las gramáticas másinteresantes sean las que son sensibles al contexto, desde el punto devista informático resultaron más útiles las que son independientesdel contexto y las regulares, y sus teorías se han convertido actual-mente en una parte esencial de la informática teórica.

En cuanto a la matemática pura, las aplicaciones más interesan-tes de la lingüística formal son las que se relacionan con el problemade la palabra propuesto por Thue. En efecto, muchas estructuras al-gebraicas se presentan naturalmente bajo la forma de producciones,por ejemplo grupos y semigrupos (que son una versión más débil delos grupos, donde no se requiere la existencia de los inversos).

Post y Anatoly Markov, en 1944 y en 1947 respectivamente, de-mostraron que no existe ningún algoritmo para decidir el problemade la palabra para los semigrupos; esto constituyó el primer ejemplode indecibilidad de un problema no artificial, y demostró que las li-mitaciones de los sistemas formales descubiertas por Gödel, Churchy Turing no sólo atañen a los fundamentos teóricos, sino también ala práctica matemática.

Pavel Novikov y William Boone, en 1955 y en 1959 respectiva-mente, demostraron que incluso el problema de la palabra más difí-

148 6. Matemática Aplicada

cil para los grupos es indecible. Debido a la conexión con los gruposfundamentales de la topología algebraica, de los que hablaremos en-seguida, este resultado llevó a la indecibilidad de muchos problemastopológicos; por ejemplo, si una superficie es conexa, o si dos super-ficies son topológicamente equivalentes.

6.9. Teoría de los Sistemas Dinámicos: El Teorema Kam (1962)

El estudiomatemático del movimiento de los cuerpos se hizo teó-ricamente posible gracias a los descubrimientos de Newton, en losaños comprendidos entre el 1664 y el 1666, del cálculo infinitesimalpor un lado y de las tres leyes del movimiento por el otro: el princi-pio de inercia, la famosa ecuación F = ma, y el principio de accióny reacción. En el caso particular del movimiento de los cuerpos ce-lestes, la fuerza en juego está especificada por la ley de gravitaciónuniversal: la atracción ejercida por un cuerpo es proporcional a sumasa, e inversamente proporcional al cuadrado de su distancia.

Por ejemplo, en el primer libro de los Principia, Newton demos-tró que el movimiento de un planeta alrededor del Sol obedece a lastres leyes de Kepler, enunciadas en 1618: la órbita es elíptica, con elsol en uno de los focos; el área recorrida es proporcional al tiempoempleado para recorrerla; y el cuadrado del año planetario es (apro-ximadamente) proporcional al cubo de la distancia media desde elSol al planeta.

Pero en la práctica, los planetas no sólo están sujetos a la fuerzagravitacional del Sol, sino que se influyen recíprocamente; esto haceque sus órbitas no sean ni perfectamente elípticas, ni necesariamen-te cerradas. Además, el sistema solar no sólo está constituido por elSol y los nueve planetas, sino también por un número impreciso desatélites, cometas y asteroides; por lo tanto, el problema de su movi-miento no es para nada obvio.

La Matemática del siglo XX 149

El caso del Sol y de un planeta es muy especial, porque uno de losdos cuerpos tiene una masa insignificante respecto del otro; se puedesuponer entonces que el más grande está detenido y el otro gira al-rededor. Newton demostró que la solución es semejante también enel caso general, donde ambos cuerpos se mueven en órbitas elípticas,con el baricentro del sistema en un foco común.

Una vez resuelto de este modo el caso de dos cuerpos, el paso su-cesivo fue la solución del problema de los tres cuerpos; ejemplos parti-cularmente interesantes de este problema son el caso del Sol, la Tierray la Luna, o el Sol y dos planetas. Es posible obtener soluciones apro-ximadas resolviendo primero el problema para dos cuerpos y pertur-bando luego la solución de manera que se considere la influencia deltercer cuerpo; éste método fue utilizado por Newton en 1687 paracalcular la perturbación del Sol en el movimiento de la Luna alrede-dor de la Tierra, y por Euler en 1748 para calcular las perturbacionesrecíprocas de Júpiter y Saturno en su movimiento alrededor del Sol.

En 1772, Joseph Louis Lagrange encontró soluciones exactas decasos especiales del problema de los tres cuerpos. Por ejemplo, com-probó que es posible que tres cuerpos se muevan en tres órbitas elíp-ticas, con el baricentro del sistema en un foco común. O bien, que sitres cuerpos se encuentran en los vértices de un triángulo equiláte-ro, el triángulo rota en torno al baricentro del sistema y los cuerposquedan anclados a los vértices; un caso que, como se descubrió en1906, realiza el sistema constituido por el Sol, Júpiter y el asteroideAquiles.

Entre 1799 y 1825, aparecieron los cinco volúmenes de la Mecáni-ca Celeste de Laplace, que constituyeron la coronación de un siglo ymedio de descubrimientos. En particular, Laplace pudo declarar quela evolución pasada y futura del universo se habría podido calcu-lar completamente, si tan sólo se hubieran conocido la posición y la

150 6. Matemática Aplicada

velocidad de cada cuerpo en un único instante.

No obstante el optimismo de Laplace, todavía quedaban abier-tos dos problemas fundamentales. Por un lado, la solución exactadel caso general del problema de tres o más cuerpos. Por el otro, lacuestión de la estabilidad de las soluciones; por ejemplo, si pequeñasperturbaciones del movimiento de un planeta pueden producir sólopequeñas variaciones de su órbita, o si son capaces demandarlo com-pletamente a la deriva. En particular, si el efecto acumulativo de lasperturbaciones recíprocas de los distintos planetas es suficiente paraarrojar a alguno fuera de órbita y, eventualmente, fuera del sistemasolar o si, en cambio, éstos se mantendrán siempre sustancialmenteen la situación actual.

El problema de la estabilidad del sistema solar llegó a oídos delrey de Suecia, Óscar II, que lo colocó en la lista de los problemascuya resolución habría merecido un premio especial, instituido en1885 para “honrar su sexagésimo aniversario, y brindar una pruebade su interés por el avance de las ciencias matemáticas”.

E1 premio fue asignado en 1889 a Poincaré, que no logró decidirsi el sistema solar es estable o no, pero logró hacer un salto de calidaden el estudio de los sistemas dinámicos. Poincaré introdujo lo que élmismo denominó en el título de una trilogía, publicada entre 1892 y1899, Los Nueve Métodos de la Mecánica Celeste, en particular, el estu-dio topológico de las ecuaciones diferenciales no lineales, que hastaentonces habían sido dejadas de lado por su dificultad.

La distinción entre órbitas estables e inestables está conectada, demanera insospechable, a problemas de la teoría de los números. Porejemplo, la relación entre los años planetarios de Júpiter y Saturno esde 5 a 2, es decir, un número racional; esto permite que cada 10 añoslos dos planetas se encuentren en las mismas posiciones, y que susperturbaciones recíprocas puedan amplificarse en teoría como en un

La Matemática del siglo XX 151

efecto de resonancia, hasta producir efectos desestabilizantes.

La traducción matemática de la dificultad es el llamado proble-ma de los pequeños divisores: expresando la perturbación recíproca delos dos planetas en forma de suma infinita (una, así llamada, seriede Fourier), la relación racional 5

2 hace que muchos de los coeficien-tes de los términos de la suma tengan pequeños divisores y que, porlo tanto, sean muy grandes, esto tiende a hacer crecer la suma hadael infinito. Y el trabajo de 270 páginas con el que Poincaré ganó el“premio Óscar” parecía indicar precisamente que tales sumas fue-ran efectivamente infinitas y que, por lo tanto, las órbitas no fueranestables.

E1 problema de la estabilidad fue retomado en 1954 por Kolmo-gorov, que indicó los lineamientos para una solución y su proyectofue completado por Vladimir Arnol’d y Jürgen Moser en 1962, en untrabajo que es denominado globalmente teorema KAM, por las inicia-les de los tres autores. La solución es que, para perturbaciones pe-queñas, la mayoría de las órbitas es estable; éstas no son periódicas,pero se mantienen cerca de las órbitas periódicas del sistema no per-turbado, y por esto se llaman cuasi-periódicas.

La esenciamatemática del teorema KAM es que el problema de lospequeños divisores se presenta efectivamente cuando nos encontra-mos frente a períodos racionales, o bien aproximables por racionales(o sea, mediante fracciones de denominador relativamente pequeño),pero no se presenta en otro caso; dado que la mayoría de los númerosreales está constituido precisamente por números no bien aproxima-bles por racionales, el problema no se presenta en la mayoría de loscasos.

El interés que suscitaron el teorema KAM y sus respectivas proble-máticas es considerable. En la dirección de la matemática más pura,el resultado original les valió a Kolmogorov y Moser el premio Wolf

152 6. Matemática Aplicada

en 1980 y 1994/1995, una reciente generalización del mismo le valióa Jean Christophe Yoccoz una medalla Fields en 1994. En la direccióncomplementaria de la matemática más aplicada, la teórica estabili-dad de las órbitas de los planetas en el sistema solar se traduce enla concreta estabilidad de las órbitas de las partículas en los acelera-dores, esencial para que no pierdan su energía en golpes contra lasparedes, y la relevancia del teorema deriva del hecho de que el nú-mero de las órbitas de las partículas en un experimento es tan grandeque se puede comparar con el número de las órbitas de los planetasen el curso de toda la vida del sistema solar.

6.10. Teoría de los Nudos: Los Invariantes de Jones (1984)

Según la leyenda, en Gordion de Frigia (hoy en Turquía) el ca-rro del rey Midas estaba atado a su yugo con un nudo tan estrechoy complicado, que se decía que el que hubiera logrado desatarlo sehabría convertido en rey del mundo entero. Alejandro Magno llegó aGordion en el año 333 a.C., y después de algunos intentos infructuo-sos cortó el nudo con la espada. Naturalmente, el problema siguió sinsolución; la solución de un nudo requiere en efecto que sea desatadosin romperlo, por lo tanto, es de naturaleza topológica.

En 1848, Johann Listing, estudiante de Gauss, acuñó el nombretopología y publicó el primer libro sobre ese tema, en el cual una granparte estaba dedicada al estudio de los nudos, es decir, de las cur-vas cerradas en el espacio (Figura 28). Como curvas, los nudos noson otra cosa más que superficies de una sola dimensión, por esoes natural observarlos desde un punto de vista topológico, como siestuvieran hechos de finísimos hilos de goma con las extremidadesunidas, e intentar clasificarlos como hicieron Riemann, Moebius yKlein con las superficies de dos dimensiones, y Thurston con las detres dimensiones.

La Matemática del siglo XX 153

Según determinados criterios, existe una conexión entre la teoríade los nudos y la teoría de las superficies. De hecho, dado un nudo, sepuede imaginar su soporte no como una curva abstracta y matemá-tica cuya sección está reducida a un punto, sino como un tubo sólidoy físico, cuya sección es un círculo. Considerar la superficie bidimen-sional del tubo no conduce demasiado lejos, porque desde un puntode vista topológico ésta siempre equivale a un toro, para cualquiernudo. Sin embargo, se puede considerar la superficie tridimensionalque es el calco del tubo, o sea el espacio entero menos el tubo mismo(incluido el ulterior); la estructura del nudo resulta ser la estructurade los agujeros de esta superficie, y en su estudio se pueden aplicartodos los instrumentos topológicos clásicos.

Nudo nulo

Tréboles o nudossimples

Tetrafolios o nudos planos

Figura 28. Nudos

Pero este enfoque es muy indirecto, y la teoría de los nudos se de-dicó a asignarles directamente invariantes que, como dice el nombre,

154 6. Matemática Aplicada

no cambian cuando el nudo está sujeto a deformaciones topológicas,o sea, cuando el hilo de goma con el que el nudo está constituido esestirado o empujado, sin romperlo. Muchos de estos invariantes sepueden deducir implícitamente desde la superficie asociada, pero elproblema es definir los explícitos que se pueden obtener directamen-te de la figura del nudo.

El invariante más simple que se pueda imaginar es el número quecuenta cuántas veces el hilo se intersecta, cuando está colocado sobreun plano; naturalmente, deformaciones del nudo pueden cambiar talnúmero, por ejemplo, haciéndolo dar vueltas inútiles sobre sí mismo;entonces, para obtener un invariante se debe tomar el mínimo núme-ro necesario para representar el nudo dado. Pero esto hace casi inútilel invariante, porque para poder calcularlo se necesita, en la práctica,saber ya qué tipo de nudo se está considerando.

En 1910, Max Dehn introdujo una descripción algebraica de losnudos, que le permitió probar que existen diferentes nudos; en otraspalabras, que no todos los nudos se pueden desatar, reduciéndolosal nudo nulo (un círculo) mediante oportunas deformaciones, y sinromperlos. Esto es obvio intuitivamente, por ejemplo, para el trébol(o nudo simple), pero el problema era demostrarlo matemáticamen-te.

En 1928, James Alexander definió como invariante un polinomioque, además de las simples intersecciones, considera también el mo-do en que ocurren (la variable del polinomio representa el meridianodel nudo). Cuando se suman dos nudos, sus polinomios de Alexan-der se multiplican; puesto que el polinomio asignado al trébol esx2¯x + 1, y el tetrafolio (o nudo plano) es la suma de dos tréboles,polinomio será

(x2 − x+ 1)2 = x4 − 2x3 + 3x2 − 2x+ 1.

La Matemática del siglo XX 155

Del hecho de que dos nudos tienen polinomios distintos se puedededucir que también ellos son distintos; entonces, trébol y tetrafoliono pueden obtenerse uno del otro, por deformación; y hay infinitosnudos distintos, porque cada polinomio (simétrico) es el polinomiode un nudo. Sin embargo, dos nudos pueden ser distintos aun te-niendo el mismo polinomio, y esto es lo que ocurre con los trébolesdextrorso y sinistrorso.

En 1984, Vaughan Jones definió como invariante un nuevo tipo de“polinomios” (entre comillas, porque los exponentes de la variabletambién pueden ser negativos), que también considera el lado en quelas intersecciones ocurren y, por lo tanto, permite distinguir entre sílos dos tréboles; en efecto, sus “polinomios” son, respectivamente,

−x4 + x3 + x y1x4

+1x3

+1x.

Jones llegó a sus “polinomios” de manera indirecta, estudiando lasálgebras de Von Neumann, e inmediatamente descubrió una ulteriore inesperada conexión con la mecánica estadística; por estos resulta-dos y por la fecundidad de sus invariantes, Jones obtuvo la medallaFields en 1990.

No obstante estos desarrollos, todavía no se ha encontrado unaclasificación completa de los nudos. En particular, todavía no se haencontrado un invariante completo, es decir, uno que permita dis-tinguir entre sí todos los nudos que en efecto son distintos (el mejorinvariante actual se debe a Maxim Kontsevich, y le valió la medallaFields 1998). Incluso en este estado incompleto, las aplicaciones de lateoría de los nudos son extremadamente significativas.

Comenzando por la física, en 1867 lord Kelvin propuso una teo-ría según la cual los átomos eran nudos en el éter, llamados átomos devórtice, análogos a las espirales de humo en el aire. La idea, aparen-

156 6. Matemática Aplicada

temente extravagante, se basaba en un teorema de Hermann Helm-holtz según el cual un vórtice en un fluido perfecto, una vez creado,se mantiene indefinidamente. Kelvin se inspiró en experimentos dePeter Tait con anillos de humo, que rebotaban elásticamente y exhi-bían interesantes modos de vibrar. La ventaja de esta teoría era quelos nudos se mantenían juntos por puras uniones topológicas, sinque hubiera necesidad de hacer intervenir fuerzas atómicas especí-ficas. La propuesta estimuló un estudio de diez años acerca de losnudos, por parte de Tait,y produjo una tabla bastante completa y de-tallada de los nudos que tienen hasta 10 intersecciones, pero la teoríade Kelvin fue abandonada cuando el modelo de Bohr, que veía alátomo como un sistema solar en miniatura, tomó la delantera.

Los nudos siguen siendo de actualidad gracias a la teoría de lascuerdas (en italiano teoría delle stringhe del inglés strings,“cuerdas”)que deberían ser los constituyentes últimos de la materia, y de lascuales las partículas elementales serian modos de vibración en espa-cios multidimensionales. En realidad, hay varias teorías de las cuer-das; en la más simple las cuerdas son abiertas y unidimensionalescomo pedacitos de hilo con quark pegados en las extremidades, pe-ro en otras pueden ser cerradas, precisamente como los nudos delos que ya hemos hablado. En teorías más recientes, las cuerdas uni-dimensionales están sustituidas por membranas pluridimensionales,abiertas o cerradas.

Muchas de las ideas matemáticas de la teoría de las cuerdas tie-nen origen en los pirotécnicos trabajos de Edward Witten, que haninfluido profundamente en la matemática de los últimos años y levalieron la medalla Fields en 1990. Witten encontró insospechadas re-laciones de la teoría de las cuerdas con las áreas más dispares dela matemática; por ejemplo, el monstruo de Fischer-Griess en teo-ría de los grupos, los polinomios de Jones en teoría de los nudos, y

La Matemática del siglo XX 157

los espacios exóticos de Donaldson en topología resultan ser todosaspectos de particulares teorías topológico-cuánticas de campo, res-pectivamente de 2, 3 y 4 dimensiones.

Este punto de vista por un lado permite explicar algunas mis-teriosas simetrías de estos objetos y, por otro, ampliar su alcance demanera sustancial. Por ejemplo, fue precisamente usando la teoría delas cuerdas que Maxim Kontsevich y Richard Borcherds obtuvieronresultados que les valieron la medalla Fields en 1998. El primero pu-do generalizar los polinomios de Jones y obtener nuevos invariantes,no sólo para los nudos sino también para las superficies tridimensio-nales (los polinomios de Jones resultaron ser integrales de Feynmancalculados sobre una superficie particular, cuya definición se obtie-ne de la teoría de las cuerdas). El segundo en cambio logró resolverla conjetura Claro de Luna, propuesta por John Conway y Simon Nor-ton en 1979, que vincula el monstruo de Fischer- Griess con la teoríade las funciones elípticas, introducida en 1827 por Niels Abel y CarlJacobi (el monstruo resultó ser el grupo de los automorfismos de unálgebra particular, cuyos axiomas se obtienen de la teoría de las cuer-das).

En las versiones recientes de la teoría de las cuerdas juegan unrol esencial las variedades de Calabi-Yau, del que ya hemos hablado.En una primera fase, llamada de la supersimetría, se descubrió quela imposición de una fuerte necesidad de invariabilidad en la teo-ría de las cuerdas requería precisamente la modelización medianteuna variedad de Calabi-Yau; las 3 dimensiones complejas de la varie-dad corresponden a 6 dimensiones reales, que agregadas a las 4 delespacio-tiempo llevan el número total de las dimensiones a 10. Enuna segunda fase, llamada de la simetría especular, se descubrió queen realidad era posible modelar la teoría física mediante dos varie-dades distintas de Calabi-Yau, y que algunos de los cálculos difíciles

158 6. Matemática Aplicada

en una de las dos resultaban ser fáciles en la otra, y viceversa; man-teniendo así las dos posiciones, fue posible dar pasos esenciales en labúsqueda de una teoría del todo que describa de manera unitaria todala física moderna.

Otro tipo de aplicación de la teoría de los nudos es el estudio de laestructura del ADN, que está constituido por un largo filamento degenes plegado sobre sí mismo: una cadena de aproximadamente unmetro de largo, que está en el núcleo de una célula, de 5millonésimosde metro de diámetro (más o menos como si un hilo de 200 km merareplegado en una pelota de fútbol). Cuando el ADN se rehace, sedivide en dos copias idénticas, el problema es entender cómo puedeocurrir esto de manera eficiente, si ya la análoga división de los hilosque componen una cuerda produce complicados anudamientos. Losinvariantes de Alexander no fueron capaces de afrontar los plieguesdel ADN, pero los invariantes de Jones ya han producido resultadosinteresantes también en este campo.

7

La Matemática y elOrdenador

El ordenador está cambiando la vida cotidiana de manera sustan-cial, no sólo la del hombre común, sino también la del matemático.Como ocurre a menudo con la tecnología, muchos cambios no resul-tan del todo favorables, y las aplicaciones matemáticas del ordenadorno son una excepción: por ejemplo, cuando se lo utiliza como un au-tista savant en la trabajosa e irrelevante búsqueda de números primoscada vez más grandes. Sólo a modo de información: el récord a fina-les del siglo XX era 26972593 − 1, un número de casi dos mil millonesde cifras.

Los peligros que encierra un uso despreocupado del ordenadorpueden ejemplificarse claramente con el siguiente episodio, que com-prueba de qué manera confiar indiscriminadamente en su potenciapuede convertirse en un obstáculo, en vez de un estímulo, para elpensamiento matemático. En 1640, Fermat había conjeturado que losnúmeros con la forma 22

n+ 1 eran todos primos, basándose en el he-

159

160 7. La Matemática y el Ordenador

cho de que así es para n desde 0 hasta 4: en estos casos se obtienen losnúmeros 3,5,17,257 y 65.537, que en efecto son primos. Actualmente,un ordenador puede verificar con facilidad, por fuerza bruta, que laconjetura resulta falsa para n = 5, ya que

225+ 1 = 232 + 1 = 4.294.967.297 = 641× 6.700.417.

Pero una sistemática búsqueda manual de los posibles divisoresera y es imposible. En 1736, Leonhard Euler la evitó demostrando,con una ingeniosa y drástica reducción, que era suficiente limitarse aconsiderar divisores de tipo 64k + 1: así, el divisor 641 se encuentraen el décimo intento (k = 10). De esta manera, la falta del ordenadorobligó a Euler a trasladar el problema desde la contabilidad básicaa la alta matemática y a resolver uno de los curiosos problemas deFermat mediante uno de sus sorprendentes teoremas. Sólo a modode información, no se conocen otros números de Fermat que seanprimos, y en 1990 el esfuerzo conjunto de mil ordenadores permitióemular, para n = 9, lo que Euler había hecho a mano para n = 5, sinobtener, por otra parte, ningún resultado matemático interesante.

Entonces, tanto los detalles de un episodio significativo, como lageneralidad del lema de las Investigaciones filosóficas de Wittgenstein,advierten que “el progreso parece siempremás grande de lo que real-mente es”. En otras palabras, no se deben exagerar dogmáticamentelos efectos del uso del ordenador, ni en matemática ni en otras áreas,como suele hacer la prensa de divulgación, sino que deben ser exami-nados con sentido crítico; esto permitirá resaltar mejor los contornosdel verdadero progreso en el horizonte del desarrollo aparente.

Ante todo, se debe decir que la eventual influencia del ordenadoren la matemática sería en todo caso sólo un favor intercambiado. Enefecto, si bien es cierto que generalmente 188 teorizaciones científi-

La Matemática del siglo XX 161

cas derivan de las realizaciones tecnológicas, en este caso ha ocurridoexactamente lo contrario: de hecho, la construcción de los primerosordenadores electrónicos fue el punto de llegada de un desarrollomatemático que duró un siglo entero y que tuvo tres etapas sustan-ciales.

La primera idea fundamental fue introducida en 1854 por GeorgeBoole, en su famoso libro Investigación de las leyes del pensamiento. Enesta obra se describía la formulación algebraica del comportamientosemántico de las partículas lingüísticas más simples, como la con-junción y la negación, que hoy se denomina álgebra de Boole. Frege yRussell retomaron la idea de tratar en formamatemática las leyes queregulan el pensamiento, y la aplicaron con éxito en toda la lógica. Yla Inteligencia Artificial de posguerra intentó, por ahora con escasoéxito, extender la formalización del pensamiento, incluso fuera delámbito lógico y racional.

La segunda y decisiva idea fue introducida por Alan Turing en1936. A partir, precisamente, del cálculo lógico de Frege y Russell,este científico demostró que no existe una manera de decidir, dadauna fórmula de cálculo, si ésta es válida o no: en otras palabras, esimposible mecanizar la semántica del razonamiento lógico, del mis-mo modo en que se había hecho con su sintaxis. Para demostrar esteresultado de imposibilidad, Turing introdujo la noción de una má-quina abstracta capaz de ejecutar todas las tareas formales posibles ymostró que no era capaz de resolver el problema de la decisión. Paradescribir hoy la máquina de Turing, basta decir simplemente que erael proyecto teórico de un ordenador universal moderno.

Sin embargo, para construir físicamente tal máquina se necesita-ba una última idea, que nació de la colaboración entre un neurofi-siólogo y un matemático: Warren McCulloch y Walter Pitts. Puestoque se trataba de dotar a la máquina de Turing de un cerebro capaz

162 7. La Matemática y el Ordenador

de guiarla en la ejecución de sus tareas, en 1943 estos científicos pro-pusieron un modelo abstracto del sistema nervioso, basado en unasimplificación del sistema humano, y demostraron que se lo podíasintetizar mediante cables eléctricos, cuyas conexiones ocupaban ellugar de las neuronas y donde, al pasar o al dejar de pasar la corrienteeléctrica se representaba la presencia o la ausencia de una respuestasináptica. Y aquello que las redes neuronales podían realizar resultóser exactamente el álgebra de Boole.

El ordenador electrónico no es más que la realización práctica delsistema compuesto por la máquina de Turing y la red neuronal deMcCulloch y Pitts: esta red confiere a la máquina de Turing un cere-bro capaz de ejecutar las decisiones lógicas más elementales, graciasal cual la máquina puede efectuar todas las tareas mecánicas posi-bles, salvo las decisiones que requieren una lógica superior.

Estos avances influyeron en parte en los dos proyectos que con-dujeron a la construcción de los primeros ordenadores electrónicos;el ENIAC, o Electronic Numerical Integrator and Calculator conduci-do en los Estados Unidos por Von Neumann; y el ACE, o AutomaticComputing Engine conducido en Gran Bretaña por el mismo Turing,ambos alrededor de la década de 1950. Por lo tanto, si el ordenador eshijo de la investigación matemática de la primera mitad del siglo, nopodemos sorprendernos de que manifieste indicios del patrimoniogenético que le fue transmitido.

La primera aplicación matemática de la nueva máquina fue, na-turalmente, el uso de sus poderes computacionales: es más, su mis-ma concepción había sido estimulada precisamente por la esperanzade poder automatizar la enorme cantidad de cálculos que requeríanlos esfuerzos bélicos, que Turing había experimentado en persona ensu trabajo de contraespionaje y Von Neumann en la construcción dela bomba atómica. Este uso del ordenador con fines de cálculo, que

La Matemática del siglo XX 163

sigue siendo el más común, es el responsable de su nombre1.

Los beneficios de poder realizar con rapidez una gran cantidad decuentas también se han hecho sentir, sin dudas, en la matemática pu-ra. E1 caso más conocido es ciertamente la demostración interactivadel teorema de los cuatro colores de Kenneth Appel y Wolfgang Haken,que en 1976 requirió una ayuda del ordenador de miles de horas detiempo máquina. Pero el primer teorema demostrado completamen-te por un ordenador, sin ayuda del hombre, es del año 1997: se tratade la conjetura de Robbins, propuesta por Herbert Robbins en 1933,que afirmaba que un sistema de tres ecuaciones era una axiomatiza-ción de la teoría de las álgebras de Boole, y que fue demostrada porun programa escrito por William McCune y Larry Wos.

Sin embargo, es en la matemática aplicada donde, naturalmen-te, los usos del ordenador están provocando los efectos más visibles.Por ejemplo, hasta la segunda mitad del siglo XX, el estudio de lossistemas dinámicos requería un proceso de tres pasos: la descripcióndel sistema en términos matemáticos, la solución explícita del siste-ma y la descripción gráfica de la solución. Por lo general, el estudiose empantanaba después del primer paso, a causa de la dificultad dela descripción del sistema, que impedía su solución: esto había pro-ducido la exclusión de los sistemas complejos y la concentración ensistemas cuya descripción fuera suficientemente simple como parapoder resolverla. De todos modos, si se lograba obtener soluciones,tanto explícitamente como mediante procesos de aproximación, surepresentación gráfica podía resultar imposible, a causa de la enor-me cantidad de cálculos necesarios.

El uso del ordenador permitió resolver no sólo el segundo proble-ma, sino también el primero: en efecto, enmuchos casos se puede evi-tar encontrar soluciones explícitas de la descripción matemática de

1En italiano ordenador se dice calcolatore. [N. de la T.]

164 7. La Matemática y el Ordenador

un sistema y obtener una descripción gráfica de su comportamientodirectamente, mediante una simulación. Esto permitió estudiar todauna clase de sistemas que jamás se habían podido abordar, y el naci-miento de la que hoy se denomina teoría del caos, la que, no obstantesu nombre, estudia precisamente sistemas que no son en absolutocaóticos, pero que son tan complejos que lo aparentan a primera vis-ta.

La metáfora más conocida de los sistemas caóticos es la del efectomariposa, cuyo aleteo en un continente podría desencadenar un hu-racán en el otro lado del planeta. Y una de las clásicas aplicacionesdel ordenador, ya iniciada por el mismo Von Neumann y retomadapor Edward Lorenz, es justamente la simulación del tiempo atmos-férico, que hizo posibles las previsiones a corto plazo y que generóuna de las imágenes más conocidas del caos: un extraño atractor conforma, casualmente, de alas de mariposa.

A propósito de imágenes, no se deben olvidar los desarrollosde la gráfica computerizada: ubicuas en las aplicaciones comercia-les, también están adquiriendo un rol importante en la matemáticapura, como soporte visual. Los casos más representativos fueron losdescubrimientos de nuevas superficies, que habrían sido difíciles devisualizar utilizando sólo el ojo de la mente: las superficies minima-les encontradas en 1983 por David Hoffman y William Meeks, de lasque ya hemos hablado (Figura 7); y la llamada Venus etrusca de Don-na Cox y George Francis, descubierta en 1988 (Figura 29).

Las imágenes más célebres, gracias también a su calidad visual,y que algunos llegan a considerar la expresión de una nueva formade arte, son las de los fractales; las curvas autosimilares descubiertasa comienzos del siglo XX como una curiosidad, abandonadas por untiempo debido a la dificultad para ser representadas, y que volvie-ron con ímpetu a escena en la década de 1980, gracias al trabajo de

La Matemática del siglo XX 165

Benoît Mandelbrot. Precisamente, a este matemático se debe el des-cubrimiento de una especie de fractal universal que, al ser examina-do con un microscopio, aparece como un inagotable contenedor desorprendentes detalles, y cuyas imágenes se convirtieron en el sím-bolo del fecundo potencial de un uso cuidadoso del ordenador en lamatemática.

De este modo, una vez introducido en rasgos generales el pro-blema de la relación recíproca entre matemática e informática, pa-semos ahora a examinar en detalle algunas de las más interesantesaplicaciones del ordenador en a investigación matemática, a las queya hemos hecho referencia.

Figura 29. Venus etrusca

7.1. Teoría de Algoritmos: La Caracterización de Turing (1936)

En el Congreso Internacional de Bolonia de 1928, Hilbert propu-so (nuevamente) otro de sus famosos problemas, el llamado Ents-cheidungsproblem, o “problema de la decisión”: demostrar que existe unalgoritmo para decidir si una proposición es consecuencia lógica deotras.

166 7. La Matemática y el Ordenador

Lo interesante del problema era el hecho de que las distintas ra-mas de la matemática se pueden presentar demanera uniforme a tra-vés de sistemas de axiomas, de donde se derivan los teoremas usan-do sólo la lógica. Por lo tanto, un algoritmo como el que requeríaHilbert habría permitido a los matemáticos concentrarse en la partemás placentera de su trabajo, es decir, en la formulación de axiomasy la enunciación de enunciados interesantes, y dejar al algoritmo laparte más pesada, o sea, la demostración de los enunciados a partirde los axiomas.

De todos modos, el problema no era sólo la expresión de un de-seo piadoso. En 1922, Emil Post ya había dado un paso fundamental,al demostrar que la parte de la lógica llamada proposicional, que es-tudia las partículas lingüísticas denominadas conectores (“no”, “y”,“o”,“si-entonces”), admite en efecto tal algoritmo: el denominadométodo de las tablas de verdad. Hilbert pretendía entonces extender elresultado a la parte de la lógica llamada predicativa, que también tra-ta de partículas lingüísticas, denominadas cuantificadores (“ninguno”,“alguno”, “todos”).

El problema fue resuelto en 1936, independientemente, por Alon-zo Church en los Estados Unidos y por Alan Turing en Inglaterra. Lasolución, como se puede prever por el hecho de que las demostracio-nes siguieron siendo la parte central de la actividad matemática, fuenegativa: un algoritmo como el que pretendía Hilbert no existe. Pe-ro la demostración de este hecho presupone un progreso esencial: enefecto, mientras que para demostrar la existencia de un algoritmo só-lo basta con exhibirlo, demostrar que no existe requiere la exclusiónde todo posible algoritmo y, por lo tanto, la caracterización completade la noción misma de algoritmo.

El hecho de que tal noción, vaga e intuitiva, admita efectivamenteuna caracterización precisa y formal fue un descubrimiento sorpren-

La Matemática del siglo XX 167

dente, al que se llegó mediante una serie de tentativas de definiciónque, a posteriori, resultaron ser todas equivalentes. Pero fue preci-samente el enfoque de Turing el que convenció definitivamente deque se había llegado a la solución del problema: hoy su definiciónse podría reformular de manera casi banal, diciendo que un algorit-mo es aquello que se puede traducir en un programa por ordenador,en cualquiera de los lenguajes llamados universales (por ejemplo, elcategórico Pascal, el funcional Lisp, o el lógico Prolog).

Naturalmente, en 1936 no existían los ordenadores. Es más, sudesarrollo se basó precisamente en la introducción, por parte de Tu-ring, del concepto de máquina universal, que puede calcular todafunción calculable realizando un programa. Y en particular, se ba-só en el paso de las máquinas construidas para ejecutar tareas fijas,como las calculadoras, a las máquinas capaces de ejecutar cualquiertarea ejecutable, como los ordenadores.

Turing derivó la solución negativa del Entscheidungsproblem tra-duciendo, en el lenguaje de la lógica, el así llamado problema de laparada: decidir si un programa dado se detiene en un argumento da-do. Se puede demostrar fácilmente que este problema es indecidible,en el sentido de que no existe ningún programa que lo pueda decidir,utilizando el clásico método diagonal, introducido por Cantor en lateoría de conjuntos, y luego aprovechado por Russell en su paradoja, ypor Gödel para su teorema de incompletitud -método que, por lo tanto,Turing conocía muy bien (y también Church, quien resolvió el pro-blema de manera análoga, pero usando su definición equivalente dealgoritmo en términos de Lambda cálculo)-.

La solución del Entscheidungsproblem mostró el camino para de-mostrar resultados de indecidibilidad en los campos más variados,mediante traducciones apropiadas del problema de la parada, o deotros similares. Desde el punto de vista matemático, la aplicación

168 7. La Matemática y el Ordenador

más interesante del método fue la solución negativa del décimo pro-blema de Hilbert: encontrar un algoritmo para decidir si un polinomio(en una o más variables) con coeficientes enteros (positivos o nega-tivos) admite ceros enteros; o, en otros términos, si la denominadaecuación diofántica que se obtiene igualando el polinomio a 0, admi-te raíces enteras.

En elmomento en que se llevaba a cabo el Congreso de 1900, ya seconocían soluciones positivas a casos particulares del décimo proble-ma de Hilbert. Por ejemplo, el algoritmo de Euclides para el máximocomún divisor permite tratar el caso de las ecuaciones diofánticas deprimer grado, porque

a1x1 + . . .+ anxn = b

tiene soluciones enteras si y sólo si el máximo común divisor dea1, . . . , an divide a b. La ley de reciprocidad cuadrática de Gauss permitetratar el caso de las ecuaciones diofánticas de segundo grado.

Un resultado obtenido en 1968 por Alan Baker, que establece efec-tivos límites superiores a las soluciones de polinomios de al menostercer grado y que le valió la medalla Fields en 1970, permite tratar elcaso de las ecuaciones elípticas, lo que revela una profunda conexióndel décimo problema de Hilbert con la conjetura de Mordell y el teo-rema de Fermat. El resultado de Baker se extendió luego para tratarel caso de cualquier ecuación diofántica con dos variables.

Sin embargo, la dificultad para solucionar estos casos particula-res permite anunciar que la respuesta al problema general debe sernegativa y que, por lo tanto, no existe ningún algoritmo general dedecisión. Quienes demostraron este hecho fueron Martin Davis, Hi-lary Putnam, Julia Robinson y Yuri Matiyasevich: en 1960, los tresprimeros mostraron cómo traducir el problema de la parada al len-

La Matemática del siglo XX 169

guaje de las ecuaciones diofánticas utilizando la función exponencial(una ecuación describe el comportamiento de cada programa, dema-nera tal que el programa se detiene si y sólo si la ecuación tiene so-luciones); y en 1970, Yuri Matiyasevich eliminó el uso de la funciónexponencial.

Depurando el resultado deMatiyasevich se puede demostrar queel caso de cualquier ecuación diofántica con nueve variables ya es in-decidible, pero no se sabe si éste es elmejor resultado posible. Esmás,Baker conjetura que un caso con tres variables ya resulta indecidible.

7.2. Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950)

Ninguna aplicación del ordenador resulta más original y contro-vertida que la que se realiza en la Inteligencia Artificial, para simularprocesos y resultados característicos de la inteligencia. La originali-dad deriva, obviamente, de la provocación intelectual de considerarel pensamiento, que es la característica humana más específica, co-mo algo de lo que pueden estar dotadas también las máquinas. Lacontroversia deriva del hecho de que la Inteligencia Artificial, sobretodo en los primeros períodos de las décadas de 1950 y 1960, se des-equilibró en previsiones que resultaron, en la práctica, exageradas eirreales, si no hasta simplemente ridículas.

Que las máquinas puedan pensar ya había sido sugerido por elmismo Turing, en su famoso artículo de 1950 “Calculadoras e inteli-gencia”. Allí propuso, en particular una prueba práctica que se cono-ce como test de Turing: se puede decir que una máquina piensa cuan-do un interlocutor que conversa con ella a distancia y por escrito nose da cuenta de que las respuestas no son dadas por un ser humano.

Pero el nombre de Inteligencia Artificial fue adoptado oficialmen-te por la comunidad informática en 1956, en el histórico congreso del

170 7. La Matemática y el Ordenador

Dartmouth College de Hanover, en NewHampshire. En este congre-so participaron quienes se convertirían en los exponentes más repre-sentativos de la disciplina, y que luego recibirían el reconocimien-to informático más prestigioso, el Turing Award: Marvin Minsky en1969, John McCarthy en 1971, y Allen Newell y Herbert Simon en1975.

Originalmente, los sueños de la Inteligencia Artificial, declaradosexpresamente por Simon en la década de 1950, eran llegar, en diezaños, a programas que ganaran el campeonato mundial de ajedrez,demostraran importantes y nuevos teoremas de matemática e inspi-raran la mayor parte de las teorías psicológicas.

Después de cuarenta años, la mayor parte de los sueños fueronabandonados y el rol del ordenador ha sido drásticamente descali-ficado: como instrumento matemático hoy es usado casi exclusiva-mente para realizar cálculos masivos, más que para enunciar y de-mostrar autónomamente nuevos teoremas, y comomodelo de teoríasmentales ya fue superado por las redes neuronales. Esto no signifi-ca, obviamente, que con su ayuda no se haya conseguido resultadostrascendentes y aplicaciones útiles: los ejemplos más significativos,además de los citados a continuación, son los sistemas expertos, quecodifican densos conocimientos de especialistas en bancos de datos,y realizan deducciones a partir de esos conocimientos utilizando len-guajes de programación que simulan densos aspectos mecánicos delrazonamiento.

En un único campo las previsiones de Simon se cumplieron demanera más completa, aunque en tiempos más largos de lo previsto:el juego de ajedrez. Ya en 1864 Charles Babbage, el visionario inven-tor del primer ordenador, había anticipado la posibilidad de hacerque una máquina jugara al ajedrez, formulando un primer grupo deposibles instrucciones rudimentarias. Ya en 1890 Leonardo Torres y

La Matemática del siglo XX 171

Quevedo había formalizado completamente la estrategia para el ja-que mate, cuando en el tablero hubiera sólo dos reyes y una torre.

Pero en realidad, el primer análisis informático del juego se debea un histórico artículo de Claude Shannon, de 1950. En particular, éldiferenció netamente: programas locales que, a fuerza bruta, analizanel árbol de las posibilidades hasta una profundidad preestablecida,eligiendo el mejor movimiento en base a una evaluación minimax yconsiderando sólo los movimientos más prometedores (cada nivel deprofundidad permite mejorar el puntaje del programa en 200 puntosELO aproximadamente); programas globales, que combinan el aná-lisis en profundidad de los movimientos con una evaluación exten-siva de la disposición, la movilidad, el equilibrio, la influencia y elcontrol de las piezas; y programas estratégicos que juegan mediantereglas abstractas parecidas a las humanas.

El primer partido entre un hombre y un programa se jugó en1951, entre el informático Alick Glennie y el Turochamp, escrito porAlan Turing. Dado que las máquinas de la época todavía no eran de-masiado potentes, Turing tuvo que simular el programa a mano. Ydado que el programa era bastante poco sofisticado, Glennie ganófácilmente el partido en 29 movimientos.

Las optimistas previsiones de Simon fueron compartidas por Mi-jail Botvinnik, él mismo campeón mundial (con dos breves interrup-ciones) desde 1948 hasta 1963, quien en 1958 declaró que estaba se-guro de que algún día el ordenador jugaría mejor que el hombre, yluego se dedicó por mucho tiempo al desarrollo de programas glo-bales y estratégicos.

El test de Turing, restringido al ajedrez, fue superado satisfacto-riamente por primera vez en 1980 por Belle, campeón mundial delos programas (el primer campeonato mundial se había llevado a ca-bo en 1974). En una simultánea de 26 partidos jugados por el gran

172 7. La Matemática y el Ordenador

maestro Helmut Pfleger, el programa jugó secretamente tres parti-dos. Cinco de los partidos, uno de los cuales fue jugado (y vencido)por Belle, fueron seleccionados y distribuidos a varios expertos, in-cluso al gran maestro Korchnoi, que había sido candidato al titulomundial en 1978: la mayor parte de los expertos, incluidos Korchnoiy Pfleger, pero no Kasparov, se equivocaron al identificar el partidojugado por el ordenador.

La mejora de los programas para ajedrez ha sido, en erecto, enor-me. En 1978, se produjo la primera derrota de un maestro interna-cional: David Levy, derrotado por Chess 4.7. En 1988, el gran maes-tro Bent Larsen es derrotado por Deep Thought. En 1996, el campeónmundial Gary Kasparov es derrotado por Deep Blue. Mientras queen 1983 un programa (Belle) se convirtió por primera vez en maes-tro, y en 1990 otro programa (Deep Thought) llegó a ser gran maestro.El último paso de esta evolución se alcanzó el 11 de mayo de 1997,cuando Deep Blue venció al campeón mundial Kasparov no sólo enun partido, sino en un auténtico torneo, con puntaje de 3,5 a 2,5.

Hasta Belle los programas eran locales, Deep Thought y Deep Blueson globales, pero la construcción de programas estratégicos no pare-ce factible hasta el momento. Esto muestra los límites filosóficos delproyecto de la Inteligencia Artificial, incluso en su realización de ma-yor éxito: es decir, el hecho de poder simular en ocasiones el pen-samiento humano, reproduciendo sus resultados, pero nunca poderemularlo, reproduciendo sus procesos.

7.3. Teoría del Caos: El Atractor extraño de Lorenz (1963)

El problema fundamental de la dinámica es pasar de la descrip-ción implícita de las leyes que regulan el movimiento de un puntomatemático o de un cuerpo físico, a una descripción explícita de latrayectoria que sigue el punto o el cuerpo mismo: en dos palabras,

La Matemática del siglo XX 173

resolver las ecuaciones del movimiento.

La dinámica clásica se concentró en los movimientos que se pue-den describir con ecuaciones diferenciales lineales, para las cuales sedesarrollaron varios métodos de solución analítica. Pero la dificultadpara solucionar ecuaciones diferenciales no lineales inhibió por mu-cho tiempo un estudio profundo de los casos que se pueden describircon este tipo de ecuaciones, también por el fenómeno de la inestabi-lidad al que están vinculadas: aunque en teoría sean perfectamentedeterministas, los sistemas no lineales a menudo se comportan demanera prácticamente caótica, ya que pequeñas variaciones de lascondiciones iniciales pueden determinar grandes variaciones en lassoluciones.

El advenimiento del ordenador permitió afrontar el estudio delos sistemas no lineales mediante la fuerza bruta del cálculo: en vezde resolver las ecuaciones de manera analítica, se simula el procesoque ellas describen de manera analógica, y de este modo en lugarde obtener una ecuación de la trayectoria se obtiene su imagen. Y lasolución gráfica a menudo resulta, no sólo prácticamente suficientepara las aplicaciones, sino también visualmente inmediata para laimaginación.

Una clasificación de los sistemas dinámicos en base al comporta-miento que describen utiliza la noción de atractor, que es un confi-guración de equilibrio hacia la cual tiende el cuerpo en movimiento.En el caso más simple el atractor es un punto, por ejemplo, una masagravitacional que atrae un cuerpo (de aquí deriva, precisamente, elnombre de atractor). Un caso un poco más complejo es el de una cur-va cerrada, por ejemplo la de la tierra que se mueve alrededor del sol(la curva obtenida es una elipse). Más complejo aun es el caso de unasuperficie que el cuerpo en movimiento barre en un desplazamientocasi periódico que se obtiene sobreponiendo movimientos periódi-

174 7. La Matemática y el Ordenador

cos, por ejemplo, el de la luna que se mueve alrededor de la tierraque se mueve alrededor del sol (la superficie obtenida es la composi-ción de dos movimientos elipsoidales perpendiculares, es decir, unaespecie de toro).

También existen atractores extraños, que no son clásicos como losanteriores: la rareza consiste en el hecho de que, en vez de ser pun-tos, curvas o las superficies habituales, son fractales (en un sentidopreciso, que será definido a continuación).

El primer ejemplo de atractor extraño fue descubierto en 1963 porEdward Lorenz, como solución de las ecuaciones que propuso paradescribir el comportamiento del tiempo atmosférico, y se convirtióen el emblema de la teoría del caos (Figura 30). Lo interesante es que,precisamente porque tal solución se obtiene por simulación en or-denador, la forma general del atractor de Lorenz es más o menossiempre la misma, pero sus detalles varían según el (programa para)ordenador usado.

Recién en 1995, Konstantin Mischaikov y Marian Mrozek demos-traron (para colmo de ironía, con una demostración que necesitó unextenso uso del ordenador) que el sistema de Lorenz es en efecto caó-tico, en el sentido de que su comportamiento conduce a un atractorextraño. Pero, por ahora, todavía no se ha demostrado que este atrac-tor tenga la forma quemuestran sus aproximaciones en el ordenador:y no resulta inmediato precisamente porque estamos en presencia deun sistema caótico, en el cual pequeñas variaciones pueden provocargrandes cambios.

Además del evidente interés aplicativo, que va desde la aerodi-námica a la meteorología, la simulación de sistemas no lineales enel ordenador también suscita interesantes cuestionamientos teóricos,referidos a la interpretación de los resultados: el caos que aparece enla pantalla del terminal no es una prueba automática de la naturaleza

La Matemática del siglo XX 175

caótica del sistema descripto por el sistema; y el verdadero atractorde un sistema caótico no tiene necesariamente la forma de las aproxi-maciones que muestra la máquina.

Figura 30. Atractor de Lorenz

7.4. Demostraciones asistidas: El Teorema de los Cuatro Colores deAppel y Haken (1976)

En 1852, Francis Guthrie notó, coloreando un mapa de Inglaterra,que no parecían ser necesarios más de cuatro colores para colorearcualquier mapa asignando colores diferentes a regiones colindantes,a condición de que los límites no fueran ni demasiado simples, nidemasiado complejos. No demasiado simples significa, por ejemplo,que no se permiten límites reducidos a puntos aislados: si no, bastaconsiderar regiones dispuestas como las porciones de una torta pa-ra deducir que ningún número finito de colores sería suficiente. Nodemasiado complejos significa, por ejemplo, que se excluyen límitesdemasiado irregulares: si no, basta considerar regiones que tengan elmismo límite en común (los denominados lagos de Wada, Figura 31)

176 7. La Matemática y el Ordenador

para deducir que ningún número finito de colores sería suficiente.2

Para demostrar, bajo las condiciones mencionadas, que en efectose necesitan cuatro colores, basta exhibir cuatro países de los cualescada uno colinda con los otros tres, como en la Figura 32. Augus-tus de Morgan demostró inmediatamente que no es posible que decinco países cada uno colinde con los otros cuatro, pero esto sólo sig-nifica que no se puede demostrar del mismo modo que se necesitancinco colores. De ninguna manera se puede deducir de esto que cua-tro colores sean suficientes, como en cambio supusieron una grancantidad de aficionados que durante un siglo propusieron demostra-ciones erradas de la conjetura de los cuatro colores.

En 1879, Alfred Kempe publicó una demostración del teorema,pero en 1890 Percy Heawood descubrió un error en esa demostra-ción, aunque pudo probar que cinco colores son suficientes. La de-mostración consistía en mostrar que las regiones que a lo sumo sonfrontera de otras cinco regiones (Figura 33) son inevitables, en el sen-tido de que todo mapa normal (es decir, en el que en ningún puntose encuentran más de tres regiones) debe contener por lo menos una;y que los mapas que contienen configuraciones inevitables se pue-den reducir a otros que tengan por lo menos una región menos, y se

2Encontrar dos regiones con el mismo límite es banal: basta con dividir el planoen dos partes mediante una recta o un circulo. Encontrar tres (o más) regiones conel mismo límite es complicado, y requiere un proceso al límite. Para poder visuali-zarlo, supongamos que tenemos dos lagos, uno verde y uno azul, en una isla negrarodeada por un mar rojo. Primero se construye un canal que lleve el agua roja a laisla de modo tal que la tierra negra nunca esté a más de un metro del agua. Luego,se construye un canal que lleve agua verde a la isla de modo tal que la tierra negranunca esté a más de medio metro del agua. Finalmente, se construye un canal quelleve agua azul a la ida demodo tal que la tierra negra nunca esté a más de un cuartode metro del agua. Luego se vuelve a empezar, alargando primero de primer canalde modo tal que la tierra negra nunca esté a más de un octavo de metro del aguaroja, y así sucesivamente. Al límite, las tres regiones (verde, azul y roja) quedan di-vididas por un único límite negro, que se redujo a las dimensiones infinitesimalesde una línea curva.

La Matemática del siglo XX 177

pueden colorear con el mismo número de colores.

Por ejemplo, si una región es a lo sumo cuadrangular, en el senti-do de que a lo sumo colinda con otras cuatro regiones, el nuevomapase obtiene contrayendo las regiones hacia un punto (Figura 34). Si elnuevo mapa se puede colorear con cinco colores a lo sumo, se puedehacer lo mismo con el mapa original: basta usar, para la región eli-minada, un color distinto de los usados (a lo sumo cuatro) para lasregiones vecinas.

Figura 31. Lagos de Wada

41 2

3

Figura 32.

Un poco más complejo es el caso de las regiones pentagonales,que colindan con otras cinco regiones. En este caso el nuevo mapa

178 7. La Matemática y el Ordenador

se obtiene considerando como una única región la región pentago-nal unida a dos colindantes con ella, pero no entre ellas (Figura 35).Si el nuevo mapa se puede colorear a lo sumo con cinco colores, sepuede hacer lo mismo con el mapa original: basta usar, para la regiónpentagonal, un color distinto de los cuatro colores usados para las re-giones que quedaron en el nuevo mapa (las dos regiones que fueronconsideradas como la misma tendrán el mismo color, pero estaránseparadas por la región pentagonal, que tiene otro color).

1 2

3

4

5

Figura 33. Región pentagonal

1 2

34

Región cuadrangular

1 2

34

Contracción

Figura 34. Tratamiento de una figura cuadrangular

1 2

3

4

5

Región pentagonal

1

35

Contracción

Figura 35. Tratamiento de una región pentagonal

La Matemática del siglo XX 179

En el caso de cuatro colores, se pueden tratar de manera análo-ga las regiones que a lo sumo son triangulares, y un truco permitetratar también las regiones cuadrangulares, pero no hay forma detratar las regiones pentagonales. Y los intentos de arreglar la demos-tración de Kempe produjeron, por un lado, conjuntos cada vez másgrandes de configuraciones inevitables y, por otro, conjuntos cadavez más grandes de configuraciones reducibles, que permitieron de-mostrar el teorema de los cuatro colores para mapas que tienen hastaun centenar de regiones. Pero sólo en 1976, Kenneth Appel y Wolf-gang Haken encontraron un conjunto de configuraciones que fueranal mismo tiempo inevitables y reducibles, probando así por fin el teo-rema en su generalidad.

El aspecto interesante de la demostración de Appel y Haken nofue tanto la solución del problema, cuyo interés matemático era bas-tante limitado, sino el método que utilizaron: las 1.482 configuracio-nes inevitables y reducibles fueron encontradas mediante pruebas yerrores, a partir de un conjunto de origen de no más de 500, en unproceso de búsqueda interactiva guiada por el ordenador, que nece-sitó 1.200 horas (equivalentes a 50 días ininterrumpidos) de tiempomáquina.

Por primera vez la demostración de un teorema matemático sebasaba en cuentas que no podían ser verificadas a mano, y cuandoel trabajo que contenía la demostración se presentó al Illinois Journalof Mathematics, el control del resultado se realizó con el uso de otroprograma, implementado en otro ordenador. Esto suscita algunos in-terrogantes de naturaleza filosófica, ya que las demostraciones asisti-das por el ordenador no son iguales a las habituales: en estas últimasse pasa directamente de la intuición a la formalización, mientras queen las primeras el paso está mediado por un programa. El problemaes que no sólo no se puede saber si el programa formaliza correc-

180 7. La Matemática y el Ordenador

tamente la intuición, sino que demostrar la corrección del teoremade Gödel es problemático, exactamente como ocurre con los sistemasformales.

Puede ser que un día esta peculiar demostración de este peculiarteorema se simplifique radicalmente. Pero también es posible que elteorema de los cuatro colores sea un síntoma de un mal común atodos los sistemas formales indecidibles: es decir, que deban existirteoremas cortos de demostración arbitrariamente larga. Por ejemplo,teoremas de largo n cuya demostración más corta tiene por lo menosun largo 2n: de lo contrario el sistema sería decidible, porque parasaber si un enunciado de largo n es un teorema o no, bastaría generarsistemáticamente todas las demostraciones de largo a lo sumo 2n, ycontrolar si alguna de ellas demuestra el enunciado.

Por lo tanto, no tiene nada de raro que, por un lado, enunciadossimples necesiten demostraciones complejas, y por el otro, mileniosde desarrollo matemático probablemente hayan agotado la totalidadde las demostraciones cortas (e interesantes). Lo que estamos presen-ciando es quizás la llegada de una nueva era, en la cual las demos-traciones serán cada vez más largas y complejas; y para remediar elproblema no queda más que dividir el trabajo entre muchos mate-máticos, como en el caso de la clasificación de los grupos finitos, odelegar una parte del trabajo al ordenador, como en el caso del teo-rema de los cuatro colores.

Las más famosas demostraciones asistidas por el ordenador sonlas del teorema de los cuatro colores y las de la conjetura de Kepler,de quien ya hemos hablado. Otro ejemplo relevante para la matemá-tica es la refutación de la conjetura de Mertens, a la que se llega de lasiguiente manera: En 1832, Moebius había considerado los númerosen cuya descomposición los factores primos aparecen todos con unexponente igual a 1, o sea una sola vez, había asignado a estos nú-

La Matemática del siglo XX 181

meros el valor 1 o −1, dependiendo de si el factor era par o impar,y había definido la función M(n) como la suma de estos valores, pa-ra todos los números menores o iguales a n. En 1897, Franz Mertenscalculó los primeros 10.000 valores de la función M y conjeturó que,para cada n,

−√n < M(n) <

√n.

Esto podría parecer de escaso interés, pero, en realidad, la conjeturade Mertens habría derivado la hipótesis de Riemann, es decir, comoveremos más adelante, el problema abierto más importante de la ma-temática moderna.

El cálculo de valores cada vez más grandes de la función M pare-ció confirmar la conjetura, pero en 1983 Hermann de Riele y AndrewOdlyzko la refutaron, precisamente con una demostración asistidaque utilizó masivamente un superordenador CRAY.

7.5. Fractales: El Conjunto de Mandelbrot (1980)

En 1906, Helge von Koch descubrió que es posible que una re-gión del plano tenga un área finita pero un perímetro infinito. Bastaconsiderar un triángulo equilátero, dividir cada lado en tres partesiguales, considerar el tercio central de cada uno como la base de unnuevo triángulo equilátero, y repetir el proceso al infinito (Figura 36).El resultado final es una figura con forma de copo de nieve, que pre-cisamente tiene un área finita, pero un perímetro infinito (en cadapaso el largo del borde se multiplica por 4

3 ).

A causa de la simétrica repetitividad del procedimiento que lodefine, el borde de la figura de Koch tiene la propiedad de ser auto-similar: si se transforman dos segmentos cualesquiera de las variasaproximaciones, por ejemplo un lado del triángulo original y un ladode los triángulos obtenidos en el primer paso, se obtiene siempre la

182 7. La Matemática y el Ordenador

misma curva al límite, sólo que en una escala diferente.

Figura 36. Curva de Koch

Dado que este tipo de curvas no se pueden medir de la mane-ra habitual, ya que tienen una longitud infinita, en 1918 Félix Haus-dorff propusomedir al menos el grado de autosemejanza de la curva,extendiendo la noción de dimensión de la siguiente manera. Un seg-mento es una figura autosimilar unidimensional, que puede obtener-se uniendo dos partes de tamaño 1

2 . Análogamente, un cuadrado esuna figura autosimilar bidimensional, que se puede obtener uniendocuatro partes de tamaño 1

2 . Y un cubo es una figura autosimilar tridi-mensional, que se puede obtener uniendo ocho partes de tamaño 1

2

(Figura 37). En general, se puede concluir que una figura autosimilarde dimensión d es aquella que puede obtenerse uniendo nd partes detamaño 1

n . Dado que la curva de Koch se obtiene uniendo 4 partes detamaño 1

3 (se divide un segmento en 3 partes, y se sustituye la partecentral por partes iguales), esto significa que su dimensión d es tal

La Matemática del siglo XX 183

que 4 = 3d, es decir

d =log 4log 3

≈ 1, 26

Figura 37. Figuras autosimilares

Figuras que tienen dimensión fraccionaria, en el sentido que seacaba de explicar, se llaman fractales, y existen en gran cantidad. Porejemplo, para cada número real r comprendido entre 1 y 2 existe unacurva fractal de dimensión r. Análogamente, también existen super-ficies fractales, de dimensión comprendida entre 2 y 3. Un ejemplo,conocido como esponja de Menger, puede obtenerse considerando uncubo, dividiéndolo en 27 cubos, sustrayendo los 7 cubos centrales (6en las caras y 1 en el interior), y repitiendo el proceso al infinito (Fi-gura 38): la dimensión de esta superficie es (aproximadamente) 2,72,mientras que el volumen que encierra es 0.

Figura 38. Esponja de Menger

Los ejemplos de fractales que se acaban de mostrar son altamenteregulares y usan siempre el mismo procedimiento en todos los pasos:

184 7. La Matemática y el Ordenador

por esta razón, agrandar un detalle produce una imagen del mismotipo que la figura grande. Sin embargo, también se pueden conside-rar fractales si su construcción utiliza procedimientos distintos en ca-da paso: en este caso, agrandar detalles produce imágenes distintasde la figura grande.

La investigación acerca de este segundo tipo de fractales, iniciadapor Gastón Julia y Pierre Fatou en la década de 1920, se empantanópor las dificultades de cálculo, que dificultan el dibujo a mano de lasimágenes. Pero la llegada del ordenador permitió retomar el tema ylas imágenes computerizadas de fractales complejos se convirtieronen una verdadera forma de arte moderno.

El tipo más simple de fractal que se pueda considerar, ademásdel que se basa en modificaciones lineales de la figura original, im-plica problemas cuadráticos. En 1980, Benoît Mandelbrot descubrióuna especie de fractal universal, definido de manera más bien indi-recta: es decir, considerando la transformación x2 + c de puntos delplano (los valores de la x son por lo tanto números complejos, y nosólo reales), y aplicándola reiteradamente, partiendo de puntos cua-lesquiera.

Si c es nulo, se presentan tres casos: los puntos que distan 1 delorigen, es decir, que están en el círculo de radio 1, no sonmovidos porla transformación (porque x2 es igual a x, si x es igual a 1); los puntosque distan menos de 1 del origen, que por lo tanto están dentro delcírculo de radio 1, se mueven hacia el origen (porque x2 es menor quex, si x es menor que 1); los puntos que distan más de 1 del origen,que por lo tanto están fuera del círculo de radio 1, se mueven hacia elinfinito (porque x2 es mayor que x si x es mayor que 1). Por lo tanto,hay zonas de atracción, hacia el cero y hacia el infinito, divididas porun límite circular.

Si c es arbitrario, pueden suceder varias cosas: el número de zo-

La Matemática del siglo XX 185

nas de atracción puede variar; además de las zonas de atracción tam-bién puede haber zonas de órbitas periódicas; y el límite entre lasdistintas zonas es una curva fractal que puede estar constituida poruna sola pieza, por varias piezas, o simplemente por una nube depuntos dispersos.

El conjunto de Mandelbrot consiste en puntos c que originan unazona de frontera de una sola pieza, y su extraña apariencia se convir-tió en una de las formas geométricas más conocidas (Figura 39). Co-mo demostraronAdrien Douady y JohnHubbard, en 1985, el conjun-to a su vez está compuesto por una sola pieza (en lenguaje técnico, esconexo). Y, como demostró Jean Christophe Yoccoz, todo punto queno está en el perímetro está completamente rodeado por una partedel conjunto que está constituida por una sola pieza (en lenguaje téc-nico, es localmente conexo): uno de los resultados por los cuales Yoccozobtuvo la medalla Fields en 1994.

Figura 39. Conjunto de Mandelbrot

La posición de un punto c respecto del conjunto de Mandelbrotdetermina cuál es el comportamiento de la transformación cuadrá-tica x2 + c. La importancia del estudio de este peculiar aspecto fuedestacada con la medalla de Fields en 1998 a Curtis McCullen, quien

186 7. La Matemática y el Ordenador

aisló los puntos correspondientes a transformaciones que definen sis-temas dinámicos hiperbólicos (o sea, con órbitas periódicas todas cir-culares), particularmente útiles y muy estudiadas.

No obstante su definición, aparentemente muy particular, el con-junto de Mandelbrot presenta un interés general: ya que de hecho esun sistema de referencia para el estudio de los sistemas dinámicoscomplejos, porque brinda información, no sólo sobre transformacio-nes cuadráticas, sino sobre cualquier transformación que se compor-te como una cuadrática aunque sea sólo en una parte del plano.

Con respecto a las aplicaciones, los fractales sirven para modelarobjetos que exhiben una estructura amuchos niveles de escala, desdecostas marítimas hasta cadenas montañosas, y se utilizan en la gráfi-ca computerizada para reproducirlas con imágenes realistas (Figura40). Justamente a causa de las variadas aplicaciones de los fractales,Mandelbrot obtuvo el premio Wolf en 1995, no en matemática, sino enfísica.

Figura 40. Paisaje renderizado mediante fractales por el softwareTERRAGEN

8

Problemas irresueltos

La matemática, como esperamos haber demostrado, es sustan-cialmente una actividad de propuesta y de solución de problemas,fáciles o difíciles, superficiales o profundos, teóricos o prácticos, pu-ros o aplicados. Y la provisión de problemas es inagotable, porquefrecuentemente de las soluciones surgen nuevos problemas. Una vezagotado nuestro tratamiento de los desarrollos correspondientes alos problemas de Hilbert, y más en general, de la matemática delsiglo XX, surge el deseo espontáneo de echar un vistazo a los proble-mas futuros, cuando concluye un siglo que también marca el iniciode un milenio.

Naturalmente, no es fácil juzgar la dificultad de un problema an-tes de haber visto su solución, como demuestran precisamente losproblemas de Hilbert. Por ejemplo, el tercer problema fue resuelto in-mediatamente porMax Dehn y su solución fue publicada incluso an-tes de la aparición de las actas del congreso de París. Análogamente,el séptimo problema fue resuelto en 1929, aunque sólo diez años an-tes Hilbert hubiera declarado que no creía que pudiera resolverse enmenos de un siglo.

187

188 8. Problemas irresueltos

De todos modos, los matemáticos consideran que los problemasque ellos proponen son, no sólo resolubles, sino también que tardeo temprano serán efectivamente resueltos. Para citar las palabras deHilbert en su discurso en París: “La convicción de la resolubilidad decada problema es un incentivo poderoso para el investigador. Dentrode nosotros sentimos la perpetua llamada: hay un problema, busque-mos su solución. Y sólo se la puede encontrar con la razón, porqueen matemática no hay ningún ignorabimus”.

Hilbert se preguntó si la posibilidad de resolver todos los proble-mas era una característica exclusiva del pensamiento matemático ouna ley más general de la naturaleza de la mente. Pero dijo claramen-te que una solución aceptable de un problema matemático puede sertambién una demostración de su insolubilidad, como sucedió efec-tivamente con su primer problema, sobre la hipótesis del continuo, ycon el décimo problema, sobre la existencia de soluciones de ecuacionesdiofánticas.

Naturalmente, la historia de la matemática está llena de solucio-nes negativas. La irracionalidad de

√2, descubierta por los pitagóri-

cos, no era otra cosa que una demostración de la insolubilidad de laecuación x2 − 2 = 0 en los números racionales. Y en el siglo XIX, sedemostró la insolubilidad de problemas geométricos (como la cua-dratura del círculo y la trisección del ángulo mediante regla y com-pás) y algebraicos (como la solución mediante radicales de las ecua-ciones de grado mayor que el cuarto). Pero fue en el siglo XX cuandoel fenómeno alcanzó masa crítica, también gracias a su clarificacióna través del teorema de Gödel.

Advirtiendo entonces que un problema aparentemente interesan-te y resoluble pueda resultar después desilusionante o insoluble, pro-ponemos una breve lista de problemas abiertos de la matemática,desde aquél que puede ser considerado el más antiguo hasta uno de

La Matemática del siglo XX 189

los más recientes, pasando a través de los dos que son consideradosuniversalmente los más profundos, o sea la hipótesis de Riemann yla conjetura de Poincaré.

8.1. Aritmética: El Problema de los Números Perfectos (300 a.C.)

La teoría de los números está llena de problemas que, como deúltimo teorema de Fermat, son facilísimos de enunciar y dificilísimosde resolver. El problema abierto más antiguo de la matemática esprecisamente de este tipo.

En el siglo VI a.C., los pitagóricos habían definido un número per-fecto como un número que es igual a la suma de sus divisores, exclui-do obviamente el número mismo, e incluida la unidad. Por ejemplo,son perfectos 6 y 28, cuyos divisores son 1-2-3, y 1-2-4-7-14, respecti-vamente. En la Creación del mundo (III), el filósofo hebreo del primersiglo Philo Judaeus sostuvo que Dios creó el mundo en seis días jus-tamente porque el número 6 es perfecto, y en la Ciudad de Dios (XI,30) Agustín sostuvo la misma idea.

Además del 6 y el 28, los griegos conocían también el 496 Y el8.128, El quinto número perfecto -33.550.336- apareció por primeravez en un código alemán del siglo XV, y hoy se conocen en total sólounos cuarenta. Hacia el 300 a.C., Euclides, en la proposición IX.36 delos Elementos, demostró en general que si 2n+1 − 1 es primo, entonces2n(2n+1 − 1) es perfecto. La verificación es prácticamente inmediata,pero mucho menos inmediato es demostrar que los números perfec-tos pares son exactamente los del tipo encontrado por Euclides. Lademostración de que es así fue dada por Euler en 1737, y aprovechael mismo procedimiento que usó para demostrar que los númerosprimos son infinitos, que habría llevado a los desarrollos ya descrip-tos, referidos a la hipótesis de Riemann.

190 8. Problemas irresueltos

Por lo tanto, los números perfectos pares están estrechamentevinculados a los números primos del tipo 2m − 1, llamados primos deMersenne. Euler descubrió unmétodo eficiente para verificar si 2m− 1es primo, que se basa en el llamado pequeño teorema de Fermat, es de-cir, el hecho de que si p es un número primo, entonces 2p − 1 es iguala 1 en el grupo cíclico con p elementos (o, como se dice, congruentecon 1 módulo p).

Pero dado que, como solía hacer, Fermat sólo había enunciado supequeño teorema, Euler se vio obligado a demostrarlo. Él dio unaprimera demostración en 1737, pero en 1750 volvió al tema y, paradar su segunda demostración, inauguró la teoría de congruencias, o seala teoría de los grupos cíclicos con un número primo de elementos,que luego se convirtió en uno de los instrumentos más fecundos dela teoría de los números.

El criterio de Euler todavía se usa en la búsqueda de grandes nú-meros primos en el ordenador, y a finales del siglo XX, el primo másgrande (deMersenne) que haya conocido haya conocido era el citado26972593 − 1 del que se puede tomar el más grande numero perfectoconocido.

Como el sucesivo teorema de Fermat, también el estudio de losnúmeros perfectos condujo al desarrollo de partes esenciales de lamoderna teoría de los números. Pero un primer problema sigue abier-to: si existen o no números perfectos impares.

Si la respuesta es positiva, en teoría se podría encontrar un ejem-plomediante una búsqueda exhaustiva, por ejemplo en el ordenador.Pero en la práctica, todo depende de cuán grande sea el número per-fecto impar más pequeño. En cambio, si la respuesta es negativa, losresultados conjuntos de Euclides y Euler caracterizan entonces com-pletamente a los números perfectos.

La Matemática del siglo XX 191

De todos modos, un segundo problema sigue abierto: si existeninfinitos números perfectos pares, o, equivalentemente, si existen in-finitos números primos de Mersenne.

8.2. Análisis complejo: La Hipótesis de Riemann (1859)

Los números enteros siempre se pueden descomponer, respectode la suma, en sumandos iguales a 1. Respecto del producto, en cam-bio, existen números primos que son indescomponibles, o sea, que noadmiten factores distintos de sí mismos ni de 1. Los números pri-mos son los átomos del mundo numérico y su estudio reviste un rolanálogo al de la física de las partículas para el mundo físico.

Los primeros resultados profundos en este estudio fueron obte-nidos por los griegos, quienes probaron que todo número se puededescomponer demanera unívoca como producto de números primosy que los números primos son infinitos, aunque sean cada vez másesporádicos.

Una demostración directa de la infinitud de los números primosaparece en los Elementos (IX, 20) de Euclides, pero una demostraciónsorprendentemente indirecta la dio Euler en 1737. Él notó que, da-do que todo número se puede descomponer en factores primos, alvariar n varían en realidad todos los posibles productos de númerosprimos, con todos los posibles exponentes. Si hubiera sólo un núme-ro finito de primos, la suma

1+12+

13+ . . .+

1n+ . . .

sería finita, porque sería el producto de un número finito de progre-siones geométricas de tipo

1+1p+

1p2

+ . . . =p

p− 1

192 8. Problemas irresueltos

Pero la suma anterior es infinita, porque las dos fracciones 13 y 1

4contribuyen al menos 1

2 , y análogamente las sucesivas 4, 8, 16, etcé-tera.

Los números primos son 25 hasta 100, 168 hasta 1.000, 1.229 hasta10.000,9.592 hasta 100.000. Una distribución que, como notaron Eulery Gauss, decrece de manera aproximadamente logarítmica, en el sen-tido de que los números primos hasta 10n son aproximadamente 10n

2n :25 hasta 100, 167 hasta 1.000, 1.250 hasta 10.000, 10.000 hasta 100.000.En términos generales, y usando los logaritmos naturales, se puedeconjeturar el teorema de los números primos, según el cual la cantidadde primos hasta n se acerca cada vez más a la relación

nlog n

En 1859 Bernhard Riemann, intentando demostrar el teorema, no-tó que el problema está ligado al comportamiento de la función

ζ(z) = 1+12z

+13z

+ . . .+1nz + . . .

La conexión de la función ζ con los números primos es aparente se-gún la anterior demostración de Euler, que muestra sin embargo quepara z menor o igual a 1 la función ζ, tiene un valor infinito; por es-ta razón Riemann amplió la función desde los números reales a loscomplejos, mediante una técnica llamada de prolongación analítica(sustancialmente, se define el valor de ζ como límite no de las sumasparciales, sino de sus medias).

La función ζ, admite infinitos ceros complejos no reales, es decir,números de tipo z = x+ iy con y 6= 0 y ζ(z) = 0, y que se encuentrantodos en la franja definida por x entre 0 y 1. Riemann conjeturó queestos números se deben encontrar todos sobre la recta definida por

La Matemática del siglo XX 193

x = 12 , una conjetura conocida como hipótesis de Riemann, que consti-

tuye el problema abierto más importante de la matemática moderna.Todavía hoy sólo se sabe de ella que, en efecto se encuentran infinitosceros sobre la recta justa, como comprobó Hardy en 1914, y que es asípara los primeros ceros, hasta varios miles de millones de ellos.

De todosmodos, para llegar al teorema de los números primos noera necesario conocer la función ζ en los detalles descriptos por la hi-pótesis de Riemann; en 1896 el teorema fue demostrado por JacquesHadamard y Charles Jean de la Vallée Poussin, y la demostración só-lo necesitó probar el hecho de que ningún cero de la función ζ estásobre la recta definida por x = 1.

Por lo tanto, la hipótesis de Riemann quedó abierta y formó partedel octavo problema de Hilbert. Este problema proponía también variasotras preguntas sobre los números primos, entre ellas las conjeturasde Goldbach, de 1742, y de los primos gemelos, la primera sostiene quetodo número par mayor que 2 es la suma de dos números primos; yla segunda, que existen infinitos números primos cuya diferencia es 2(como 3 y 5, o 10.006.427 y 10.006.429). También estas dos conjeturas,como la hipótesis de Riemann, permanecen aún sin ser demostradas.

Hilbert también propuso estudiar el comportamiento de los nú-meros primos (ideales) en campos arbitrarios. Una versión de la hi-pótesis de Riemann para un análogo de la función ζ, asociada a cur-vas algebraicas en campos finitos fue propuesta en 1924 por Emil Ar-tin, y demostrada en 1940-1941 por André Weil, premio Wolf en 1979El mismo Weil propuso, en 1949, un análogo de la hipótesis de Rie-mann para variedades algebraicas multidimensionales en campos fi-nitos, que se hizo famosa con el nombre de conjetura de Weil, y fuedemostrada en 1973 por Pierre Deligne, quien recibió por este traba-jo la medalla Fields en 1978. La demostración de Deligne fue el primergran resultado obtenido mediante un arsenal de técnicas extremada-

194 8. Problemas irresueltos

mente abstractas de geometría algebraica (como los esquemas y lacohomología l-ádica) introducidas en los años 1960 por AlexandreGrothendieck, medalla Fields en 1966.

El aparente alejamiento de las problemáticas y de las técnicas dela teoría clásica de los números no debe hacer pensar que no se hayavuelto a acudir a ellas; del resultado de Deligne se deduce, por ejem-plo, una conjetura de Ramanujan de principios de siglo, y los métodosusados por Deligne son los mismos que permitieron que Faltings yWiles demostraran la conjetura de Mordell en 1983 y el teorema deFermat en 1995. De todosmodos, el último cuarto de siglo ha testimo-niado la llegada de una nueva fase geométrico-algebraica de la teoríade los números, después de las fases aritmética y analítica inaugura-das respectivamente por Fermat y Euler, con el método de descensoinfinito y la introducción de la función ζ.

Pero después de resolver problemas de teoría de los números contécnicas analíticas o geométrico-algebraicas todavía resta compren-der si estas técnicas son necesarias, o si, en cambio, no es posibleencontrar demostraciones clásicas que no hagan intervenir concep-tos ajenos a la teoría misma de los números. Tales demostraciones sellaman “elementales” desde el punto de vista de la complejidad ló-gica, que no se debe confundir con la complejidad matemática, dadoque el uso de técnicas más acotadas tiende precisamente a producirdemostraciones más complicadas.

En el caso del teorema de los números primos, en 1949 Paul Er-dös y Atle Selberg dieron una demostración elemental del teorema,que le valió al segundo la medalla Fields en 1950, y a ambos el premioWolf en 1983/1984 y 1986, respectivamente. Todavía no se han en-contrado demostraciones elementales de las conjeturas de Ramanu-jan, Mordell y Fermat, y se piensa que tales demostraciones podríantener una dimensión y una complejidad prohibitivas.

La Matemática del siglo XX 195

8.3. Topología Algebraica: La Conjetura de Poincaré (1904)

La topología algebraica es el estudio de propiedades topológicasa través de métodos algebraicos. El primer ejemplo de este enfoquees la llamada característica de Euler de una superficie, ya conocida porDescartes en 1639 y por Leibniz en 1675, pero redescubierta y publi-cada por Euler en 1750.

La observación inicial es que, dado un poliedro convexo, entre elnúmero V de sus vértices, L de sus lados y F de sus caras subsiste lasiguiente relación: V − L+ F = 2.

Por ejemplo, en el caso de un cubo se tienen 8 vértices, 12 ladosy 6 caras, entonces: 8− 12+ 6 = 2. La relación sigue valiendo paralos grafos dibujados sobre una esfera, lo que muestra precisamenteque se está frente a una propiedad topològica: si se infla un poliedrode goma hasta convertirlo en una esfera, sus lados representan ungrafo sobre ella; viceversa, aplastando las caras de un grafo sobreuna esfera de goma se obtiene un poliedro.

Lo que hace este asunto interesante es que la cantidad V − L+ Fdepende sólo del tipo de superficie sobre la cual el grafo está dibu-jado, vale 2− 2n si la superficie es una esfera con n aros, y 2˘n si lasuperficie es una esfera con n cintas de Moebius. Por ejemplo, el va-lor es 2 para la esfera, 1 para el plano proyectivo, 0 para el toro yla botella de Klein. Sabiendo si una superficie bidimensional cerra-da es orientable o no, y cuál es su característica de Euler, es posibleclasificarla completamente.

Para superficies en 3 (o más) dimensiones, un análogo de la ca-racterística de Euler fue definido por Poincaré en una serie de tra-bajos entre 1895 y 1900, pero no basta para clasificarlas. La idea es,entonces, prever los resultados anteriores de manera más elaborada,asociando a una superficie bidimensional no sólo un número, sinoun grupo fundamental: se fija un punto en la superficie y sobre esa

196 8. Problemas irresueltos

superficie se consideran los recorridos que parten desde el punto yvuelven al mismo (la aplicación de un recorrido a otro es el recorri-do obtenido recorriendo primero uno y después el otro; el recorridoneutro es el que no se mueve del punto; el inverso de un recorridodado es el recorrido efectuado en el sentido opuesto).

Dado que se están tratando propiedades topológicas, los recorri-dos deben ser considerados como si fueran de goma: dos recorridosque se pueden transformar uno en el otro estirándolos o contrayén-dolos, sin romperlos, son sustancialmente iguales. Esta identificaciónde recorridos se llama homotopía y por este motivo el grupo funda-mental de una superficie se llama también primer grupo de homoto-pía.

El grupo fundamental de la esfera es trivial, cualquier recorridose puede contraer a un punto. Además, la esfera es la única superficiecerrada orientable cuyo grupo fundamental es trivial, en efecto, siuna superficie tiene al menos un aro, un recorrido que pase alrededordel aro no se puede contraer a un punto. El grupo fundamental es,por consiguiente, suficiente para distinguir la esfera de cualquier otrasuperficie orientable y, más en general, superficies bidimensionalesde distinto tipo entre sí.

Poincaré amplió la noción de grupo fundamental a superficies en3 y más dimensiones, con la esperanza de conducir a una clasifica-ción topològica de naturaleza algebraica de esas superficies. Pero lascosas resultaron más complicadas de lo previsto, y hoy se sabe quelos grupos fundamentales no son suficientes para caracterizar las su-perficies tridimensionales. Por esta razón, la clasificación de Thurs-ton, de la que hablamos anteriormente, usa esencialmente conceptosno sólo algebraicos sino también geométricos, como los posibles ti-pos de geometría que se pueden asignar a los elementos de una su-perficie.

La Matemática del siglo XX 197

En 1904, Poincaré formuló una conjetura que no se refería a su-perficies cualesquiera, sino sólo a la hiperesfera, y preguntaba si éstaes la única superficie tridimensional cerrada y orientable cuyo gru-po fundamental es trivial. Una respuesta positiva se deduciría de lacaracterización de las superficies tridimensionales de Thurston, quesin embargo todavía no ha sido demostrada; es más, precisamentela conjetura de Poincaré es uno de los obstáculos más fuertes paracompletar su demostración.

Lo interesante es que, una vez aplicada la conjetura a las esferasde cualquier dimensión, el único caso que queda abierto es justamen-te el original de Poincaré. En efecto, con respecto a las esferas de 5 omás dimensiones, la conjetura de Poincaré fue comprobada en 1960por Stephen Smale, quien obtuvo por este trabajo la medalla Fields en1966 (más tarde Smale se convirtió en uno de los más famosos in-telectuales estadounidenses que tomó posición contra la guerra deVietnam, y la Universidad de California le suspendió el sueldo). Enlo que concierne, en cambio, a la esfera de 4 dimensiones, la conje-tura de Poincaré se deduce de la caracterización de Freedman de lassuperficies tetradimensionales, de manera análoga a la de las super-ficies bidimensionales, descrita anteriormente.

Independientemente de las soluciones, las dificultades para de-mostrar la conjetura de Poincaré revelaron que la información co-dificada por el grupo fundamental es demasiado limitada. Por estarazón, en 1935 Witold Hurewicz introdujo una serie infinita de gruposde homotopía para la esfera de n dimensiones. El grupo fundamentales el primero de la serie, y los primeros n son los denominados gruposde homología, que se obtienen considerando recorridos en varias di-mensiones, en vez de unidimensionales únicamente; por ejemplo, nosólo elásticos extendidos sobre la esfera, sino globitos (des)inflables,y así sucesivamente.

198 8. Problemas irresueltos

El resultado fundamental sobre los sucesivos grupos de homoto-pía de la esfera en n dimensiones es el teorema de finitud, demostradoen 1951 por Jean-Pierre Serre; todos estos grupos son finitos, con laúnica excepción del grupo (2n− 1)-ésimo cuando n es par, por ejem-plo del tercer grupo de la esfera bidimensional. Este resultado le va-lió a Serre la medalla Fields en 1954 y contribuyó a que le asignarantambién el premio Wolf en 2000.

De todas maneras, la determinación precisa de estos sucesivosgrupos de homotopía resultó ser muy complicada. En 1950, Lev Pon-tryagin calculó los primeros dos y Rokhlin el tercero, y en 1951 Serréel cuarto. Para poder realizar su cálculo Pontryagin tuvo que deter-minar cuándo una superficie compacta de n dimensiones es el bordede una superficie de n+ 1 dimensiones; encontró una condición ne-cesaria que, en 1954, René Thom demostró que también es suficiente.

De este último trabajo nace la importante teoría del cobordismo, porla que Thom obtuvo la medalla Fields en 1958. Entre las aplicacionesmás espectaculares del cobordismo se encuentran dos resultados quellevaron a la asignación de las medallas Fields en 1962 y 1966: el teo-rema de Milnor sobre las esferas exóticas (que en este contexto sepuede reformular diciendo que en dimensión 7 existen esferas queno son el borde de una pelota) y el teorema del índice de Atiyah-Singer. La extensión, por parte de Milnor y Smale del cobordismoal h-cobordismo (h es la inicial de homotopy) permitió luego que No-vikov obtuviera la medalla Fields en 1970, por la clasificación de lasvariedades diferenciales de dimensión mayor o igual a 5.

8.4. Teoría de la Complejidad: El Problema P = NP (1972)

La definición de algoritmo de Turing divide las funciones numé-ricas en dos clases, calculables y no calculables. Pero esta subdivisiónno constituye más que una primera aproximación, porque muchas

La Matemática del siglo XX 199

funciones que son calculables en teoría no lo son en absoluto en lapráctica. Por ejemplo, un algoritmo cuya ejecución requiera un tiem-po más largo que la duración del universo, o incluso sólo de unavida humana, no puede ser considerado concretamente ejecutable,aunque pueda serlo en abstracto.

Desde un punto de vista aplicativo se necesita, por consiguiente,limitarse a algoritmos que tengan tiempos de ejecución suficiente-mente veloces. En 1965, Edmonds y Cobham propusieron, como se-gunda aproximación, la distinción entre algoritmos que se ejecutanen tiempo polinomial y los que no lo hacen. El tiempo de ejecución semide en este caso mediante el número de pasos ejecutados por el or-denador, y la variable del polinomio corresponde a la dimensión delos datos sobre los que el algoritmo opera, por ejemplo, a su largo;de este modo, un algoritmo cuadrático requiere más que 100 pasossobre números de 10 cifras, más de 10.000 pasos sobre números de100 cifras, y así sucesivamente.

Naturalmente, el tiempo de ejecución de un algoritmo dependefuertemente del tipo y de la potencia del ordenador que se usa paraejecutarlo. Pero sorprendentemente, si un algoritmo opera en tiem-po polinomial sobre un ordenador particular, éste sigue operandoen tiempo polinomial sobre cualquier otro; dicho de otra manera, ladiferencia entre los varios modelos de ordenadores y sus variadasimplementaciones siempre se puede contener en un factor polino-mial, que puede combinarse con un tiempo de ejecución polinomialsin mutar su naturaleza. Por lo tanto, ser ejecutable en tiempo po-linomial constituye una característica intrínseca, y no accidental, deun algoritmo.

Entre los algoritmos de los que hemos hablado anteriormente elmétodo del simplex es, por ejemplo, no polinomial, pues para unainfinidad de datos el algoritmo requiere un tiempo exponencial pa-

200 8. Problemas irresueltos

ra dar la respuesta. Esto no significa en absoluto que el problemamismo de la programación lineal no se pueda resolver en tiempo po-linomial, sino sólo que la particular solución ofrecida por el métododel simplex no lo es. Y, en efecto, en 1979 Khachian encontró un al-goritmo alternativo, llamado método de los elipsoides, que resuelve elproblema de la programación lineal en tiempo polinomial.

La clase de problemas para los que existe una solución polinomialse indica con el símbolo P. En 1972, Stephen Cook, Richard Karp yLeonid Levin descubrieron una clase potencialmentemás amplia queP indicada con el símbolo NP cuyos problemas, aunque no necesa-riamente resolubles en tiempo polinomial, “casi” lo son en el sentidode que, de cada propuesta de solución, se puede verificar en tiem-po polinomial si funciona o no. Por lo tanto, la diferencia entre P yNP es la siguiente: para estar en la primera clase es necesario queun problema admita un método para encontrar la solución en tiempopolinomial, mientras para estar en la segunda clase es suficiente queun problema admita un método para verificar la solución en tiempopolinomial.

Es fácil convencerse de que es más difícil encontrar una soluciónque verificarla. Por ejemplo, verificar que cierto número de teléfonocorresponde a cierta persona es fácil, porque basta consultar la guíatelefónica en orden alfabético; pero encontrar a la persona que tienecierto número de teléfono es difícil, porque requiere una búsquedaexhaustiva en toda la guía telefónica. Más matemáticamente, verifi-car que

4.294.967.297 = 641× 6.700.417

es un juego de niños, pero encontrar la descomposición requiere elingenio de Euler o la potencia del ordenador. Y el problema de ladescomposición en factores es precisamente uno de los que están enNP, precisamente porque es fácil verificar si dos números son o no la

La Matemática del siglo XX 201

descomposición de un tercer número. Pero no se sabe si el problematambién está en P, es decir, si existe un método veloz para verificarsi un número se puede descomponer, o si en cambio, es primo (larespuesta es positiva si la hipótesis de Riemann es verdadera).

Justamente sobre este último hecho se basa la criptografía de claveprivada, que se sustenta en la siguiente idea: el emisor y el destina-tario poseen un número entero muy grande, que cumple la funciónde clave personal de codificación y decodificación y se mantiene ensecreto. E1 emisor que manda un mensaje m al destinatario lo codifi-ca mediante la propia clave c, transformándolo enmc. El destinatarioque recibe el mensajemc lo codifica a su vez mediante la propia claved, transformándolo en mcd, y lo reenvía al emisor. Éste decodifica elmensaje mediante la propia clave C transformándolo en md, y lo re-envía al destinatario, que finalmente decodifica el mensaje mediantela propia clave d, recuperando m. La eficiencia del método se basaen el hecho de que la doble decodificación del mensaje requiere des-composiciones en factores de números muy grandes, que se puedenhacer velozmente sólo conociendo las claves. La desventaja es, encambio, que el método requiere una doble codificación y decodifica-ción, tanto por parte del emisor como del destinatario.

Para evitar el obstáculo se usa la criptografía de clave pública, quese basa en una idea similar pero más complicada. Cada destinatarioposee dos números enterosmuy grandes que funcionan como claves,una c de codificación, que se hace pública, y una d de decodificación,que se mantiene en secreto. El emisor que manda un mensaje m aldestinatario lo codifica mediante la clave pública c, transformándoloen mc, y el destinatario decodifica este mensaje mediante la clave se-creta d, transformándolo en(mc)d = mcd. Para que la decodificacióntenga éxito el mensaje decodificado deberá ser igual al original, es de-cir cd deberá ser igual a 1; aunque esto resulte imposible literalmente,

202 8. Problemas irresueltos

el pequeño teorema de Fermat asegura que, dados dos números p yq si cd es igual a 1 módulo (p− 1)(q− 1) entonces mcd es igual a mmódulo pq. La eficiencia del método se basa en el hecho de que parala codificación y la decodificación del mensaje basta conocer el pro-ducto pq, que también se hace público, pero el hallazgo de la clave dedecodificación d a partir de la clave de codificación c requiere que seconozca (p − 1)(q − 1), que se obtiene de la descomposición de pq,que no se puede hacer velozmente.

En general, actualmente se sabe de miles de problemas de interésteórico o de utilidad aplicativa que están en NP, sin saber si tam-bién están en P. Ejemplos relacionados con cuestiones que ya hemosconsiderado anteriormente son la posibilidad de satisfacer fórmu-las preposicionales, la existencia de soluciones enteras de ecuacionesdiofánticas cuadráticas y la posibilidad de colorear un papel con trescolores. Un ejemplo de problema variacional para algunos casos, delque se puede obtener una solución empírica con pompas de jabón, esel problema de Steiner: dado un mapa, conectar las ciudades con callesde manera que el largo total del retículo vial sea mínimo (la soluciónque se obtiene con pompas de jabón es óptima localmente, pero nosiempre globalmente). Un ejemplo parecido muy conocido, por suinterés aplicativo, es el problema del vendedor viajante: dado un mapacon ciudades conectadas por calles, encontrar el recorrido de largomínimo que pase por cada ciudad exactamente una vez.

Uno de los descubrimientos sorprendentes de Cook, Karp y Le-vin fue que todos estos problemas (con la única posible excepciónde la descomponibilidad), así como otros miles en las áreas más va-riadas de la matemática pura y aplicada, son sustancialmente equi-valentes; encontrar una solución polinomial para cualquiera de ellossignificaría encontrar una para todos, porque existen traduccionespolinomiales de cada uno de ellos a los otros. Por estos resultados

La Matemática del siglo XX 203

Cook y Karp recibieron el Turing Award, respectivamente en 1982 y1985. Levin, en cambio, terminó en prisión como disidente, y des-pués de ser liberado por intervención de Kolmogorov emigró de laUnión Soviética.

Encontrar una solución polinomial, o bien demostrar que no exis-te, para cualquiera de los problemas equivalentes aislados por Cook,Karp y Levin hasta ahora ha resultado imposible; el problema de de-finir si P y NP son o no la misma clase se ha tornado un desafío, y seha convertido en el problema abierto más conocido de la informáticateórica.

Para enunciar una reformulación puramente matemática del pro-blema, recordemos que el famoso Nullstellensatz de Hilbert de 1890daba una condición necesaria y suficiente para que un sistema fini-to de ecuaciones polinomiales de coeficientes complejos tenga unasolución. Brownawell demostró en 1987 que el problema se puederesolver en tiempo exponencial, pero no se sabe si también se pue-de resolver en tiempo polinomial. Reduciendo los coeficientes de lospolinomios y las soluciones del sistema sólo a números raciónales (otambién sólo a números 0 y 1), una solución polinomial del problemaexiste si, y sólo si, P es igual a NP. Nuestra disertación concluye en-tonces, de manera apropiada, con la misma insignia del vital espíritude Hilbert que la ha invadido.

204 8. Problemas irresueltos

9

Conclusión

En el final de nuestro recorrido a través de la matemática del sigloXX, no nos queda más que recapitular sus etapas. La naturaleza dia-crónica y de collage de la exposición, por otra parte anunciada, quizásrequiere un enfoque complementario, que aisle de la trama del tejidolos principales hilos. Los proponemos enseguida en forma de tablasde recapitulación.

PROBLEMAS Y CONJETURAS

Ante todo, fueron los problemas y las conjeturas los que nos guia-ron en la historia de la búsqueda de sus soluciones, y recordamosaquí los más importantes:

300 a.C. Euclides números perfectos

1611 Kepler configuraciones de esferas de máxima densidad

1637 Fermat soluciones enteras de xn + yn = zn

205

206 9. Conclusión

1640 Fermat primos de tipo 22n+ 1

1742 Goldbach enteros pares como suma de dos primos

1847 Plateau superficies minimales

1852 Guthrie coloración de mapas con cuatro colores

1859 Riemann ceros de la función ζ

1883 Cantor hipótesis del continuo

1897 Mertens límite de la función M de Moebius

1902 Burnside (I) grupos periódicos finitamente generados

1904 Poincaré caracterización de la hiperesfera

1906 Burnside (II) grupos simples impares de orden

1922 Mordell soluciones infinitas de las ecuaciones diofánticas

1928 Hilbert decisión de la lógica de primer orden

1933 Robbins axiomatización de las álgebras booleanas

1949 Weil hipótesis de Riemann sobre los campos finitos

1955 Taniyama parametrización de las curvas elípticas

1962 Shafarevich, reducciones de ecuacones del módulo de losnúmeros primos

1972 Cook, Karp yLevin

P = NP

1979 Conway yNorton

Claro de luna

Una mención especial merecen los problemas de Hilbert de 1900,que fueron uno de los motivos conductores de nuestra exposición, yentre los cuales hemos citado los siguientes:

primero hipótesis del continuo

segundo consistencia del análisis

La Matemática del siglo XX 207

tercero descomposición del tetraedro

cuarto geodésicas en varias geometrías

quinto grupos localmente euclídeos y de Lie

sexto axiomatización de la probabilidad y de la física

séptimo trascendencia de eπ y 2√2

octavo hipótesis de Riemann, conjetura de Goldbach

décimo soluciones de las ecuaciones diofánticas

decimotavo grupos cristalográficos, problema de Kepler

decimonoveno analiticidad de las soluciones de problemas variacionales

vigésimo existencia de las soluciones de problemas variacionales

vigésimo tercero cálculo variacional

RESULTADOS

El otro hilo conductor de nuestra exposición han sido los trabajosde los ganadores de las medallas Fields y de los premios Wolf, entrelos cuales hemos intentado citar los resultados más significativos dela mayoría. De las medallas Fields hemos recordado:

1936 Douglas problema de Plateau

1950 Schwartz teoría de las distribuciones

1950 Selberg teorema de los números primos

1954 Kodaira clasificación de las variedades algebraicas en 2dimensiones

1954 Serre grupos de homotopía de las esferas en ndimensiones

1958 Roth aproximaciones racionales de irracionalesalgebraicos

1958 Thom teoría del cobordismo

1962 Hörmander operadores hipoelípticos

1962 Milnor estructura exótica de la esfera de 7 dimensiones

208 9. Conclusión

1966 Atiyah K-teoría, teorema del índice

1966 Cohen independencia de la hipótesis del continuo

1966 Grothendieck esquemas, cohomología l-ádica

1966 Smale conjetura de Poincaré en dimensiones ≥ 5

1970 Baker extensión de los teoremas de Lindemann y Gelfond

1970 Hironaka resolución de singularidades en variedadesalgebraicas

1970 Novikov clasificación de las variedades diferenciables endimensiones ≥ 5

1970 Thompson segunda conjetura de Burnside

1974 Bombieri teoría de números, superficies minimales

1978 Deligne conjetura de Weil

1983 Connes álgebras de operadores de Von Neumann

1983 Thurston clasificiación de superficies en 3 dimensiones

1983 Yau varidades de Calabi-Yau

1986 Donaldson estructura exótica del espacio en 4 dimensiones

1986 Faltings conjeturas de Shafarevich, y Mordell

1986 Freedman clasificación de las variedades en 4 dimensiones

1990 Jones invariantes de nudos

1990 Witten teoría de supercuerdas

1994 Bourgain subespacios de Hilbert de espacios de Banach

1994 Yoccoz teorema KAM, conjunto de Mandelbrot

1994 Zelmanov primera conjetura de Burnside condensada

1998 Borcherds conjetura Claro de luna

1998 Gowers espacios de Banach (no) simétricos

1998 Kontsevich invariantes de nudos

1998 McCullen conjunto de Mandelbrot

La Matemática del siglo XX 209

De los premios Wolf hemos recordado:

1978 Siegel

1979 Weil

1980 Kolmogorov

1982 Whitney

1983-84 Erdös

1984-85 Kodaira

1986 Eilenberg, Selberg

1988 Hörmander

1989 Milnor

1990 De Giorgi

1992 Thompson

1993 Mandelbrot (física)

1994-95 Moser

1995-96 Langlands, Wiles

2000 Serre

Además de los matemáticos, también hemos citado, aunque ve-lozmente, los resultados de algunos informáticos que recibieron elmás alto reconocimiento en su campo, es decir, el Turing Award:

1969 Minsky Inteligencia Artificial

1971 McCarthy Inteligencia Artificial

1975 Newell ySimon

Inteligencia Artificial

1976 Scott semántica del Lambda Cálculo

1982 Cook teoría de la complejidad

1985 Karp teoría de la complejidad

210 9. Conclusión

Algunos trabajos de matemática aplicada están directamente vin-culados a resultados que han llevado a sus autores o a otros al premioNobel, en varias disciplinas:

1932 Heisenberg física mecánica cuántica

1933 Schrödinger física mecánica cuántica

1962 Crick yWatson

medicina estructura del ADN

1969 Gell-Mann física simetría de los quark

1972 Arrow economía selección social, equilibrio general

1975 Kantorovichy Koopman

economía programación lineal

1976 Prigogine química dinámica de los sistemas disipativos

1979 Glashow,Weinberg ySalam

física simetría de la fuerza electrodébil

1983 Debreu economía equilibrio general

1994 Nash economía teoría de los juegos

10

Bibliografía

Ante todo citamos una serie de textos de divulgación que puedenser útiles para complementar la lectura de nuestro trabajo:

Casti, John, Five golden rules: great theories of 20th century mathematics, and whythey matter, Wiley, 1996.

Cuadernos “Le Scienze”:Matematica e calcolatore (No14, marzo de 1984)Numeri, caso e sequenze (No45, diciembre de 1988)Logica (No60, junio de 1991)La matematica della complessità (No67, septiembre de 1992)Modelli matematici (No81, diciembre de 1994)Matematica computazionale (No84, junio de 1995)Insiemi, gruppi, strutture (No92, octubre de 1996)Caos, complessità e probabilità (No98, octubre de 1997).

Devlin, Keith, Mathematics: the new golden age, Londres, Penguin Books, 1988.

Dieudonné, Jean, Pour l’honneur de l’esprit humain, París, Hachette, 1987.

Lang, Serge, Beauty of doing mathematics, Nueva York, Springer Verlag, 1997[trad. esp.:El placer estético de las matemáticas, Madrid,Alianza Editorial, 1994].

211

212 10. Bibliografía

Lettera matematica pritem, publicación trimestral de divulgación matemática deSpringer Verlag Italia (Via Podgora 4, 20122, Milán).

Stewart, Ian, From here to infinity: a guide to today’s mathematics, Oxford Univer-sity Press, 1996.

Tannenbaum, Peter y Arnold, Robert, Excursions in Modern Mathematics (2aed.),Prentice Hall, 1995.

The mathematical intelligencer, publicación trimestral de divulgaciónmatemáticade Springer Verlag Nueva York (175 Fifth Avenue, Nueva York, NY 10010,USA).

Quienes posean conocimientosmás profundos dematemática po-drán consultar:

Arnold, Vladimir, Atiyah, Michael, Lax, Peter y Mazur, Barry (dirs.), Mathe-matics Tomorrow, International Mathematical Union, 2000. Atiyah, Michael yIagolnitzer, Daniel (dirs.), Fields medallists’ lectures, World Scientific, 1997.

Bottazzini, Umberto, Teoremi e congetture, vol. 8 de Storia del pensiero filosófico escientific, Garzanti, 1996, pp. 115-44.

Browder, Felix (dir.),Mathematical development arising fromHilbert problems, Ame-rican Mathematical Society, 1976.

Casacuberta, Carles y Castellet, Manuel (dir.), Mathematical research today andtomorrow: viewpoints of seven Fields medalists, Springer Verlag, 1992.

Halmos, Paul, “Has progress in mathematics slowed down?” en MathematicalAmerican Association Monthly, 1990,561-588.

Kantor, Jean-Michel, “Hilbert’s problems and their sequel”, enMathematical in-telligencer, 18 (1996), pp. 21-30.

Kline, Morris,Mathematical Thought from Ancient to Modern Times, Nueva York,Oxford University Press, 1990, caps, XLIII-LI [trad, esp.: El pensamiento mate-mático de la Antigüedad a nuestros días, Madrid, Alianza Editorial, 1992].

Monastyrsky, Michael, Modern mathematics in the light of the Fields medals, AKPeters, 1997.

La Matemática del siglo XX 213

Pier, Jean-Paul (dir.), The development of mathematics, 1900-1950, Birkauser, 1994.

——–, The development of mathematics, 1950-2000, Birkauser, 2000.

Smale, Stephen, "Mathematical problems for the next century" enMathematicalIntelligencer, 20, 1998, pp. 7-15.

214 10. Bibliografía

11

Índice de nombresA Bayes, Thomas, 136

Abel, Niels, 86, 157 Bell, John, 111-112

Adian, S.I., 92 Beltrami, Eugenio, 57, 123

Agustín, Aurelio, san, 189 Berger, Robert, 119

Alejandro Magno, 152 Berkeley, George, 74

Alexander, James, 154, 158 Bernoulli, Daniel, 135-136

Apolonio de Perge, 59 Bernoulli, Jacques, 136

Appel, Kenneth, 163, 175, 179 Bernoulli, Jean, 61

Arquímedes, 13, 39, 43, 73 Bernstein, Serge, 68

Arnol’d, Vladimir, 151 Bieberbach, Ludwig, 117

Arrow, Kenneth, 113-114, 143, 210 Bohr, Niels, 111, 156

Artin, Emil, 193 Bolyai, Jànos, 42-43, 57

Aspect, Alain, 112 Bolzano, Bernhard, 77

Atiyah, Michael, 69, 198, 208 Bombelli, Raffaele, 47

Bombieri, Enrico, 63, 121, 208

B Boole, George, 161

Babbage, Charles, 170 Boone, William, 147

Baire, René, 66 Borcherds, Richard, 157, 208

Baker, Alan, 56, 168-169, 208 Borel, Emile, 127

Banach, Stefan, 45, 52, 132, 133, 208 Botvinnik, Mijail, 171

215

216 11. Índice de nombres

Bourbaki, Nicolas, 24-25, 26, 27, 28, Connes, Alain, 133, 208

31 Conrad, Brian, 103

Bourgain, Jean, 134, 208 Conway, John, 76, 106, 120, 157, 206

Bravais, Auguste, 86, 116 Cook, Stephen, 200, 202, 203, 206, 209

Breuil, Christophe, 103 Cournot, Antoine-Augustine, 141

Brouwer, Luitzen, 31, 49-50-51, 127, Cox, Donna, 164

142, 143 Crick, Francis, 115, 210

Buffon, Georges-Louis Leclere, Cusano, Nicola, 73, 74

conde de, 136

Burnside, Williams, 92, 206 DDantzig, George, 139, 142

C Davis, Martin, 168

Calabi, Eugenio, 97, 157, 208 De Giorgi, Ennio, 63, 209

Cantor, Georg, 19, 20, 24, 32, 47, 49, De Morgan, Augustus, 46, 176

50, 54, 59, 76-79, 167, 206 De Riele, Hermann, 181

Cardano, Gerolamo, 47, 86, 134 Debreu, Gerard, 143, 210

Cartan, Elie, 88 Dedekind, Richard, 47, 59

Carter, Jimmy, 113 Dehn, Max, 43, 154, 187

Cartesio, 19, 47, 58, 65, 80, 195 Deligne, Pierre, 100, 193, 208

Castelnuovo, Guido, 96 Descartes, René, véase Cartesio

Cauchy, Augustin, 44, 75 Diamond, Fred, 103

Cavalieri, Bonaventura, 74 Diofanto de Alejandría, 38, 97, 99

Cayley, Arthur, 87 Dirac, Paul, 67

Chevalley, Claude, 91 Dirichelet, Peter G. Lejeune, 66, 98

Chomsky, Noam, 144-146 Donaldson, Simon, 71-72, 157, 208

Church, Alonzo, 32, 33-34, 147, 166, Douady, Adrien, 185

167 Douglas, Jessie, 60, 63, 207

Cobham, 199 Duns Scoto, 77

Cohen, Paul, 77, 79, 208

Condorcet (Marie-Jean-Antoine- E

Nicolas de Claritat, marqués de, Edmonds, Jack, 199

113-114 Eilenberg, Samuel, 28, 209

La Matemática del siglo XX 217

Einstein, Albert, 111, 122, 124 Frege, Gottlob, 20, 32, 161

Emmer, Michele, 64 Frey, Gerhard, 102

Enriques, Federigo, 96

Erdös, Paul, 194, 209 GEscher, Maurits, 117, 120 Galileo, Galilei, 61, 77

Euclides, 18, 25, 38, 41, 42, 43, 44, 58, Galois, Evariste, 47, 49, 86, 87, 90, 91

59, 168, 189, 190, 191 Gauss, Carl Friedich, 47, 57, 104,

Eudoxio de Cnido, 43 122-124, 137, 152, 168, 192

Euler, Leonhard, 55, 56, 62-65, 98,100,

Gelfond, Alexandre, 56, 208

149, 160, 189, 190, 191, 192, 194, 195, Gell-Mann, Murray, 89, 210

200 Gentzen, Gerhard, 60

Glashow, Seldon, 89, 210

F Gleason, Andrew, 88

Faltings, Gerd, 100, 101, 194, 208 Glennie, Alick, 171

Farey, John, 78 Gödel, Kurt, 23, 60, 79, 147, 167, 180, 188

Fatou, Pierre, 184 Goldbach, Christian, 193, 206

Fermat, Pierre de, 38, 39, 56, 58, Gompf, Robert, 72

73-76, 83, 97-102, 134, 159, 160, 168, Gorenstein, Daniel, 86, 91-92

189, 190, 194, 202, 205 Gowers, William, 134, 208

Ferrari, Ludovico, 86 Granville, Andrew, 101

Feynman, Richard, 157 Griess, Robert, 91, 156

Fields, John Charles, 13 Gross, David, 90

Fischer, Bernd, 91, 156 Grothendieck, Alexandre, 27, 30, 31,

Fischer, Ernst, 132 134, 194, 208

Fontana, Niccolò, 86 Gua de Malves, Jean Paul de, 81

Ford, Gerald, 113 Guthrie, Francis, 175, 206

Fourier, Joseph, 66, 131, 151

Fraenkel, Abraham, 22-23, 24, 27, H

29-30, 79 Hadamard, Jacques, 193

Francis, George, 164 Haken, Wolfgang, 163, 179

Fréchet, Maurice, 131 Hales, Thomas, 103, 104

Freedman, Michael, 71, 96, 197, 208 Hamilton, William, 47, 63

218 11. Índice de nombres

Hardy, Godfrey, 13, 193 KHarriot, Thomas, 103 Kakutani, Shizuo, 52, 143

Hausdorff, Félix, 45, 182 Kantorovich, Leonid, 140, 210

Heath-Brown, Roger, 101 Karp, Richard, 200, 202, 203, 206, 209

Heaviside, Oliver, 66-67 Kasparov, Gary, 172

Heawood, Percy, 176 Kelvin, William Thomson (lord

Heesch, Heinrich, 117 Kelvin), 155

Heisenberg, Werner, 132, 133, 210 Kempe, Alfred, 176, 179

Helmholtz, Hermann, 156 Kepler, Johannes, 103, 104, 148, 180,

Hermite, Charles, 55 205, 207

Herón de Alejandría, 62 Kerékjártó, Béla, 70

Hilbert, David, 12, 14, 24, 42, 43, 56,59,

Kervaire, Michel, 70

60, 63, 68, 77, 80, 88, 104, 117, 125, Khachian, L.G., 200

130-134, 138, 165-168, 187, 188, 193, Khayyâm, Omar, 97

203-208 Killing, Wilhelm, 88

Hiparco de Nicea, 58 Kleene, Stephen, 34

Hironaka, Heisuki, 97, 208 Klein, Félix, 57, 58, 93, 94, 95, 152, 195

Hobbes, Thomas, 126 Knaster, B., 52

Hoffman, David, 64, 164 Koch, ver Von Koch, Niels Fabien

Hörmander, Lars, 68, 207, 209 Helge

Hubbard, John, 185 Kodaira, Kunihiko, 96, 207, 209

Hurewicz, Witol, 197 Kolmogorov, Andrej, 138, 151, 203,

Huygens, Christian, 135 209

Kontsevich, Maxim, 155, 157, 208

J Koopmans, Tjalling, 140, 210

Jacobi, Carl, 157 Korchnoi, Victor, 172

Janko, Zvonimir, 91 Kronecker, Leopold, 59

Jones, Vaugham, 133, 155, 156-158, Kummer, Enrst Eduard, 98

208

Jordan, Camille, 43, 44, 45, 63 LJudaeus, Philo, 189 Lacan, Jacques, 145

Julia, Gastón, 184 Laczkovich, Miklos, 45

La Matemática del siglo XX 219

Lagrange, Joseph Louis, 62, 149 Maxwell, James Clerk, 72, 125

Lamé Gabriel, 98 McCarthy, John, 170, 209

Langlands, Robert, 39, 209 McCulloch, Warren, 161

Laplace, Pierre Simon de, 137, 149 McCullen, Curtis, 185, 208

Larsen, Bent, 172 McCune, William, 163

Lawvere, William, 29, 30, 31 Meeks, William, 64, 164

Lebesgue, Henri, 44, 45, 54, 131, 138 Menger, Karl, 183

Leech, John, 106 Mersenne, Marin, 190, 191

Lefschetz, Solomon, 52 Mertens, Franz, 181, 206

Legendre, Adrien-Marie, 98 Mills, Robert, 72, 89

Leibniz, Gottfried Wilhelm, 20, 61, Milnor, John, 70, 71, 72, 94, 198, 207,

74-75, 195 209

Leonardo da Vinci, 62 Minsky, Marvin, 170, 209

Levi Civita, Tullio, 124, 125 Mischaikov, Konstantin, 174

Lévi-Strauss, Claude, 145 Mittag-Leffler, Gösta, 14

Levy, David, 172 Moebius, Augustus, 93, 95, 152, 180,

Lie, Sophus, 88-91, 207 195, 206

Lindemann, Ferdinand, 55, 56, 208 Moise, 70

Liouville, Joseph, 54, 132 Montgomery, Deane, 88

Listing, Johann, 93, 152 Mordell, Leo, 100, 168, 194, 206, 208

Lobachevsky, Nikolai, 57 Morgan, Augustus de, 46, 176

Lorenz, Edward, 164, 174-175 Morgenstern, Oscar, 128

Mori, Shigefume, 97

M Morse, Marston, 83, 84

MacLane, Saunders, 28, 30 Moser, Jürgen, 151, 209

Mandelbrot, Benoît, 165, 184, Mrozek, Marian, 174

185-186, 208, 209

Markov, Anatoly, 147 NMather, John, 85 Nash, John Forbes, 128, 129, 210

Mathieu, Émile, 90 Newell, Allen, 170, 209

Matiyasevich, Yuri, 168-169 Newton, Isaac, 59, 61, 62, 74, 75, 80,

Maupertuis, Pierre Louis de, 62 83, 122, 148, 149, 149

220 11. Índice de nombres

Nicolás de Oresme, 58 RNobel, Alfred, 14 Rado, Tibor, 70

Norton, Simon, 157, 206 Raleigh, Walter, 103

Novikov, Pavel, 147 Ramanujan, Srinivasa, 194

Novikov, Petr, 92 Reagan, Ronald, 113, 144

Novikov, Sergei, 71, 92, 121, 198, 208 Ribet, Ken, 102

Ricci Curbastro, Gregorio, 124

O Riemann, Bernhard, 44-45, 56, 70, 93,

Odifreddi, Piergiorgio, 2, 5, 6 123-125, 152, 181, 189, 191-201, 206,

Odlyzko, Andrew, 181 207

Óscar II, rey, 150 Riesz, Friedich, 132

Robbins, Herbert, 163, 206

P Robinson, Abraham, 73, 76

Pacioli, Luca, 134 Robinson, Julia, 168

Pareto, Vilfredo, 141 Rokhlim, Vladimir, 71, 198

Parshin, A. N., 100 Rosen, Nathan, 111

Pascal, Blas, 134 Rosser, John Barkley, 33

Peano, Giuseppe, 43, 44, 66 Roth, Klaus, 54, 207

Penrose, Roger, 120, 121 Rousseau, Jean Jacques, 126

Pfleger, Helmut, 172 Ruffini, Paolo, 86

Piaget, Jean, 145 Russell, Bertrand, 20-21, 30-33, 161,

Píndaro, 4 167

Pitágoras, 52, 57, 59, 131

Pitts, Walter, 161 SPlateau, Joseph, 63-64, 206-207 Salam, Abdus, 89, 210

Podolsky, Boris, 111 Saussure, Ferdinand de, 144-145

Poincaré, Henri, 12, 40, 57, 58, 150, Scarf, Herbert, 144

151, 189, 195, 196, 197, 206, 208 Schechtman, Daniel, 120

Pontryagin, Lev, 198 Schlesinger, Karl, 142

Post, Emil, 145, 147, 166 Schmidt, Erhard, 131

Prigogine, Ilya, 85, 210 Schneider, Thorald, 56

Putnam, Hilary, 168 Schrödinger, Erwin, 132, 210

La Matemática del siglo XX 221

Schwartz, Laurent, 65, 68, 134, 207 Tucker, Albert, 129

Scott, Dana, 34, 209 Turing, Alan, 147, 161-162, 166-167,

Segre, Corrado, 96 169-171, 198

Selberg, Atle, 194, 207, 209

Serre, Jean-Pierre, 198, 207, 209 VSeveri, Francesco, 96 Vallée Poussin, Charles-Jean de la,

Shaferevich, Igor, 100, 206, 208, 193

Shannon, Claude, 171 Virgilio Marón, Publio, 4

Siegel, Carl, 56, 209 Vitali, Giuseppe, 45

Simon, Herbert, 170, 171, 209 Volterra, Vito, 130

Singer, Isadore, 69, 198 Von Koch, Niels Fabien Helge, 68,

Sloane, N. J. A., 106 181-182

Smale, Stephen, 41, 143, 197, 198, 208 Von Neumann, John, 11, 67, 114, 127,

Smith, Adam, 141, 143, 144 129, 132, 133, 142-164, 208

Sonnenschein, Hugo, 144

Sperner, Emmanuel, 51 WSteiner, Jacob, 61 Wada, 175, 177

Steinitz, Ernst, 48 Wald, Abraham, 142

Wallis, John, 47, 59

T Walras, Léon, 141-143

Tait, Peter, 156 Wang, Hao, 118

Taniyama, Jutaka, 101, 102, 103, 206 Wantzel, Pierre, 53

Tarski, Alfred, 45, 52 Watson, James, 115, 210

Taubes, Clifford, 72 Weber, Heinrich, 46

Taylor, Richard, 103 Weierstrass, Karl, 59, 61, 75

Thatcher, Margaret, 144 Weil, André, 100, 193, 206, 208, 209

Thom, René, 69, 84, 85, 198, 207 Weinberg, Steven, 89, 210

Thompson, John, 92, 208, 209 Weyl, Hermann, 125

Thue, Axel, 104, 145-147 Whitney, Hassler, 84, 209

Thurston, William, 94, 152, 196, 197, Wilczek, Frank, 90

208 Wiles, Andrew, 38, 97, 102, 194, 209

Torres y Quevedo, Leonardo, 171 Witten, Edward, 69, 72, 156, 208

222 11. Índice de nombres

Wittgenstein, Ludwig, 79, 160

Wolf, Ricardo, 14

Wos, Larry, 163

YYang, Chen Ning, 72, 89

Yau, Shing Tung, 97, 157, 208

Yoccoz, Jean Christophe, 152, 185,

208

ZZeeman, Christopher, 85

Zelmanov, Efim, 92, 208

Zermelo, Ernst, 22-23, 24, 27, 29, 30,

79, 127

Zippin, 88

El siglo XX fue el siglo de la matemática: sólo en cien años sedemostraron más teoremas que en todo el curso de la historia, ymuchos de ellos han encontrado aplicaciones en los campos másvariados de la ciencia e incluso de las humanidades. Describiendolas ideas, los resultados, a los protagonistas principales y los pro-blemas irresueltos, La matemática del siglo XX reconstruye del modomás sencillo posible los extraordinarios logros de una disciplina to-davía percibida como abstrusa y distante de la vida cotidiana.

Aparece así ante el lector la empresa de algunos gigantes delsiglo, desde Einstein a Gödel. Se narran las soluciones de algunosdilemas, del teorema de Fermat a la hipótesis del continuo. Se ilu-minan, desde una perspectiva actual, algunas teorías clásicas, de laaritmética a la geometría. Se asiste al nacimiento de nuevos instru-mentos, del cálculo tensorial a la teoría de juegos. Se encuentranobjetos insólitos, de los nudos a los atractores extraños. En suma, ellector se familiariza con el lenguaje del tercer milenio, sin el cual nole será posible comprender ni la ciencia ni la tecnología del mundoactual.