English French German Spain Italian Dutch Russian Portuguese Japanese Korean Arabic Chinese Simplified
  • Sidamat

    Software interactivo para el aprendizaje de las matemáticas

  • Edublog

    Acá encontrarás noticias e información relacionada con las matemáticas y el mundo real.

  • MathClubVirtual

    Red de docentes y estudiantes apasionados por las matemáticas

  • Docente de secundaria

    En Institución Educativa Exalumnas de la Presentación Ibagué Col

  • Matemàticas y Tic

    Uso de Excel para el aprendizaje de la estadística

Alan Turing: las ideas claras

Autor: Pablo Jacovkis



El 23 de junio de 2012 se conmemoró el centésimo aniversario del nacimiento de Alan Turing. Este deslumbrante matemático es considerado uno de los padres de la ciencia de la computación y –de una manera más secreta- un héroe de la Segunda Guerra Mundial. Contribuyó como pocos a la defensa de su patria, Gran Bretaña, aunque su esfuerzo y dedicación no fueron debidamente correspondidos, e incluso debió sufrir la persecución y el escarnio. 

Turing murió joven: se quitó la vida el 7 de junio de 1954. Sin embargo sus logros, durante sus casi 42 años de vida, le dieron un lugar prominente en el panteón de la ciencia del siglo XX. Y también en el de aquéllos cuya contribución personal a la derrota del nazismo puede ser particularmente individualizada.

en 1936 –a los 24 años, sin haberse aún doctorado, y a la sazón miembro del King's College de la Universidad de Cambridge, donde se había graduado con honores– escribió un artículo cuyo título en castellano sería “Sobre números computables, con una aplicación al problema de la decisión”. El texto fue publicado a comienzos de 1937 en la prestigiosa revista científica Proceedings of the London Mathematical Society, y para su elaboración utilizó una “máquina” teórica que hacía las veces de una computadora con reglas muy simples y formales (recordemos que las computadoras no existían en ese momento). En dicho artículo demostró que esa máquina podía lleva a cabo cualquier cálculo matemático que pueda ser representado por un algoritmo, y que no era posible encontrar un algoritmo que decidiera si una aseveración (dentro de determinado tipo de aseveraciones lógicas y matemáticas esenciales en computación) es demostrable o no.

Esa máquina se llamó después “máquina de Turing”, y jugó un papel fundacional en la teoría de la computación. Sobre todo porque en el mismo artículo, Turing ideó teóricamente lo que después se llamó “máquina de Turing universal”: o sea, una máquina de Turing que puede “simular” cualquier otra máquina de Turing. Toda la teoría de la computación “concreta”, desarrollada alrededor de computadoras reales (que empezaron a construirse unos años después), está profundamente influida por su trabajo.




En 1939, al comenzar la Segunda Guerra Mundial, Turing pasó a trabajar en la Escuela Gubernamental de Código y Cifrado, que funcionaba en Bletchley Park, una mansión victoriana a 67 kilómetros de Londres. Allí tuvo una participación crucial en importantes avances en criptografía, entre los cuales podemos citar el desciframiento del código Enigmausado por los alemanes es sus comunicaciones militares secretas. Esto fue extraordinariamente útil al esfuerzo británico y aliado. Demás está decir que su impresionante solidez matemática y su talento creativo fueron fundamentales en su éxito. Pero pocos se enteraron de ello en esa época, porque su trabajo era absolutamente secreto (aunque recibió la Orden del Imperio Británico).

Siempre afincado en Manchester, Turing se dedicó luego a biología matemática, y a lo que más tarde se llamó “inteligencia artificial”, disciplina en cierto sentido creada por él. 

Actualmente el premio más importante de la computación mundial lleva su nombre. Se le consagraron biografías, obras de teatro y películas. Se lo ha catalogado como una de las 100 personalidades más importantes del siglo XX.

Pablo Jacovkis es secretario de Investigación y Desarrollo de la Universidad Nacional de Tres de Febrero (UNTreF). Fue decano de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires (UBA) y presidente del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet).
Tomado de http://www.educ.ar/sitios/educar/docentes/ActualidadeInformacion/ver?rec_id=106634


Comparte este artículo en tus redes sociales:

Números Primos

Un número primo es un número natural mayor que 1 que tiene únicamente dos divisores distintos: él mismo y el 1.
Los números primos se contraponen así a los compuestos, que son aquellos que tienen algún divisor natural aparte de sí mismos y del 1.


Los números primos menores que cien son los siguientes: 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89 y 97


Importancia de los Números Primos
Los teóricos de los números consideran a los números primos los números más importantes de todos, porque son los átomos de la matemática. Los números primos son los bloques de la construcción numérica, porque todos los otros números pueden ser creados multiplicando combinaciones de números primos.

A partir de esta unicidad en la factorización en factores primos se desarrollan otros conceptos muy utilizados en matemáticas, tales como el mínimo común múltiplo, el máximo común divisor y la coprimalidad de dos o más números.
Aplicaciones de los Números Primos:
Los números primos tienen aplicaciones en otros ámbitos, como en el espionaje o en el estudio de la evolución de los insectos.

Influencia de los Números Primos:


Los números primos han influido en numerosos artistas y escritores. El compositor francés Olivier Messiaen se valió de ellos para crear música no métrica. En obras tales como La Nativité du Seigneur (1935) o Quatre études de rythme (1949-50) emplea simultáneamente motivos cuya duración es un número primo para crear ritmos impredecibles. Según Messiaen, esta forma de componer fue «inspirada por los movimientos de la naturaleza, movimientos de duraciones libres y desiguales
En su novela de ciencia ficción Contact, posteriormente adaptada al cine, Carl Sagan sugiere que los números primos podrían ser empleados para comunicarse con inteligencias extraterrestres, una idea que había desarrollado de manera informal con el astrónomo estadounidense Frank Drake en 1975.
También son muchas las películas que reflejan la fascinación popular hacia los misterios de los números primos y la criptografía, por ejemplo, Cube, Sneakers, El amor tiene dos caras y Una mente maravillosa. Esta última se basa en la biografía del matemático y premio Nobel John Forbes Nash, escrita por Sylvia Nasar.

A continuación un documental excelente sobre el tema




Comparte este artículo en tus redes sociales:

Desde un puente hasta el ADN


Leonhard Euler inventó una nueva rama de las matemáticas cuando demostró en 1735 que no se podían atravesar los siete puentes de Königsberg en un solo viaje sin repetir ningún puente.


En 1847, Johann Benedict Listing acuñó el término ”topología” para describir este nuevo campo. Durante los siguientes 150 años los matemáticos trabajaron en topología porque suponía un gran desafío intelectual, sin ninguna expectativa de que fuera a ser útil. Después de todo, en la vida real, la forma es muy importante (nadie confunde una taza de café con un dónut). ¿A quién le preocupan los agujeros de 5 dimensiones en un espacio de 11 dimensiones? Incluso ramas de la topología en apariencia muy prácticas, como la teoría de nudos, que tuvo su origen en los primeros intentos para comprender la estructura de los átomos, se pensó que eran inútiles durante la mayor parte de los XIX y XX.


Pero en la década de 1990, las aplicaciones prácticas de la topología comenzaron a aparecer. Lentamente al principio, pero ganando impulso hasta que ahora parece que hay pocas áreas de la ciencia en las que la topología no se utilice. Los biólogos utilizan la teoría de nudos para comprender la estructura del ADN. Los ingenieros en robótica utilizan la teoría para planificar las trayectores de los robots móviles. Las bandas de Möbius se utilizan para obtener cintas transportadoras más eficientes.


Los médicos utilizan la teoría de la homología para hacer escaneos cerebrales y los cosmólogos las usan para comprender cómo se forman las galaxias. Las empresas de telefonía móvil utilizan la topología para identificar los lugares donde no hay cobertura de la red. E incluso en computación cuántica se están utilizando hilos trenzados para construir ordenadores cuánticos robustos. La topología permite usar los mismos teoremas para resolver problemas muy diversos, desde el ADN a los sistemas de GPS (Sistemas de Posicionamiento Global). ¿Hay alguna aplicación práctica donde no se utilice la topología?

Comparte este artículo en tus redes sociales:

Los algoritmos que controlan nuestro mundo

Si estaba esperando que alguien le avisara cuando las computadoras se volvieran más inteligentes que nosotros, ponga cuidado.

No va a existir ninguna suave voz, como la de HAL 9000 (el ordenador de la nave espacial de la película "2001: Odisea del Espacio"), que nos informe que nuestros servicios humanos ya no son necesarios.

En realidad, nuestros amos electrónicos ya están tomando el control; y lo están haciendo de un modo mucho más sutil que el que sugiere la ciencia ficción.


Su arma: el algoritmo.
Detrás de todo ingenioso servicio web hay un aun más ingenioso código web: desde mayoristas en línea (que calculan qué libros y películas podríamos estar interesados en comprar) hasta el buscador de amigos Facebook y su servicio para etiquetar imágenes, pasando por los motores de búsqueda que guían nuestros pasos en la web.
Son estos procesos computacionales invisibles los que cada vez controlan el modo en que interactuamos con nuestro mundo electrónico.

En la conferencia TEDGlobal del último mes, el experto en algoritmos Kevin Slavin dio una de las charlas más impactantes del evento, en la que advirtió que "las matemáticas que las computadoras usan para decidir cosas" se estaba infiltrando en todos los aspectos de nuestras vidas.
Entre otros ejemplos mencionó los de un robot limpiador que mapea el recorrido óptimo para asear una casa y de los algoritmos financieros utilizados en los intercambios bursátiles en línea, que cada vez más se hacen con el control de Wall Street.
"Estamos escribiendo estas cosas que ya no somos capaces de leer", dijo Slavin.
"Lo hemos vuelto ilegible. Y hemos perdido la noción de qué es exactamente lo que sucede en este mundo que hemos creado".

El libro de los millones

Los algoritmos pueden ser más ingeniosos que los humanos, pero no necesariamente comparten nuestro sentido de la perspectiva: una falla que se hizo evidente cuando el código que asigna precios en Amazon fue a la guerra consigo mismo a comienzos de este año.



"The Making of a Fly" ("La Creación de una Mosca"), un libro sobre la biología molecular de una mosca, desde que es larva hasta que se convierte en un insecto completo, puede ser una lectura interesante, pero ciertamente no merece un precio de US$23,6 millones.

Esa es la cifra que alcanzó por unos instantes, debido a que los algoritmos que Amazon utiliza para fijar y actualizar los precios comenzaron a competir entre sí.
Es una pequeña muestra del caos que puede causar el hecho de que un programa se vuelva lo suficientemente inteligente como para operar sin supervisión humana, cree Slavin.
"Son algoritmos en conflictos, sin un adulto que los supervise", dijo.
A medida que el código se vuelve más sofisticado sus tentáculos van alcanzando todos los aspectos de nuestras vidas, hasta nuestras elecciones culturales.

Los algoritmos del sitio de alquiler de películas Netflix ya son responsables del 60% de las películas que son pedidas por sus clientes, a medida que nos volvemos menos dependientes de nuestras propias capacidades críticas y del boca a boca y más de lo que Slavin llama la "física de la cultura".

¿Cuánto vale esa película?

La empresa británica Epagogoxi está llevando este concepto hacia su lógica conclusión: utiliza algoritmos para determinar si una película será exitosa.
Toma una serie de variables (el guión, la trama, las estrellas que actúan en ella, la ubicación) y las cruza con datos sobre las ventas de otras películas similares para determinar cuánto dinero generará.
El sistema, de acuerdo con el director ejecutivo de la empresa Nick Meany, ha "ayudado a los estudios a decidir si hacer o no una película". En el caso de un proyecto, al que se le había asignado un presupuesto de casi US$300 millones, el algoritmo estimó que sólo recaudaría unos US$50 millones, por lo que sencillamente no valía la pena iniciar la producción.

Para otra película, determinó que la cara estrella que el estudio había preseleccionado para el rol protagónico no redituaría más que si convocaban a una figura menos conocida.
Este enfoque más bien clínico ha fastidiado a quienes creen que se opone a su idea de que sus películas favoritas han sido hechas de una forma más creativa, orgánica.

Meaney se apura en mencionar que los algoritmos no tienen un rol tan protagónico en Hollywood.
"Las películas se hacen por muchos motivos y se nos asigna más influencia de la que en realidad tenemos cuando se dice que nosotros decidimos qué filmes se producen".

"No les decimos cómo tiene que ser la trama. El estudio utiliza nuestros datos como una valiosa información de negocios. Ayudamos a la gente a tomar decisiones difíciles, ¿y por qué no?", dijo.
A pesar de esto, el estudio con que Epagogix ha trabajado por los últimos cinco años pidió no ser mencionado. Meaney dice que es un asunto "delicado".

Una memoria en la red

Si los algoritmos tuvieran un salón de la fama, la principal estrella sería Google.
Su famoso código secreto ha lanzado al gigante de los buscadores a su actual posición como una de las compañías más poderosas del mundo.

Nadie duda de que su sistema ha hecho el acto de buscar algo mucho más fácil, pero sus críticos se preguntan desde hace tiempo a qué costo.


Algoritmo
"Conjunto ordenado y finito de operaciones que permite hallar la solución de un problema"
Diccionario de la Real Academia Española
En su libro "The Filter Bubble" ("La Burbuja del Filtro") Eli Pariser se pregunta en qué medida el algoritmo de Google recolecta nuestros datos personales y da forma, consecuentemente, a la web que vemos.
Por su parte, psicólogos de la Universidad de Columbia, Estados Unidos, presentaron recientemente un estudio que muestra que el uso cada vez más frecuente de motores de búsqueda está cambiando el modo en que los humanos pensamos.
"Desde que aparecieron los buscadores estamos reorganizando la forma en que recordamos las cosas. Nuestros cerebros se apoyan en internet como una fuente de memoria, del mismo modo en que nos apoyamos en la memoria de nuestros amigos, familiares o colegas", dijo la autora del trabajo, Betsy Sparrow. Ella dice que cada vez más recordamos dónde puede encontrarse cierta información en vez de la información misma.

Desplome repentino

En los mercados financieros, los programas informáticos se están volviendo los actores protagónicos, con sus algoritmos que procesan datos para decidir qué comprar y qué vender.
Hasta el 70% de los intercambios de Wall Street son ejecutados por las llamadas black box (cajas negras) o algo-trading (intercambios basados en algoritmos).
Esto implica que junto a los sabios muchachos de la bolsa, los bancos y empresas bursátiles emplean a miles de sabios físicos y matemáticos.
Pero hasta la precisión de las máquinas, alimentada por los humanos magos del código, es incapaz de garantizar que las cosas funcionen sin sobresaltos.

Atónitos ante sus colegas cibernéticos.
En el llamado Flash Crash (Desplome Repentino) del 6 de mayo de 2010, una caída de cinco minutos en los mercados generó un momento de caos generalizado.

Un operador deshonesto fue acusado de una caída del 10% en el índice Dow Jones, pero en realidad el culpable fue un programa informático que el operador estaba utilizando.
En tan solo 20 minutos el algoritmo vendió 75.000 acciones por un valor de US$4.300 millones, haciendo que otros algoritmos lo siguieran.

Al igual que un miembro biónico puede extender la fuerza y resistencia humanas, el mercado electrónico exhibió su capacidad de exagerar y acelerar pequeñas variaciones.
Nadie ha sido capaz de determinar exactamente qué sucedió, y el mercado se recuperó minutos más tarde.
El caos obligó a los reguladores a introducir interruptores para detener la actividad bursátil en caso de que las máquinas comiencen a portarse mal.

Los algoritmos de Wall Street pueden ser el equivalente cibernético de los yuppies de los '80, pero a diferencia de los humanos no exigen gemelos de plata, cigarros y champagne. Lo que quieren son conexiones veloces.
Spread Networks ha estado construyendo una de esas conexiones de fibra óptica, capaz de reducir en 3 microsegundos el intercambio de información entre las bolsas de Chicago y Nueva York, distantes 1.327km.
Por su parte, un cable de fibra óptica transatlántico, que va desde Nueva Escocia, en Canadá, hasta Somerset en el Reino Unido, está siendo desplegado para que puedan operar los algoritmos bursátiles y será capaz de enviar acciones de Londres a Nueva York en 60 milisegundos.

"Estamos recorriendo Estados Unidos con dinamita y sierras para cortar roca, así un algoritmo puede cerrar un trato tres microsegundos más rápido, todo para un sistema de comunicación que ningún humano jamás tocará", dijo Slavin.
A medida que los algoritmos extienden su influencia más allá de las máquinas y se vuelven capaces de transformar su entorno, puede que se vuelva hora de determinar exactamente cuánto saben y si todavía estamos a tiempo de domesticarlos.

Jane Wakefield
BBC
Martes, 23 de agosto de 2011
Tomado de http://www.bbc.co.uk/mundo/
Comparte este artículo en tus redes sociales:

La fórmula matemática acusada de destruir la economía mundial

No todos los días ocurre que alguien formula una ecuación que puede transformar el mundo. Pero a veces sí ocurre, y el mundo no siempre cambia para bien. Algunos creen que la fórmula Black-Scholes y sus derivadas ayudó a generar el caos en el mundo financiero.
La fórmula se escribió por primera vez en los primeros años de la década de 1970, pero su historia comienza muchos años antes, en el mercado de arroz de Dojima en el siglo XVII en Japón, donde se escribían contratos de futuros para los comerciantes del arroz. Un contrato de futuros simple dice que una persona acordará comprar arroz de otra persona en un año, a un precio que acuerdan al momento de la firma.



En el siglo XX, la Bolsa de Comercio de Chicago era el lugar para que los comerciantes negociaran no sólo futuros sino contratos de opciones. Un ejemplo de esto último es un contrato en el que se acuerda comprar arroz en cualquier momento durante un año, a un precio convenido con la firma, pero que es opcional.
Es posible imaginarse por qué uno de estos contratos puede ser útil. Si alguien tiene una cadena grande de restaurantes de hamburguesas, pero no sabe cuánta carne necesitará comprar el próximo año -y está nervioso de que el precio pueda subir- entonces lo único que tiene que hacer es comprar unas opciones en carne.
Pero eso genera un problema: ¿Cuánto debería estar pagando por esas opciones? ¿Cuánto valen? Es precisamente acá donde puede ayudar la fórmula revolucionaria Black-Scholes.

El precio de una hamburguesa
"El problema que trata de solucionar es definir el valor del derecho, pero no de la obligación, para comprar un activo particular a un precio específico, dentro de un periodo determinado o al final de él", dice Myron Scholes, profesor de finanzas de la Facultad de Negocios de la Universidad de Stanford, en Estados Unidos, y -por supuesto- coinventor de la fórmula Black-Scholes.

La llegada de los sistemas cuantitativos transformó a Wall Street.
Una parte del rompecabezas era la pregunta del riesgo: el valor de una opción para comprar carne a un precio, digamos, de US$2 por un kilo depende del precio de la carne y cómo ese precio se está moviendo.
Pero la conexión entre el precio de la carne y el valor de la opción de la carne no varía de una manera sencilla. Depende de qué tan probable sea la utilización de la acción. Eso, a su vez, depende del precio de la opción y del precio de la carne. Todas las variables parecen estar enredadas de manera impenetrable.
Scholes trabajó en el problema con su colega, Fischer Black, y descubrió que si alguien tiene el portafolio de carne correcto, además de las opciones para comprar y vender carne, esa persona tiene un portafolio excelente y totalmente sin riesgos. Como ya conoce el precio de la carne y el precio de los activos libres de riesgo, si mira la diferencia entre ellos puede calcular el precio de esas opciones de carne. Esa es la idea básica. Los detalles son excesivamente complicados.

En la tienda de dulces
El método Black-Scholes resultó ser una forma no sólo para calcular el valor de las opciones pero también todo tipo de activos financieros.
"Éramos como niños en un almacén de dulces, en el sentido que describíamos opciones en todos lados, las opciones estaban presentes en todo lo que hacíamos en la vida", dice Scholes.
Pero Black y Scholes no eran los únicos niños en la tienda de dulces, dice Ian Stewart, cuyo libro argumenta que la Black-Scholes fue una invención peligrosa.
"Lo que hizo la ecuación fue darles a todos la confianza para comerciar con opciones y, de manera muy rápida, con unas opciones financieras mucho más complicadas, que se conocen como derivadas financieras", dice.
Pero a medida que los bancos y fondos de cobertura se basaron cada vez más en sus ecuaciones, se hicieron más y más vulnerables a los errores o simplificaciones en las matemáticas.
"La ecuación se basa en la idea de que los grandes movimientos son en realidad muy, muy raros. El problema es que los mercados reales tienen estos grandes cambios mucho más a menudo de lo que este modelo predice", dice Stewart. "Y el otro problema es que todo el mundo está siguiendo los mismos principios matemáticos, por lo que todos vamos a obtener la misma respuesta."

La llegada de los genios
El trabajo de Scholes había inspirado a una generación de genios matemáticos de Wall Street, y en la década de 1990, él ya era un jugador en el mundo de las finanzas, como socio de un fondo de cobertura llamado Long-Term Capital Management.
"La idea de esta empresa era que iba a basar sus transacciones en principios matemáticos, tales como la ecuación de Black-Scholes. Y realmente fue un éxito sorprendente, al comienzo", dice Stewart. "Fue superando a las compañías tradicionales muy notablemente y todo se veía bien."
Pero no terminó bien. Long-Term Capital Management se encontró con, entre otras cosas, la crisis financiera rusa. La empresa perdió US$ 4 mil millones en el curso de seis semanas. Fue rescatada por un consorcio de bancos que habían sido reunidos por la Reserva Federal. Y - en el momento – se convirtió en una noticia muy, muy grande. Todo esto sucedía en agosto y septiembre de 1998, menos de un año después de Scholes había sido galardonado con el premio Nobel.

Lecciones
Stewart dice que las lecciones del caso Long-Term Capital Management son evidentes. "Se demostró la peligrosidad de este tipo de transacciones basadas en algoritmos si no se vigilaban algunos de los indicadores de que las personas más convencionales utilizaban", dice. "Ellos [Long-Term Capital Management] se comprometieron a seguir adelante con el sistema que tenían. Y salió mal."
Scholes dice que eso no es lo que sucedió en absoluto. "No tuvo nada que ver con las ecuaciones y nada que ver con los modelos", dice. "Yo no estaba manejando la empresa, permítanme ser muy claro al respecto. No existía la capacidad para soportar el choque que se produjo en el mercado en el verano y otoño de finales de 1998. Así que fue sólo una cuestión de la asunción de riesgos. No fue una cuestión de modelos".
Esto es algo que la gente se sigue discutiendo una década después. ¿Fue el colapso de Long-Term Capital Management el fracaso de los métodos matemáticos para las finanzas o, como dice Scholes, fue simplemente un caso de operadores financieros que tomaron demasiado riesgo contra el mejor juicio de los expertos matemáticos?
Diez años después de Long-Term Capital Management, Lehman Brothers se derrumbó. Y el debate sobre Black-Scholes es ahora un debate más amplio sobre el papel de las ecuaciones matemáticas en las finanzas.


¿La culpa fue de las matemáticas?
Ian Stewart afirma que la ecuación Black-Scholes cambió el mundo. ¿Pero realmente cree que las matemáticas causaron la crisis financiera?
"Fue el abuso de su ecuación lo que causó el problema, y yo no creo que se puede culpar a los inventores de una ecuación, si alguien viene y lo utiliza mal", dice.
Black-Scholes cambió la cultura de Wall Street, que pasó de ser un lugar donde las personas comerciaban con base en el sentido común, experiencia e intuición, a un lugar donde la computadora decía sí o no.
Pero en realidad, ¿es justo culpar a Black-Scholes por lo que siguió?
"La tecnología Black-Scholes tiene reglas y requisitos muy específicos”, dice Scholes.
"Esta tecnología atrajo o hizo que los bancos de inversión contrataran a personas que tenían habilidades cuantitativas o matemáticas. Eso lo acepto. A continuación, desarrollaron productos y tecnologías propias."
No todas las tecnologías posteriores, dice Scholes, eran lo suficientemente buenas. "[Algunas] tenía supuestos equivocados, o utilizaban datos de forma incorrecta para calibrar sus modelos, o las personas que utilizaban los modelos no sabían cómo hacerlo".
Scholes argumenta que no hay vuelta atrás. "La cuestión fundamental es que las tecnologías cuantitativas en las finanzas sobrevivirán y crecerán, y seguirán evolucionando con el tiempo", dice.






Comparte este artículo en tus redes sociales:

Un revolucionario de las Matemáticas

Este año se conmemora el 200 aniversario del fallecimiento de Évariste Galois, un genio que la noche antes de morir dejó escrito en una carta su importante legado.

Un gran concepto de sí mismo, un espíritu revolucionario y una vida personal con tintes novelescos que acabó en un duelo al amanecer  bien pueden encajar con el carácter de un librepensador o un filósofo. Muy pocos pensarían en un matemático, pero la vida de Évariste Galois (Bourg-la-Reine, 1811) poco o nada se ciñe a los cánones tradicionales. Murió sin haber cumplido los 21 años y, aún así, casi todos los expertos consideran que "cambió de forma radical las matemáticas".

Este año se celebra el 'Año Galois' para conmemorar el 200 aniversario de su nacimiento y, por eso, la Facultad de Ciencia y Tecnología de la Universidad del País Vasco (UPV) ha organizado actos para dar a conocer la importante 'herencia' de este genio precoz. La todavía ministra de Ciencia e Innovación, Cristina Garmendia, recordó al matemático francés en la última entrega de los premios nacionales de investigación. "Su historia nos permite reivindicar para la ciencia dos valores, el apasionamiento y la aventura, a los que la profesión investigadora no debe renunciar", dijo.

Como otros grandes científicos, el mérito de Galois no se reconoció hasta años después de su muerte. Y es que su desorganización y su falta de método provocaron que las dos memorias que envió en vida a la Academia de las Ciencias de Francia fuesen rechazadas por incomprensibles.

Galois no empezó a estudiar hasta los 12 años, cuando se matriculó en el prestigioso liceo Louis-Le-Grand de París, en cuyas aulas también se han formado Moliere y Voltaire, además de Georges Pompidou, Valery Giscard d'Estaing y Jacques Chirac. Sus profesores no le consideraban un buen estudiante, ya que sólo destacaba en las asignaturas que le interesaban. Al final, le obligaron a repetir curso y esto cambió su vida. En su camino, se cruzó un buen maestro de matemáticas, que le dio lo que ahora se puede considerar un manual universitario. "Cuentan que se lo leyó en dos días y desde entonces no hizo más que matemáticas. Aún así, sus profesores se quejaban de que no tenía método alguno", relata Fernando Corbalán, catedrático de Matemáticas y autor del libro 'Galois. Revolución y matemáticas'.

"Lo que tenía era un gran concepto de si mismo". Por eso, se presentó a la prueba de acceso a la Escuela Politécnica sin "prepararlo" y, obviamente, suspendió. Un año después, volvió a repetir el examen y, como pensaba que le estaban tomando el pelo con las preguntas tan simples que le estaban realizando, lanzó el borrador a los miembros del tribunal que le evaluaban y abandonó el aula.

 "No tengo tiempo"
Évariste Galois nació en pleno esplendor revolucionario francés y no se mantuvo al margen. Se enroló en las filas del grupo radical Los Amigos del Pueblo en 1831 y, en tres ocasiones, fue encarcelado por motivos políticos. En una de sus estancias en prisión, se declaró una epidemia de peste y le trasladaron a una casa de salud. Allí conoció a Stéphanie-Félicité Poterin. "Galois pensaba que tenía una relación con ella, pero yo creo que ella pasaba bastante de él", bromea Corbalán.

Su prematura muerte llegó en un duelo al amanecer  de mayo de 1832. Muchos creen que fue motivado por amor; algunos señalan que fue una encerrona política; y otros,  consideran que fue "un suicidio para tratar de favorecer la sublevación" de sus correligionarios.

La vida de Galois nunca fue convencional y su final tampoco. La noche anterior al duelo escribió tres cartas: a sus camaradas revolucionarios, a sus más allegados y a Auguste Chevalier. En esta última, resume su teoría sobre ecuaciones, funciones integrales y métodos resolubles. Nunca se sabrá si sus descubrimientos fueron más amplios, ya que al borde del manuscrito dejó escrito un angustioso: "No tengo tiempo".

Uno de los últimos deseos de Galois fue que Chevalier acudiese a la Academia de las Ciencias para que reconociesen la importancia de sus estudios. Doce años después de su muerte, alguien descubrió sus escritos, los entendió y los puso a la disposición de la comunidad científica. Corbalán asegura que "los entendidos no le comprendieron en vida porque suponía un cambio total de visión, porque no quiso estancarse en lo que existía" y aconseja a los "nuevos genios" que sigan este ejemplo, porque "a veces el camino correcto no nos lleva al adecuado".
Comparte este artículo en tus redes sociales:

Reto matemático semestre B 2011

Acá está el tan esperado reto para este semestre


Un vendedor de plata no podía pagar su alquiler del mes de diciembre   por adelantado. Tenía una barra de plata pura de 31 centímetros de largo; de modo que hizo con la dueña del apartamento el siguiente arreglo: Le dijo que cortaría la barra enpedazos más pequeños. El primer día de diciembre le daría a la señora un centímetro de la barra, y cada día subsiguiente le agregaría otro centímetro más. Ella conservaría la plata en prenda. A fin de mes, el vendedor esperaba estar en condiciones de pagarle la renta completa, y ella le devolvería los pedazos de la barra de plata. Diciembre tiene 31 días, de modo que una manera de cortar la plata era dividirla en 31 partes, cada una de un centímetro de largo. Pero como era bastante laborioso cortarla, el señor deseaba cumplir el acuerdo dividiéndola en el menor número posible de partes. Por ejemplo, podía darle a la casera un centímetro el primer día, otro centímetro el segundo día, y el tercer día podía entregarle una parte de tres centímetros y recibir a cambio las dos partes anteriores de un centímetro.  Suponiendo que las porciones de barra fueran entregadas y devueltas de esta manera, determinar el menor número posible de partes en las que el buscador debe dividir su barra de plata.  
Comparte este artículo en tus redes sociales:

De las Series de Fourier a la Nanotecnología


Las series de funciones seno y coseno fueron utilizadas por Leonard Euler y otros en el siglo 18 para estudiar la dinámica de las vibraciones de cuerdas y para estudiar los movimientos de los cuerpos en mecánica celeste. Joseph Fourier, a principios del siglo 19, reconoció la gran utilidad práctica de estas series para estudiar la conducción del calor y comenzó a desarrollar una teoría general de las mismas. A partir de entonces, las series de Fourier se utilizan por doquier, desde la acústica o la óptica, hasta los circuitos eléctricos. 

Las series de fourier consisten en la descomposición de una onda periódica en una serie infinita de sumas de ondas sinusoidales, esto para el análisis matemático de dicha onda periódica.

En la actualidad, los métodos de Fourier están en la base de gran parte de la ciencia y de la ingeniería moderna, en especial de las técnicas computacionales.  Sin embargo, las matemáticas de principios del siglo 19 eran inadecuadas para el desarrollo riguroso de las ideas de Fourier y aparecieron gran número de problemas de carácter técnico que desafiaron a muchas de las grandes mentes de la época. Costó mucho desarrollar nuevas técnicas matemáticas para poder resolver estas dificultades. En la década de 1830, Gustav Lejeune Dirichlet obtuvo la primera definición clara y útil del concepto de función. 

Bernhard Riemann en la década de 1850 y Henri Lebesgue en la década de 1900 obtuvieron nociones rigurosas de la integración de funciones. La convergencia de series infinitas resultó muy  resbaladiza al principio, pero se logró dominar gracias a Augustin-Louis Cauchy y a Karl Weierstrass, que trabajaron en la décadas de 1820 y 1850, respectivamente. En la década de 1870, los primeros pasos de Georg Cantor hacia una teoría abstracta de los conjuntos se iniciaron con el análisis de las diferencias entre funciones que no son iguales pero cuyas series de Fourier son idénticas.


En la primera década del siglo 20, el concepto de espacio de Hilbert fue clave para entender las propiedades de las series de Fourier. El matemático alemán David Hilbert y sus colegas definieron estos espacios de forma axiomática, algo que parecía muy alejado de las aplicaciones prácticas. Sin embargo, en la década de 1920, Hermann Weyl, Paul Dirac y John von Neumann reconocieron que este concepto era la piedra angular de la mecánica cuántica, ya que los estados posibles de un sistema cuántico son elementos de cierta clase de espacios de Hilbert. 

La mecánica cuántica es la teoría científica más exitosa de todos los tiempos. Sin ella, gran parte de nuestra tecnología moderna (el láser, los ordenadores, los televisores de pantalla plana, la energía nuclear, etc.) no existiría. Quien podía imaginar que problemas matemáticos abstractos relacionados con las propiedades matemáticas de las series de Fourier acabarían revolucionando la ciencia y la ingeniería del siglo 20, y acabarían conduciendo a la energía nuclear.
Comparte este artículo en tus redes sociales:

De los jugadores a las aseguradoras


Girolamo Cardano
En el siglo XVI, fue un matemático y un jugador compulsivo. Por desgracia para él, perdió en el juego la mayor parte del dinero que había heredado. Por fortuna para la ciencia escribió lo que se considera el primer trabajo en teoría de la probabilidad moderna, “Liber de ludo aleae,” que acabó publicado en 1663. Un siglo después, otro jugador, Chevalier de Méré, tenía un truco que parecía muy razonable para ganar a los dados a largo plazo, pero perdió todo su dinero. Consultó a su amigo Blaise Pascal buscando una explicación. Pascal escribió a Pierre de Fermat en 1654. La correspondencia entre ellos sentó las bases de la teoría de la probabilidad. 

Christiaan Huygens estudió estos resultados y escribió la primera obra publicada sobre probabilidad, “Ratiociniis De Ludo Aleae” (publicada en 1657).  En el siglo XVII, Jakob Bernoulli reconoció que la teoría de la probabilidad podría aplicarse mucho más allá de los juegos de azar. Escribió “Ars Conjectandi” (publicado después de su muerte en 1713), que consolidó y amplió el trabajo en probabilidad de Cardano, Fermat, Huygens y Pascal. Bernoulli probó la ley de grandes números, que dice que cuanto mayor sea la muestra, más se parecerá el resultado muestral al de la población original. 

Las compañías de seguros deben limitar el número de pólizas que venden. Cada póliza vendida implica un riesgo adicional y el efecto acumulado podría arruinar la empresa. A partir del siglo XVIII, las empresas de seguros comenzaron a utilizar la teoría de probabilidades para sus políticas de ventas y para decidir los precios de los seguros con objeto de garantizar beneficios a largo plazo. La ley de Bernoulli de los grandes números es clave para seleccionar el tamaño de las muestras que permiten realizar predicciones fiables.


Comparte este artículo en tus redes sociales:

De las naranjas a los módems


En 1998, de repente, las matemáticas fueron noticia en todos los medios. Thomas Hales actualmente Andrew Mellon (Universidad de Pittsburgh, Pennsylvania) había demostrado la conjetura de Kepler, que afirma que la mejor forma de apilar naranjas en una caja es la utilizada en todas las fruterías (el empaquetamiento de esferas más eficiente posible). 

Un problema que había estado abierto desde 1611, cuando lo propuso Johannes Kepler. En algunos medios de prensa y TV se llegó a decir “creo que es una pérdida de tiempo y dinero de los contribuyentes.” Hoy en día, las matemáticas del empaquetamiento de esferas se utilizan en ingeniería de comunicaciones y teoría de la información y de la codificación para planificar canales de comunicación y para desarrollar códigos correctores de errores. El problema de Kepler fue mucho más difícil de demostrar de lo que Kepler nunca pudo imaginar. De hecho, el problema más sencillo sobre la mejor forma de empaquetar círculos planos fue demostrado en 1940 por László Fejes Tóth.



Otro problema sencillo cuya solución costó muchos años fue el problema de las esferas que se besan, planteado en el siglo XVII por Isaac Newton y David Gregory: Dada una esfera, ¿cuántas esferas iguales que ésta pueden colocarse con la condición de que toquen a la inicial? En dos dimensiones es fácil demostrar que la respuesta es 6. Newton pensaba que 12 era el número máximo en 3 dimensiones. Lo es, pero la demostración tuvo que esperar al trabajo de Kurt Schütte y Bartel van der Waerden en 1953. Oleg Musin demostró en 2003 que el número de besos en 4 dimensiones es 24. En cinco dimensiones sólo se sabe que se encuentra entre 40 y 44. Sabemos la respuesta en ocho dimensiones, que es 240, como demostró Andrew Odlyzko en 1979. Más aún, en 24 dimensiones la respuesta es 196.560. Estas demostraciones son más sencillas que la del resultado en tres dimensiones y utilizan empaquetamiento de esferas mucho más complicados e increíblemente densos, la red E8 en 8 dimensiones y la red de Leech en 24 dimensiones.

Todo esto es muy bonito, pero ¿sirve para algo? En la década de 1960, un ingeniero llamado Gordon Lang diseñó los sistemas de comunicación por módem utilizando estos empaquetamientos de esferas multidimensionales. 

El problema de la comunicación analógica en una línea telefónica es el ruido. En una conversación entre dos personas el lenguaje natural es tan redundante que el ruido importa poco, pero para enviar datos es necesario introducir ciertas redundancias y utilizar técnicas correctoras de error, lo que reduce el ancho de banda del canal (la cantidad de información que se puede transmitir por segundo). Lang utilizó los empaquetamientos de esferas para lidiar con el ruido y aumentar al máximo el ancho de banda. Para ello utilizó una codificación basada en el empaquetamiento E8 (más tarde también se utilizó el de Leech). 

En la década de los 70, el trabajo de Lang fue clave para el desarrollo temprano de la internet. Donald Coxeter, matemático que ayudó a Lang en su trabajo, dijo que estaba “horrorizado de que sus bellas teorías hubieran sido manchadas de esta manera por las aplicaciones.”
Comparte este artículo en tus redes sociales:

Cuaterniones de Hamilton: Origen y utilidad en videojuegos



La historia de cómo descubrió los cuaterniones el matemático irlandés William Rowan Hamilton (1805–1865).
Se dice que esto ocurrió el 16 de octubre 1843 mientras estaba caminando sobre el Puente de “Broome” en Dublín y tras más de dos décadas echándole cabeza a la multiplicación de tripletas, pues  había estado buscando una manera de extender el sistema de números complejos a tres dimensiones de tal forma que permitiera describir las rotaciones tridimensionales respecto a un eje arbitrario como los números complejos describen las rotaciones bidimensionales. 
Su idea feliz ahora nos resulta casi obvia, no era posible hacerlo con ternas de números, las rotaciones tridimensionales requieren un sistema de números con cuatro componentes imaginarias. Si los números complejos son de la forma a + i b, donde a y b son números reales, e i es la raíz cuadrada de –1, entonces los cuaterniones deben tener la forma
a + bi + cj + dk , donde las unidades imaginarias cumplen que  i2 = j2 = k2 = ijk= –1.


Hamilton pasó el resto de su vida tratando de convencer a toda la comunidad de matemáticos de que los cuaterniones eran una solución elegante a múltiples problemas en geometría, mecánica y óptica. Tras su muerte, pasó el testigo a Peter Guthrie Tait (1831–1901), profesor de la Universidad de Edimburgo. William Thomson (Lord Kelvin) quien pasó más de 38 años discutiendo con Tait sobre la utilidad real de los cuaterniones. Kelvin prefería el cálculo vectorial, que a finales del siglo 19 eclipsó a los Cuaterniones.  Los matemáticos del siglo 20, en general, consideran los cuaterniones como una hermosa construcción matemática sin ninguna utilidad práctica. Así fue hasta que por sorpresa, en 1985, el informático Ken Shoemake presentó la idea de interpolar rotaciones usando cuaterniones en el congreso de gráficos por computador más importante del mundo (el ACM SIGGRAPH). Interpolar matrices preservando la ortogonalidad de las matrices de rotación es muy engorroso y utilizar los ángulos de Euler ayuda poco. 

Las técnicas convencionales de interpolación para númeos reales se extienden de forma natural a los números complejos y a los cuaterniones. Interpolaciones suaves y rápidas de calcular que desde entonces se utilizan en todos los juegos por ordenador que presentan gráficos tridimensionales. 

En la actualidad, los cuaterniones son imprescindibles en robótica y en visión por ordenador, además en gráficos por ordenador. Al final del siglo 20, la guerra entre Kelvin y Tait fue ganada por este último. Hamilton vio cumplido su sueño en la industria de los videojuegos, 150 después de su descubrimiento, una industria que mueve más dinero en el mundo que la industria del cine (más de 100 mil millones de dólares en 2010).
Sociedad Británica para la Historia de las Matemáticas
Comparte este artículo en tus redes sociales:

Modelo matemático define las características del líder

Según el estudio, dirigido desde la Universidad de Cambridge (Reino Unido), los líderes son personas audaces, extrovertidas y curiosas. El liderazgo conlleva cierto riesgo y las personas que lo consiguen tienen más capacidad que otras de asumirlo y de tomar decisiones para el conjunto del grupo.  Y es que el temperamento determina la capacidad de una persona para ser líder o seguidor.  Los investigadores restan importancia al hecho de disponer de información o recursos para llegar a ser líder, tal y como establecían trabajos anteriores.



Los autores realizaron la investigación mediante un modelo matemático y exploraron cómo surgían los líderes en diferentes situaciones, además de predecir los rasgos de su personalidad. Para ello, sometieron a una población de estudio a un sencillo juego de coordinación que dividieron en diferentes grupos. Aquellos que reunieron más seguidores y acordaron decisiones conjuntas recibieron su recompensa.

"La proporción de líderes intrínsecos en la población aumenta con el grado de conflicto que existe entre los miembros del grupo", señalan los autores. De esta forma, cuando el nivel de conflicto es débil, la mayoría de los individuos son seguidores, mientras que cuando la tensión aumenta, el número de líderes también lo hace.

Según el estudio, dirigido desde la Universidad de Cambridge (Reino Unido), los líderes son personas audaces, extrovertidas y curiosas. El liderazgo conlleva cierto riesgo y las personas que lo consiguen tienen más capacidad que otras de asumirlo y de tomar decisiones para el conjunto del grupo.

Los investigadores observaron que las parejas de individuos más productivas estaban formadas por unapersona que llevaba la iniciativa y otra que actuaba como seguidor. Aquellas en las que los dos individuos eran líderes o seguidores, llegaban a un punto muerto.
Comparte este artículo en tus redes sociales:

Videoteca

Videos Discovery

Videos Discovery
Discovery en la Escuela

Aula virtual Cálculo Integral

Aula virtual Cálculo Integral
Sesiones en Wiziq

Aula Virtual Estadística

Aula Virtual Estadística
Sesiones en Wiziq

Zona Wolfram Alpha

Zona Wolfram Alpha
ir a Herramientas
Este sitio inició el día 1 de abril de 2010. Estas son las estadísticas

   Publicaciones
   Comentarios
 Días online

Vistas de página en total