English French German Spain Italian Dutch Russian Portuguese Japanese Korean Arabic Chinese Simplified
Mostrando entradas con la etiqueta Noticia Matemática. Mostrar todas las entradas
Mostrando entradas con la etiqueta Noticia Matemática. Mostrar todas las entradas

miércoles, enero 08, 2014

La Bundesliga es la más competitiva, según un estudio matemático

Un nuevo método desarrollado por investigadores de tres universidades españolas mide la competitividad de las ligas de Inglaterra, España, Italia y Alemania. El análisis es útil tanto para la prensa especializada, público y los técnicos de los equipos, como para los organismos que se encargan de hacer clasificaciones internacionales.


La Bundesliga es la más competitiva entre cuatro de las principales ligas futbolísticas europeas: la inglesa, la española, la italiana y la alemana. A esta conclusión ha llegado un equipo de investigadores de la Universitat Politècnica de València, la Universidad Rey Juan Carlos de Madrid y la Universidad Politécnica de Madrid, tras desarrollar un método científico que facilita y fortalece los procedimientos para medir la competitividad.
El estudio, elaborado conjuntamente por grupos de investigación matemática de las tres universidades, ha sido publicado por la revista Chaos, una publicación internacional de referencia en su campo.
El método para medir la competitividad, en este caso aplicada a las ligas de fútbol, analiza cómo los equipos cruzan sus posiciones en la clasificación a lo largo de la temporada. Para su desarrollo, los investigadores se centraron en las dos últimas campañas de las cuatro principales ligas de fútbol europeas.
El método analiza cómo los equipos cruzan sus posiciones en la clasificación a lo largo de la temporada
“Podría decirse que nuestro método mide los vuelcos que ocurren en la clasificación. Las medidas que aportamos no se obtienen solo con la clasificación final de la liga, sino que tiene en cuenta la evolución; es como un electrocardiograma de la competición”, señala Francisco Pedroche, investigador del Institut de Matemàtica Multidisciplinària de la Universitat Politècnica de València.
Los autores de la investigación consideran que el método que han concebido  ofrece más información que otros basados en el porcentaje de victorias de cada equipo. El análisis de la competitividad, y en particular el concepto de equilibrio competitivo  de una liga, es muy usado en la teoría económica de las ligas de fútbol americano.
La novedad aportada en este sentido por los científicos de la URJC, la UPM y la UPV es que hasta ahora no existe ningún método aplicado a una serie de más de dos jornadas. El nuevo método permite, además, medir lo competitivo que ha sido cada equipo a lo largo de la temporada y también comparar la evolución de conjuntos en diferentes ligas.  
Útil para las clasificaciones
De este modo, el análisis que ofrece puede ser útil tanto para la prensa especializada, público en general y los técnicos de los equipos, como para los organismos que se encargan de hacer clasificaciones internacionales de equipos.
“Por ejemplo, la competitividad de la liga puede contribuir a la ponderación de los campeonatos que se utilizan para asignar el trofeo “Bota de oro” o para el coeficiente que se emplea para la clasificación de equipos en la Liga de Campeones. Además, el método podría usarse también para estudiar la posibilidad de dividir una liga en dos subligas con competidores más homogéneos”, apunta Pedroche.
El estudio ha contado con financiación del MICINN,  fondos FEDER y de la Junta de Andalucía. El equipo investigador ha estado formado por los profesores Regino Criado, Esther García y Miguel Romance de la Universidad Rey Juan Carlos y del Centro de Tecnología Biomédica de la Universidad Politécnica de Madrid, y Francisco Pedroche, investigador del Institut de Matemàtica Multidisciplinària de la Universitat Politècnica de València. 

Tomado de Sinc La Ciencia es Noticia

Teoría de redes para fortalecer el sistema bancario

Un estudio matemático de la Universidad Carlos III de Madrid (UC3M) basado en teoría de redes sugiere que reestructurar determinados préstamos interbancarios ayudaría a contener la propagación de crisis económicas en el sistema financiero.





Desde la crisis financiera que estalló en 2008, numerosos gobiernos han inyectado dinero público en el sistema bancario para impedir la quiebra de algunas entidades y evitar un desplome colectivo. Por otro lado, para fortalecer la robustez del sistema bancario, los bancos centrales han elevado las exigencias sobre el capital en reserva, es decir, el porcentaje de dinero que los bancos deben guardar sin prestar.
“Este coeficiente de caja se ha aplicado a todas las entidades de manera uniforme, sin tener en cuenta cuáles son los bancos más importantes desde un punto de vista sistémico, y no se ha actuado sobre las relaciones entre entidades para reformar la red y hacerla más resistente a un shock financiero”, explica Anxo Sánchez, del Grupo Interdisciplinar de Sistemas Complejos de la UC3M.
En su estudio, aparecido en la revista PLoS ONE, se realiza un análisis sistemático sobre la manera en que la estructura de las conexiones financieras afecta a la propagación de crisis económicas, teniendo en cuenta cambios de varias variables de la red simultáneamente. 
De esta forma, en lugar de evaluar el volumen de negocio y la resistencia de cada banco por separado, se tiene en cuenta la manera en que una entidad influye sobre la salud de toda la red. Siguiendo la analogía del ecosistema, sería algo similar a analizar cómo afectaría la extinción de una especie a la cadena trófica y la viabilidad de un entorno natural. De hecho, el trabajo se enmarca en un proyecto de investigación en el que se compara la robustez de las redes económicas y ecológicas.
Epidemiología bancaria
Según los datos reales de redes corporativas analizados por los autores, entre los que también se halla un investigador del University College London, el sistema financiero actual podría mostrarse muy sensible a los pequeños cambios de estructura. La conclusión es que no solo debería actuarse sobre las entidades, sino también sobre las relaciones existentes entre ellas.
“Una manera muy buena de incrementar la robustez de la red y evitar que una quiebra se propague a todo el sistema podría ser retocar los enlaces entre entidades”, apunta el profesor Sánchez. Para ello, “se podrían reestructurar algunos préstamos interbancarios reorganizando la red en subgrupos, porque pedir a los bancos que aumenten sus reservas puede resultar menos útil de lo que suponen actualmente los reguladores. Incluso dependiendo del tipo de entidad afectada, podría llegar a no servir para nada”, subraya.
Según los investigadores, estos resultados proporcionan una nueva visión y argumentos a los responsables políticos para que puedan centrarse en la vigilancia no solo de los requisitos de capital que se dirigen a los nodos, sino también de las conexiones entre las empresas que componen la red financiera. Para llevarlo a la práctica, no obstante, sería necesario conocer con precisión los datos y las relaciones entre las entidades de interés, además del proceso definido en los enlaces (préstamos interbancarios, pertenencia de una empresa a otra, propiedades conjuntas, etc).
“En muchos casos esto nos resulta muy difícil o casi imposible por razones de confidencialidad, aunque los bancos centrales sí podrían trasladar la metodología que planteamos y estudiar la aplicabilidad de las políticas que sugerimos, dado que conocen hasta el último detalle de los datos del sistema”, concluye el profesor Sánchez.

Tomado de Sinc La ciencia es noticia

lunes, noviembre 11, 2013

Matemáticas, de la vida diaria 
a la crisis mundial

Con motivo del  Congreso Matemático de las Américas, que tuvo lugar la en agosto de este año )2013), me surgió la duda de qué tan cierta es esa intuición que todos podemos tener de que las matemáticas son importantes para la vida diaria más allá del cambio que nos dan en el mercado (es decir, más allá de las sumas y las restas).

Y algunos estudios recientes demuestran que pueden ser mucho más importantes de lo que cualquiera podía sospechar y ser relevantes no sólo para la vida diaria de las personas sino para el futuro de la sociedad.
HABILIDAD INFANTIL Y SALARIOS
Según un estudio publicado este año en la revista especializada Psychological Science, la habilidad para las matemáticas y la lectura que un individuo muestre a los siete años está más relacionada con el estatus socioeconómico que tendrá varias décadas más tarde que con su inteligencia, nivel educativo y el estatus socioeconómico de sus padres.
Stuart Ritchie y Timothy Bates, de la Universidad de Edimburgo, hicieron su investigación con datos del National Child Development Study, en el que se siguió a 17,000 personas en Inglaterra, Escocia y Gales por cerca de 50 años.
El estudio reveló que los participantes con mayores habilidades lectora y matemática a los siete años acabaron teniendo, 35 años después, ingresos más altos, mejores casas y trabajos, independientemente de otros factores.
ENTRE LAS CAUSAS DE LA CRISIS
Lo anterior confirma la intuición, pero el estudio alarmante fue publicado hace unas semanas en la revista Proceedings of the National Academy of Sciences, y refiere que la probabilidad de que una persona deje de pagar su hipoteca (en particular una de las famosas subprime) es más alta mientras menor sea su habilidad para realizar cálculos matemáticos.
Los autores, Kristopher Gerardi (del departamento de investigación del Federal Reserve Bank of Atlanta), Lorenz Goette (de la Facultad de Negocios y Economía de la Universidad de Lausana) y Stephan Meier (de la Escuela de Negocios de la Universidad de Columbia), no dudan en iniciar su artículo de la siguiente forma:
“Un índice sin precedentes en los impagos de hipotecas subprime estadounidenses precipitó una severa crisis financiera global a finales del 2008 […] Sin embargo, la razón fundamental por la que se dejaron de pagar tantas hipotecas es aún desconocida. Este artículo presenta evidencia empírica que muestra que la habilidad para llevar a cabo operaciones matemáticas básicas se asocia negativamente con la propensión que uno tenga a fallar en el pago de la hipoteca”.
Los autores analizaron un conjunto de datos de 339 personas que pidieron sus préstamos entre el 2006 y el 2007 y midieron sus habilidades matemáticas a través de entrevistas telefónicas.
Los autores aclaran: “No encontramos datos que soportaran la hipótesis de que la habilidad matemática tuvo un impacto en el pago de la hipoteca a través de la selección del contrato hipotecario. En cambio, nuestros resultados sugieren que los individuos con escasa habilidad numérica fallaron en sus pagos debido a comportamientos no relacionados con la selección inicial de su contrato”.
PERO NO TODO ES SU CULPA
Por supuesto que otros economistas, como el influyente Nobel Paul Krugman (en ¡Detengamos esta crisis ya!, de editorial Crítica), encuentran explicaciones para la falta de pagos no en los morosos sino en un sistema que se fue desregulando y que permitió que se dieran hipotecas a tasas altas a muchas personas que en principio no podían pagar, pero que benefició ampliamente a quienes las otorgaron.
Otro estudio publicado recientemente, hecho en la Universidad de Nueva York, revela que a latinos y negros se les negaron las hipotecas prime más que a sus equivalentes en nivel socioeconómico blancos, por lo que personas de esos grupos minoritarios fueron los principales receptores de las subprime.
Jacob Faber, autor del estudio que fue presentado en la reunión anual de la American Sociological Association dice, también categórico:
“La ausencia histórica de créditos accesibles en comunidades de color y para solicitantes de color, que creó un vacío en el que crecieron las ofertas subprime, no fue un accidente. Si bien no es posible, con este estudio, identificar responsables de causar perjuicios personales entre los otorgantes (las casas de crédito), las disparidades raciales en el otorgamiento de las (hipotecas) subprime son, sin embargo, parte de una larga trayectoria estructural de despojo basada en la raza”.
Faber analizó datos de 8,886 instituciones de crédito e incluyó 3 millones 819,923 solicitudes, de las cuales 41.63% fue denegado, 52.97% fue aprobado a tasa prime y 5.40% aprobado con tasa subprime (con una tasa de interés tres o más puntos por encima de la tasa de referencia de los bonos del tesoro).
Haya sido la codicia (y la habilidad matemática) de las casas de crédito o la impericia de los morosos lo que realmente precipitó la crisis, de lo que no cabe duda es de que la educación matemática es fundamental.
Tomado del Economista con fines académicos

domingo, septiembre 01, 2013

Las plantas usan las matemáticas para sobrevivir

Las plantas saben contar. Tienen una capacidad incorporada para las matemáticas, que las ayuda a regular las reservas de alimentos durante la noche.
Científicos en Reino Unido dijeron estar "sorprendidos" de encontrar un ejemplo de un cálculo aritmético tan sofisticado en biología.
Las aves podrían utilizar los mismos métodos para preservar los niveles de grasa durante la migración.Modelos matemáticos muestran que la cantidad de almidón consumido durante la noche se calcula a través de una división en un proceso que involucra productos químicos de las hojas, de acuerdo a un reporte de un equipo del John Innes Centre en la publicación e-Life.
Los científicos estudiaron la planta Arabidopsis, considerada una planta modelo para experimentos.

"Asombrados"

"Esto no es una prueba de la inteligencia de una planta. Simplemente sugiere que las plantas tienen un mecanismo diseñado para regular automáticamente la velocidad con la que queman carbohidratos en la noche. Las plantas no hacen matemáticas voluntariamente y con un propósito en mente, como lo hacemos nosotros"
Dr. Richard Buggs de Queen Mary, Universidad de Londres
Durante la noche, cuando la planta no puede utilizar la energía de la luz solar para convertir el dióxido de carbono en azúcares y almidón, debe regular sus reservas de almidón para asegurar que duren hasta el amanecer.
Los experimentos, realizados por científicos del Centro John Innes, en Norwich (este de Inglaterra), muestran que para ajustar su consumo de almidón de manera tan precisa la planta debe realizar un cálculo matemático: una división aritmética.
"Están haciendo realmente matemáticas de una manera simple y química: eso es increíble, a los científicos nos sorprendió ver eso", le dijo a la BBC la encargada del estudio, la profesora Alison Smith.
Los científicos usaron modelos matemáticos para investigar cómo una división puede llevarse a cabo dentro de una planta.
Durante la noche, los mecanismos dentro de la hoja miden la cantidad de almidón. Y la información sobre el tiempo proviene de un reloj interno, similar al del reloj biológico del cuerpo humano.

"Cálculo sofisticado"

Los investigadores sugirieron que el proceso está mediado por las concentraciones de dos tipos de moléculas, llamadas "S" para el almidón y "T" para el tiempo.
"Están haciendo realmente matemáticas de una manera simple y química: eso es increíble, a los científicos nos sorprendió ver eso"
Profesora Alison Smith, encargada del estudio
Si las moléculas de "S" estimulan la descomposición de almidón, mientras que las moléculas "T" evitan que esto ocurra, entonces la tasa de consumo de almidón se establece por la relación de moléculas "S" a "T". En otras palabras, "S" dividido "T".
"Este es el primer ejemplo concreto en la biología de un cálculo aritmético tan sofisticado", dijo el profesor Martin Howard, del John Innes Centre.
Los científicos creen que mecanismos similares pueden operar en los animales, como las aves que controlan las reservas de grasa durante la migración a larga distancia, o cuando se les priva de alimentos al incubar los huevos.
Al comentar sobre la investigación, el Dr. Richard Buggs de Queen Mary, Universidad de Londres, dijo: "Esto no es una prueba de la inteligencia de una planta. Simplemente sugiere que las plantas tienen un mecanismo diseñado para regular automáticamente la velocidad con la que queman carbohidratos en la noche". "

Las plantas no hacen matemáticas voluntariamente y con un propósito en mente, como lo hacemos nosotros", agregó.
Tomado de BBC.mundo
Escuche este texto acá

sábado, agosto 10, 2013

Matemáticas usadas para combatir al cáncer


Aquí hay una buena razón para prestar atención en la clase de matemáticas. El pasado 14 de jumio de 2013, Nature Communications publicó un artículo realizado por investigadores de Ottawa que describe qué tan avanzado está el modelado matemático que se puede utilizar para combatir el cáncer. La matemática predice cómo diferentes tratamientos y modificaciones genéticas podrían permitir que los virus oncolíticos que matar el cáncer sin dañar las células buenas.

El equipo de los doctores John C. Bell y Mads Kaern, ambos de la Facultad de Medicina en la Universidad de Ottawa, ha encontrado estrategias idóneas de uso de modelos matemáticos avanzados para combatir al cáncer con la mayor eficiencia posible. Las matemáticas predicen cómo diferentes tratamientos y modificaciones genéticas podrían permitir a los virus oncolíticos (virus capaces de matar selectivamente a células cancerosas) superar las defensas naturales que las células cancerosas utilizan para protegerse de las infecciones virales.

Los virus oncolíticos son especiales por su citada capacidad de matar células cancerosas sin dañar a las sanas. Desafortunadamente, el cáncer es una enfermedad muy complicada y variada, por lo que algunos de esos virus funcionan bien en determinadas circunstancias pero no en otras. Como resultado, se han invertido muchos esfuerzos en tratar de modificar del mejor modo posible esos virus para hacerlos más seguros, de tal manera que nunca dañen tejidos sanos y al mismo tiempo sean aún más eficientes en la eliminación de células cancerosas.

Los investigadores de la Universidad de Ottawa en Canadá, usaron modelación matemática para desarrollar estrategias que hagan a las células cancerosas tan vulnerables a la infección de esos virus como sea posible, con ese resultado tan buscado de que esos virus exterminen con eficiencia a las células cancerosas pero sin afectar a las células sanas.

Mediante el uso de estos modelos matemáticos para predecir cómo cada modificación en esos virus repercutiría en las células normales y en las cancerosas, es factible, tal como estos investigadores han demostrado, encontrar "atajos" en diversas líneas de investigación, ayudando así a la comunidad científica a acelerar el proceso de investigación y descubrimientos.

Bell y Kaern establecieron un modelo matemático que describe un ciclo de infección, incluyendo la forma en que un virus se replica, se disemina y activa los mecanismos de defensa celular. A partir de ahí, estos científicos usaron su conocimiento acerca de las diferencias fisiológicas clave entre las células normales y las cancerosas para identificar cómo la modificación del genoma de los virus podría contrarrestar las defensas antivirales de las células cancerosas.

Las simulaciones del modelo fueron notablemente acertadas, mostrando la eficiencia de las modificaciones virales identificadas para erradicar el cáncer en un modelo de la enfermedad en ratones.

Esta prometedora línea de investigación ofrece muchas perspectivas nuevas. Apenas se han dado los primeros pasos por ella, al trabajar sobre un tipo específico de células cancerosas. Los científicos investigarán ahora otros tipos de células tumorales malignas bajo los mismos planteamientos básicos, a fin de acelerar los avances que permitan perfeccionar el ataque mediante virus contra las células cancerosas.

Fragmentos tomados de Noticias de la ciencia

sábado, abril 20, 2013

Premio Abel 2013 para Pierre Deligne, hacedor de puentes entre islas matemáticas

La Academia Noruega de Ciencias y Letras ha concedido el premio Abel al matemático belga Pierre Deligne, reconocido por sus colegas como un innovador arquitecto de puentes entre las distintas áreas de las matemáticas, puentes que revelan nexos profundos entre islas del conocimiento previamente percibidas como compartimentos estancos. Deligne trabaja actualmente en el Instituto de Estudios Avanzados de Princeton.

El galardón, a menudo referido como el Nobel de las matemáticas, reconoce las “contribuciones seminales” de Deligne a la geometría algebraica, que a su vez tuvieron un “impacto transformador en la teoría de números” y otros campos relacionados. “Sus poderosos conceptos, ideas, resultados y métodos”, sigue reconociendo la Academia, “siguen influyendo en el desarrollo de la geometría algebraica, y de las matemáticas en su conjunto”. La dotación del premio es de unos 800.000 euros, y el matemático belga lo recibirá el 21 de mayo del rey Harald de Noruega.

“Deligne inició su carrera en Bélgica”, comenta el director del ICMAT en Madrid, Manuel de León, “pero como les suele pasar a los medallistas Fields europeos, acabó en Princeton; los americanos se los llevan”. El premio Abel reconoce las contribuciones “de extraordinaria profundidad e influencia” a las ciencias matemáticas, y se concede desde 2003. La medalla Fields, que también se considera a veces el Nobel de las matemáticas, intenta más bien inyectar estímulo a los matemáticos jóvenes, explica De León.

El matemático José Ignacio Burgos, también investigador del ICMAT y muy familiarizado con las aportaciones de Deligne, explica que el premiado no sólo tendió nexos creativos para derribar algunas de las “fronteras internas” de las matemáticas (como la que separa la geometría del álgebra), sino también otras fronteras externas, con implicaciones en la física teórica.

“La geometría algebraica tuvo en principio unos objetivos simples”, dice Burgos. “Se trataba de saber qué figuras geométricas pueden ser soluciones de las ecuaciones polinomiales; pero esta materia ha alcanzado con el tiempo un grado de sofisticación soberbio, y subyace a la teoría de cuerdas de la física teórica”.La teoría de cuerdas es uno de los modelos con que los físicos intentan unificar la mecánica cuántica, que reina en los dominios de lo muy pequeño, con la relatividad general, que predomina a las escalas planetarias y cósmicas.

“Pierre Deligne es indisputablemente uno de los más grandes matemáticos del mundo”, sostiene sir Williams Timothy Gowers –conocido para la ciencia como W. T. Gowers—, profesor del departamento de matemática pura de la Universidad de Cambridge y medallista Fields. “Aunque uno nunca sabe quién puede ganar el premio Abel de un año dado, era virtualmente inevitable que Deligne se lo iba a llevar a su debido tiempo, así que el anuncio de hoy tiene tan poco de sorpresa como lo pueda tener un anuncio de este tipo”. Como verán, la prosa de W. T. Gowers tiene la precisión cortante de una ecuación polinómica.

Tomado de El País

viernes, febrero 22, 2013

Reproducen en el laboratorio el comportamiento estadístico de los terremotos

Investigadores de la Universidad de Barcelona publican en Physical Review Letters distintos experimentos en el laboratorio con materiales heterogéneos para encontrar modelos que describan el comportamiento de los terremotos.


La fractura mecánica de los materiales es un fenómeno complejo asociado a muchos accidentes y desastres naturales, que van desde la ruptura de pequeños dispositivos hasta los terremotos.
En un estudio liderado por investigadores de la Universidad de Barcelona, y publicado en la revista Physical Review Letters, se ha utilizado un material que, sometido a compresión, permite reproducir las cuatro principales leyes estadísticas de recurrencia sísmica: la ley de Gutenberg-Richter, la ley de Omori, la distribución de pausas entre sismos y la ley de productividad.
El trabajo ha sido dirigido por el investigador Eduard Vives, de la Facultad de Física de la Universidad de Barcelona, y en él han participado investigadores del Centro de Investigación Matemática (CERCA - Generalitat de Catalunya), de la Universidad de Cambridge, la Universidad de Viena y el Instituto Potosino de Investigación Científica y Tecnológica (México).
"El experimento simula una falla nueva que empezara desde cero"
El material, que se ha estudiado mediante un dispositivo desarrollado por el taller mecánico de los Centros Científicos y Tecnológicos de la UB, es un tipo de vidrio altamente poroso (40 % de porosidad), diseñado para aplicaciones industriales, denominado Vycor®. La muestra, de una medida de 5 milímetros, se introduce entre dos placas y se comprime verticalmente aplicando un peso que aumenta con el tiempo de manera lineal. En las placas de compresión se sitúan unos sensores de emisión acústica, que serían el equivalente a los sismógrafos, que miden ondas acústicas ultrasonoras y que permiten detectar las fracturas en la muestra.
"El experimento que hemos llevado a cabo simula una falla nueva que empezara desde cero", explica el investigador de la UB Eduard Vives. "De este modo –continúa–, hemos podido observar la evolución temporal que tendría, que en el laboratorio es de unas horas y en los terremotos equivaldría a miles de años".
En sismología se estudian los efectos estadísticos espaciales a partir de datos de zonas con mucha actividad sísmica, como por ejemplo California, y de poca actividad. Según el investigador, "esta simetría en el espacio y el tiempo nos lleva a pensar que es posible que los terremotos se comporten siguiendo algún tipo de criticidad autoorganizada –tal y como apuntan algunas teorías–, y si se pudiera demostrar, sería un gran avance por la posibilidad de aplicar teorías ya existentes para este tipo de sistemas. 
La respuesta del material ha mostrado que sigue las cuatro leyes estadísticas principales de la sismología
Anteriormente, distintos trabajos han intentado establecer comparaciones entre terremotos y fracturas de materiales en el laboratorio, utilizando principalmente rocas naturales, pero los resultados o bien han sido incompletos o solamente han reproducido alguna de las propiedades de los terremotos. "Este material, en cambio, permite hacer experimentos controlando distintos parámetros, como la fuerza o la velocidad", concluye Vives. 
Cuatro leyes estadísticas de la sismología 
La respuesta del material ha mostrado que sigue las cuatro leyes estadísticas principales de la sismología. Por una parte, la energía detectada mediante las emisiones acústicas varía de acuerdo con la ley de Gutenberg-Richter, que relaciona el número de terremotos en función de la energía radiada y que decae según una ley de potencias. 
Para tener una idea de la diferencia de escala, la energía emitida por un gran terremoto (de magnitud 8) es equivalente a 1.000 bombas de Hiroshima, mientras que la máxima energía medida por la fractura del material en el laboratorio equivale a la energía de fisión de un único átomo de uranio. La diferencia de magnitud es equivalente, aproximadamente, a un factor de 1027.  
En otro experimento con el mismo material se ha estudiado el número de réplicas después de que se produzca una fractura mayor y se ha visto que decae en el tiempo de acuerdo con la llamada ley de Omori para terremotos. "La diferencia es que el tiempo máximo de réplicas en nuestro caso es de unas cuantas horas, mientras que en los seísmos dura más de cien años"», apunta el investigador de la UB. 
Una tercera ley estadística es la de distribución de pausas entre seísmos (waiting times), que relaciona el tiempo entre dos eventos consecutivos. En este caso, se han comparado los resultados obtenidos en el laboratorio con los de la serie de terremotos de California, una de las más completas, y "teniendo en cuenta la diferencia de escalas, la concordancia es muy alta", afirma Vives.
Finalmente, también se ha podido comprobar la similitud con la ley de productividad, que muestra como el número de réplicas después de una fractura mayor crece en función de la energía de este evento principal.
Tomado de Sinc (Servicio de Información y Noticias Científicas) Ver artículo original acá



domingo, octubre 14, 2012

Premio Abel 2012 para el matemático Endre Szemerédi, por sus aportes a la computación


El Premio Abel de este año 2012,ha recaído en Endre Szemerédi(Budapest, 1940), del Instituto de Matemáticas Aplicadas Rényi Alfré (Hungría), según ha anunciado la Academia Noruega de las Ciencias y las Letras. El galardón reconoce las contribuciones a la informática y teorías de números de este pionero en las ciencias de la computación.

Szemerédi es investigador del Instituto de Matemáticas Aplicadas Rényi Alfré (Academia Húngara de Ciencias, Budapest) y catedrático del departamento de Ciencias de la Computación de Rutgers en la Universidad Estatal de Nueva Jersey (EEUU).

El galardón, considerado el nobel de las matemáticas y dotado con casi 800.000 euros, reconoce “sus contribuciones fundamentales a las matemáticas discretas (estudian estructuras que forman la base de la informática teórica y de la teoría de la información) y el profundo y duradero impacto de sus aportaciones sobre la teoría aditiva de números y la teoría ergódica (con medida 0 o 1)”.

El matemático húngaro fue uno de los primeros en darse cuenta de la importancia de la teoría en las ciencias de la computación. También ha hecho aportaciones relevantes a otras áreas de la matemática, con la publicación de más de 200 trabajos científicos.

El premio Abel, instituido en 2003, reconoce contribuciones “de extraordinaria profundidad e influencia en las ciencias matemáticas”. Endre Szemerédi recogerá el galardón en una ceremonia presidida por el Rey Harald el próximo 22 de mayo.

Matemáticas discretas e imaginación extraordinaria

La carrera de Endre Szemerédi como matemático empezó tarde. Cursó un año en la Facultad de Medicina y trabajó en una fábrica, antes de pasar finalmente a las matemáticas. Estudió en la Universidad Eötvös Loránd de Budapest, donde obtuvo el grado Master of Science (M.Sc.) en 1965. Después, se incorporó a la Universidad Estatal de Moscú, donde realizó el doctorado en 1970 bajo la dirección de Israel M. Gelfand.

Su excepcional talento matemático fue descubierto por su mentor, Paul Erdös, cuando era joven estudiante en Budapest. Szemerédi estuvo a la altura de las expectativas de su maestro, y demostró varios teoremas fundamentales de gran importancia. Muchos de sus resultados han generado investigación para la posteridad y puesto los cimientos de nuevas orientaciones en matemáticas.

En 2010, con motivo de su 70 cumpleaños, el Instituto de Matemáticas Aplicadas Rényi Alfréd y la Sociedad Matemática János Bolyai organizaron en Budapest un congreso para celebrar su éxito. Según el libro An Irregular Mind, publicado antes del congreso, “Szemerédi tiene un ‘intelecto fuera de lo común’, su cerebro está configurado de forma diferente al de la mayoría de los matemáticos. Somos muchos quienes admiramos su manera única de pensar, su extraordinaria imaginación”.

El investigador ha revolucionado las matemáticas discretas mediante la introducción de técnicas originales e ingeniosas y la resolución de numerosos problemas fundamentales. Esta parte de las matemáticas estudia estructuras como los grafos, las sucesiones, las permutaciones y las configuraciones geométricas. Las redes de comunicación, como internet, pueden ser descritas y analizadas gracias a las herramientas de la teoría de grafos, mientras que el diseño de algoritmos informáticos se basa esencialmente en el conocimiento de las matemáticas discretas.

Los trabajos de Szemerédi han llevado la combinatoria al centro de la escena de las matemáticas, revelando sus estrechos vínculos con campos como la teoría aditiva de números, la teoría ergódica, la informática teórica y la geometría de incidencia.

En 1975, Endre Szemerédi atrajo por vez primera la atención de muchos matemáticos gracias a su solución de la famosa conjetura de Erdős-Turán, demostrando que en todo conjunto de enteros con densidad positiva existen progresiones aritméticas arbitrariamente largas. Esto era sorprendente ya que, aun en el supuesto de progresiones de longitudes 3 o 4, los esfuerzos exigidos anteriormente, tanto de Klaus Roth como del propio Szemerédi, habían sido enormes.

La prueba de Szemerédi era una obra maestra de razonamiento combinatorio, y se reconoció inmediatamente su excepcional profundidad e importancia. Un paso clave en la prueba, actualmente conocida como el Lema de Regularidad de Szemerédi, es una clasificación estructural de los grafos grandes. Con el tiempo, este lema se ha convertido en una herramienta esencial tanto para la teoría de grafos como para la informática teórica, permitiendo resolver problemas mayores de ensayo de propiedades, y dando nacimiento a la teoría de los grafos límite.

Aparte de su impacto en las matemáticas discretas y la teoría aditiva de números, el teorema de Szemerédi inspiró a Hillel Furstenberg a desarrollar la teoría ergódica en nuevas direcciones. Furstenberg concibió una nueva demostración del teorema de Szemerédi, al establecer el teorema de recurrencia múltiple en la teoría ergódica, con lo que, inesperadamente, se vinculaban cuestiones de matemáticas discretas a la teoría de sistemas dinámicos. Esta conexión fundamental condujo a numerosos desarrollos adicionales, tales como el teorema de Green-Tao, que afirma la existencia de progresiones aritméticas arbitrariamente largas de números primos.

Szemerédi ha hecho muchas más aportaciones perspicaces, esenciales e influyentes, tanto en materia de matemáticas discretas como en informática teórica. Entre los ejemplos de matemáticas discretas se incluyen el teorema de Szemerédi-Trotter, el método semialeatorio de Ajtai-Komlós-Szemerédi, el teorema del producto-suma de Erdős-Szemerédi y el lema de Balog-Szemerédi-Gowers. Entre los ejemplos de informática teórica se incluyen la red de ordenación de Ajtai-Komlós-Szemerédi, el esquema de hashing de Fredman-Komlós-Szemerédi, y el teorema de Paul-Pippenger-Szemerédi-Trotter, que separa el tiempo lineal determinista del no-determinista.

Tomado de http://www.agenciasinc.es/Noticias/Premio-Abel-2012-para-el-matematico-Endre-Szemeredi-teorico-de-la-computacion

domingo, marzo 25, 2012

Un revolucionario de las Matemáticas

Este año se conmemora el 200 aniversario del fallecimiento de Évariste Galois, un genio que la noche antes de morir dejó escrito en una carta su importante legado.

Un gran concepto de sí mismo, un espíritu revolucionario y una vida personal con tintes novelescos que acabó en un duelo al amanecer  bien pueden encajar con el carácter de un librepensador o un filósofo. Muy pocos pensarían en un matemático, pero la vida de Évariste Galois (Bourg-la-Reine, 1811) poco o nada se ciñe a los cánones tradicionales. Murió sin haber cumplido los 21 años y, aún así, casi todos los expertos consideran que "cambió de forma radical las matemáticas".

Este año se celebra el 'Año Galois' para conmemorar el 200 aniversario de su nacimiento y, por eso, la Facultad de Ciencia y Tecnología de la Universidad del País Vasco (UPV) ha organizado actos para dar a conocer la importante 'herencia' de este genio precoz. La todavía ministra de Ciencia e Innovación, Cristina Garmendia, recordó al matemático francés en la última entrega de los premios nacionales de investigación. "Su historia nos permite reivindicar para la ciencia dos valores, el apasionamiento y la aventura, a los que la profesión investigadora no debe renunciar", dijo.

Como otros grandes científicos, el mérito de Galois no se reconoció hasta años después de su muerte. Y es que su desorganización y su falta de método provocaron que las dos memorias que envió en vida a la Academia de las Ciencias de Francia fuesen rechazadas por incomprensibles.

Galois no empezó a estudiar hasta los 12 años, cuando se matriculó en el prestigioso liceo Louis-Le-Grand de París, en cuyas aulas también se han formado Moliere y Voltaire, además de Georges Pompidou, Valery Giscard d'Estaing y Jacques Chirac. Sus profesores no le consideraban un buen estudiante, ya que sólo destacaba en las asignaturas que le interesaban. Al final, le obligaron a repetir curso y esto cambió su vida. En su camino, se cruzó un buen maestro de matemáticas, que le dio lo que ahora se puede considerar un manual universitario. "Cuentan que se lo leyó en dos días y desde entonces no hizo más que matemáticas. Aún así, sus profesores se quejaban de que no tenía método alguno", relata Fernando Corbalán, catedrático de Matemáticas y autor del libro 'Galois. Revolución y matemáticas'.

"Lo que tenía era un gran concepto de si mismo". Por eso, se presentó a la prueba de acceso a la Escuela Politécnica sin "prepararlo" y, obviamente, suspendió. Un año después, volvió a repetir el examen y, como pensaba que le estaban tomando el pelo con las preguntas tan simples que le estaban realizando, lanzó el borrador a los miembros del tribunal que le evaluaban y abandonó el aula.

 "No tengo tiempo"
Évariste Galois nació en pleno esplendor revolucionario francés y no se mantuvo al margen. Se enroló en las filas del grupo radical Los Amigos del Pueblo en 1831 y, en tres ocasiones, fue encarcelado por motivos políticos. En una de sus estancias en prisión, se declaró una epidemia de peste y le trasladaron a una casa de salud. Allí conoció a Stéphanie-Félicité Poterin. "Galois pensaba que tenía una relación con ella, pero yo creo que ella pasaba bastante de él", bromea Corbalán.

Su prematura muerte llegó en un duelo al amanecer  de mayo de 1832. Muchos creen que fue motivado por amor; algunos señalan que fue una encerrona política; y otros,  consideran que fue "un suicidio para tratar de favorecer la sublevación" de sus correligionarios.

La vida de Galois nunca fue convencional y su final tampoco. La noche anterior al duelo escribió tres cartas: a sus camaradas revolucionarios, a sus más allegados y a Auguste Chevalier. En esta última, resume su teoría sobre ecuaciones, funciones integrales y métodos resolubles. Nunca se sabrá si sus descubrimientos fueron más amplios, ya que al borde del manuscrito dejó escrito un angustioso: "No tengo tiempo".

Uno de los últimos deseos de Galois fue que Chevalier acudiese a la Academia de las Ciencias para que reconociesen la importancia de sus estudios. Doce años después de su muerte, alguien descubrió sus escritos, los entendió y los puso a la disposición de la comunidad científica. Corbalán asegura que "los entendidos no le comprendieron en vida porque suponía un cambio total de visión, porque no quiso estancarse en lo que existía" y aconseja a los "nuevos genios" que sigan este ejemplo, porque "a veces el camino correcto no nos lleva al adecuado".

martes, agosto 30, 2011

La fórmula de Google es uno de los secretos mejor guardados en Internet

Móviles, ordenadores, redes sociales... nos movemos constantemente entre operaciones matemáticas. Una ciencia que encierra todavía algunos curiosos secretos como el algoritmo que calcula las búsquedas de Google.  


Inspiración, creación e intuición. Son algunos de los ingredientes de las matemáticas, esa ciencia que nos acompaña en nuestro día a día, ya sea en el uso del móvil o cuando nos conectamos a Internet para chatear con los amigos. Una ciencia que sigue planteando retos a los investigadores, como los "Problemas del milenio", cuya resolución sería premiada, según anunció el Clay Mathematics Institute en el año 2000, con la suma de un millón de dólares cada uno (y a día de hoy, únicamente uno de estos problemas ha sido resuelto). Las matemáticas, una ciencia de la que dependemos sin duda para el desarrollo y evolución de las nuevas tecnologías.

 

A continuación, la entrevista a Carlos José Navas. Profesor de Finanzas de la UMH y miembro de la Real Sociedad Matemática Española por parte de un periódico de La Provincia de Alicante (España).

¿Tiene Google una fórmula secreta como la Coca-Cola?
Todos los que usamos Google (que somos la práctica totalidad de los internautas) sabemos lo importante que es aparecer entre las primeras posiciones al realizar la búsqueda. La forma en la que Google determina qué enlace debe aparecer antes de otro es mediante una familia de algoritmos llamada PageRank, que fue la gran aportación de la Tesis Doctoral de los fundadores de Google, Larry Page y Sergey Brin, en la Universidad de Stanford. Simplificado, PageRank funciona como un índice de popularidad basado en enlaces: cuantos más enlaces tiene una página desde otras, mayor es su "PageRank". El argoritmo original es conocido (puede verse por ejemplo en http://es.wikipedia.org/wiki/PageRank), pero el que funciona en la actualidad sí, es un secreto como el de la Coca-Cola y uno de los mejor guardados en Internet. Google lo modifica cada cierto tiempo para hacer frente a los intentos de manipular los resultados (la última actualización fue en enero de este año: 2011).

¿Y hasta qué punto dependemos de las matemáticas con las nuevas tecnologías?
Toda la ciencia informática está basada en matemáticas. Lo que nosotros percibimos como una web, un email, un Tweet, una foto en Facebook... detrás son variables, valores, funciones, operaciones lógicas...y en última instancia, al final no son más que 0s y 1s interpretados por los ordenadores.

¿Ocurre de igual modo cuando utilizamos el teléfono móvil?
Sí y son fundamentales. Por poner un simple ejemplo: al realizar una llamada, el teléfono lo que hace es enviar una señal electrónica que transmite una versión digitalizada de lo que estamos diciendo. Para esta trasmisión es fundamental dos cosas: comprimir los datos, para que lleguen de forma casi inmediata al receptor, y corregir los posibles errores, para que lo que llegue sea realmente lo que decimos. Pues bien, ambas labores se basan en algoritmos matemáticos.

¿Es tan difícil de adquirir, aprender o dominar un lenguaje de programación para el ordenador? ¿Hay uno o muchos como ocurre con los idiomas?
Hay muchos, y con la explosión de la web por un lado y de los dispositivos móviles por otro muchos desarrolladores están aprendiendo nuevos lenguajes para adentrarse en esos mercados. Yo confieso que es uno de mis retos pendientes.

¿Qué problemas obsesionan en estos momentos al mundo matemático? ¿Son los seis "Problemas del milenio" como señalan algunos expertos?
Los seis siguen estando ahí, desde luego, pero no creo que sean una obsesión más que para aquellas personas que hayan decidido dedicarse a tratar de encontrarles solución. Es en la matemática aplicada, por ejemplo, en cómo afrontar un problema que jamás se había dado hasta hace 30 años que es el disponer de una cantidad masiva de datos e información y cómo tratarla, donde yo veo más campo para el estudio y que surjan cosas nuevas.

¿Están los jóvenes cada vez más distantes de las matemáticas? ¿Hay curiosidad por los retos difíciles?
Siempre que surge la pregunta sobre los jóvenes, yo recuerdo que alguien me dijo que un viejo profesor que se quejaba de que las nuevas generaciones estaban echadas a perder... y que ese viejo profesor era Aristóteles... no sé si será cierta, pero, se "non è vero, è ben trovato". La revolución de Internet está encabezada por programadores con un dominio excelente de las matemáticas.

¿Depende de las matemáticas el futuro de Internet?
Sí, sin duda. Las soluciones a los problemas de almacenamiento de datos, de velocidades de conexión, de ampliar las posibilidades de la red... todos, en su esencia, son problemas matemáticos. También ocurre con los videojuegos y la fotografía que, como la astronomía, tiene una base puramente matemática, tanto la óptica como la digital.

lunes, agosto 29, 2011

Niño de trece años puede revolucionar la energía solar

El adolescente ha aplicado un famoso modelo matemático del siglo XIII y se ha inspirado en la disposición de las hojas de los árboles para cambiar la orientación de las células fotovoltaicas 
El niño Aidan Dwyer ha conseguido aumentar hasta en un 50% el redimiento de las células fotovoltaicas  
Algunos descubrimientos trascendentales para la ciencia tienen lugar de forma casual. Quizás la historia de Newton, la manzana que cae y el descubrimiento de la forma en que funciona la gravedad sea apócrifa, pero el descubrimiento de Aidan Dwyer es absolutamente real. 

Este estudiante de solo 13 años de edad, paseando por un bosque, descubrió que si se orientan las celdas fotovoltaicas respecto del Sol de una determinada manera, su rendimiento puede mejorar entre un 20% y 50%. Parece que la disposición de las ramas de los árboles, relacionada con la serie de números descrita en el siglo XIII por el matemático italiano Leonardo de Pisa (también conocido como Fibonacci) no es causal, y permite maximizar el aprovechamiento de la energía solar. 


Distribución de los paneles
Hay historias relacionadas con la ciencia que parecen extraídas del argumento de una buena novela, y esta es una de ellas. Un joven estudiante estadounidense de séptimo grado llamado Aidan Dwyer estaba dando un paseo por los bosques de las Catskill Mountains, al norte del estado de Nueva York, cuando notó que las ramas desnudas de los árboles no estaban orientadas al azar. Esto es algo que generalmente pasa desapercibido para el 99% de las personas, y seguramente para prácticamente todos los niños. Pero Aidan lo notó, y después de investigar un poco “descubrió” algo de lo que ya se ha hablado en NeoTeo: la pauta de distribución de las hojas en las ramas y de las ramas en el tronco de muchos árboles siguen la denominada Sucesión de Fibonacci, una serie de números descrita en el siglo XIII por el matemático italiano Leonardo de Pisa.
En efecto, desde hace mucho se sabe que la naturaleza utiliza con frecuencia esta serie de números en sus “diseños”, en la que cada término es la suma de los dos anteriores (1, 1, 2, 3, 5, 8, 13, 21, 34... o Fn = Fn-1 + Fn-2). Desde la distribución de las hojas de una lechuga hasta el número de conejos que podemos esperar tener después de una determinada cantidad de generaciones, pasando por número de individuos existente en cada generación de ancestros de un zángano, pueden explicarse a partir de esta serie. Pero esto es algo que la mayoría de los niños de 13 años suelen ignorar.
Aidan Dwyer lo notó, y tuvo la genial idea de relacionar este hecho con la “dependencia” de la energía solar que tienen los árboles. Puso manos a la obra, y construyó dos pequeños captadores solares compuestos por un puñado de células fotovoltaicas para ver si la forma en que las ramas crecían en los árboles tenía realmente alguna influencia en la cantidad de luz que cada hoja recibía. Uno de los modelos agrupaba los pequeños paneles siguiendo una distribución plana, igual a la que normalmente utilizamos para acomodar las células sobre cualquier techo. El segundo reproducía el patrón que el niño había observado en las ramas de los árboles.

domingo, marzo 20, 2011

Resuelto el problema de Nash

DOS JÓVENES MATEMÁTICOS ESPAÑOLES RESUELVEN UN PROBLEMA PLANTEADO POR JOHN NASH EN LOS AÑOS SESENTA. Las técnicas empleadas sorprenden por su sencillez y por su novedoso enfoque.
Publicado por Instituto de Ciencias Matemáticas el 14 marzo, 2011 

Imagen de Película: Una mente brillante

El famoso matemático John Nash, cuya vida ha inspirado la película Una mente maravillosa, enunció a mediados de los años sesenta –durante uno de los periodos en que su brillantez matemática dejaba en segundo plano a su enfermedad mental– una conjetura relacionada con un concepto que los matemáticos llaman ‘singularidad’. Ahora, dos jóvenes matemáticos españoles, Javier Fernández de Bobadilla y María Pe Pereira, la han resuelto. Su trabajo está siendo toda una sorpresa para los especialistas en el problema de Nash. Fernández de Bobadilla y Pe Pereira han demostrado la conjetura con un abordaje muy novedoso y en sólo tres años de trabajo. 

John Nash
El problema de Nash es de matemáticas ‘puras’, es decir, no tiene aplicaciones fuera de la propia matemática. Al menos, no a corto plazo: “Ahora entendemos algo importante que antes no entendíamos, y eso acabará teniendo aplicaciones”,  y “Un matemático lanza una conjetura cuando intuye que algo es cierto pero no lo puede demostrar; el esfuerzo por demostrar las conjeturas hace avanzar las matemáticas, y las matemáticas no son sino la forma más rigurosa de pensamiento”, dice Fernández de Bobadilla.


Como ocurre con muchos problemas matemáticos, los resultados han llegado tras tres años de intenso trabajo. La teoría de singularidades es un tema transversal donde convergen técnicas de muchas áreas de las matemáticas, como la geometría algebraica, la topología, la geometría diferencial, el análisis. 

METERSE EN UNA ‘SINGULARIDAD’
¿Qué fue lo que Nash conjeturó a principios de los años sesenta pero no pudo demostrar? La intuición de este matemático, premio Nobel de Economía en 1994 y que a sus 82 años sigue en activo en la Universidad de Princeton, tiene que ver con la comprensión de las ‘singularidades’, un concepto matemático que sí se percibe en el mundo físico. Los fenómenos en que aparecen cambios instantáneos de comportamiento tienen singularidades: la formación de tornados en la atmósfera, cuando un metal se rompe al ser sometido a temperaturas muy altas o cuando el espacio-tiempo se curva tanto que se forma un agujero negro. 

Pero el tipo de singularidades de las que trata el problema de Nash proceden de la geometría y se visualizan con un ejemplo más modesto: si se retuerce completamente un cilindro, el punto entre los dos conos resultantes es una singularidad. Y es que todas las singularidades se pueden imaginar a partir de un objeto liso en que una parte se comprime dando lugar a la singularidad –en el ejemplo anterior, una de las circunferencias que rodea al cilindro se estaría comprimiendo en el vértice de los conos-. Este conjunto que se comprime o colapsa es lo que los matemáticos llaman lugar excepcional

La pregunta es: ¿Qué puede llegar a saberse de esa singularidad? ¿Sería posible, por ejemplo, hacer correr la película marcha atrás y deducir cuál es el lugar excepcional que ha sido comprimido para generarla? Los matemáticos, y en concreto los llamados singularistas, investigan intensamente en estas cuestiones desde la primera mitad del siglo XX.
Así, los singularistas han aprendido, por ejemplo, a extraer información a partir de las posibles trayectorias de las partículas que atraviesan una singularidad –o, lo que es lo mismo, de los posibles recorridos de una canica microscópica rodando por la pared interna del cilindro retorcido–. Estas trayectorias se agrupan en familias según su comportamiento.


Este resultado es un magnífico exponente de este hecho. La idea de Nash fue que existe una determinada relación entre la forma del lugar excepcional y las familias de trayectorias que atraviesan la singularidad. Afirmó que en objetos de dos dimensiones, es decir, en superficies, hay una correspondencia perfecta entre la forma del lugar excepcional y las familias de trayectorias. Nash también sugirió estudiar esta relación en dimensiones superiores. Shihoko Ishii, del Instituto Tecnológico de Tokio, y János Kollár, de la Universidad de Princeton (EEUU), demostraron en su artículo The Nash problem on arc families of singularities. Duke Math. J. 120, no.3, (2003), 601-620, que la relación descrita por Nash no se da en singularidades de objetos de cuatro o más dimensiones. 


Javier Fernández de Bobadilla, natural de Granada, es un joven matemático de 38 años con una excepcional trayectoria científica. Investigador Científico del Instituto de Ciencias Matemáticas e Investigador Científico del CSIC.  En 2009 consiguió uno de los prestigiosos proyectos (Starting Grants) para jóvenes del European Research Council, titulado Topological, Geometric and Analytical Study of Singularities. “Lo importante en este caso ha sido dar con la idea”, explica “Hemos resuelto el problema de Nash con técnicas sorprendentemente sencillas, casi elementales, aunque por supuesto nos basamos en desarrollos previos de otros investigadores”. 
 
María Pe Pereira, burgalesa de nacimiento, es licenciada en Matemáticas por la Universidad Complutense de Madrid en 2005. Actualmente, becaria en el Instituto Jussieu de París.  Anteriormente había participado en la Olimpiada Internacional de Matemáticas en Taiwan en 1998 representando a España. Actualmente está realizando una estancia de investigación en París financiada por una beca de la Fundación Caja Madrid.   “Desde el punto de vista matemático es un problema muy bonito, con un enunciado sencillo, y que además ha podido ser entendido con técnicas relativamente elementales, lo que es una suerte para un matemático”, dice María Pe Pereira, a sus 30 años.

Tomado de: MATEMATICALIA: revista digital de divulgación matemática     

domingo, enero 23, 2011

El matemático Donald E. Knuth gana el premio FBBVA por convertir la programación informática en ciencia

La Fundación BBVA ha concedido el premio Fronteras del Conocimiento en la categoría de Tecnologías de la Información y la Comunicación al matemático estadounidense Donald E. Knuth. Según el jurado, el galardonado “sistematizó el diseño del software y estableció los cimientos sobre los que se construyen los programas informáticos actuales”.

 Donald E. Knuth recibe este premio por “hacer de la programación informática una ciencia introduciendo técnicas matemáticas para el análisis riguroso de los algoritmos”, en palabras del jurado.
Knuth sentó las bases de los ‘modernos compiladores’, es decir, los programas que traducen el lenguaje de alto nivel de los programadores al lenguaje binario de los ordenadores.


Donald Knuth. Foto: FBBVA.


Además, es considerado el ‘padre’ del análisis de algoritmos - conjunto de instrucciones que se da a un ordenador para ejecutar una tarea- . “Los algoritmos se encuentran en el centro del mundo digital actual, y subyacen en todo lo que hacemos con un ordenador”, afirman los expertos que conceden el premio.
El libro de Knuth El Arte de Programar Ordenadores está considerado “el trabajo más relevante de la ingeniería informática en su sentido más amplio, abarcando los algoritmos y métodos que se encuentran en el núcleo de la inmensa mayoría de los sistemas informáticos con una claridad y profundidad poco común”.
El premiado es también el creador de los programas tipográficos más usados hoy en día en la edición de textos científicos, TeX y METAFONT, distribuidos en código libre. Son dos lenguajes que “incorporan la estética tipográfica permitiendo a los autores confeccionar documentos con diseño de imprenta”, explica el jurado.
“Todo lo que tiene que ver con los ordenadores hoy me sigue fascinando, y no hay una sola cosa de lo que ha ocurrido que yo hubiera podido predecir hace treinta años”, comentó Knuth.
Entre otros reconocimientos, Knuth ha recibido la Medalla Nacional de la ciencia en EEUU, el Turing Award y el Kyoto Prize. En las dos ediciones anteriores los galardonados en esta categoría fueron el israelí Jacob Ziv y el ingeniero y matemático estadounidense de origen indio Thomas Kailath.
---------------------------------------------
Donald Knuth (1938, Wisconsin) es desde 1993 profesor emérito de la Universidad de Stanford (EEUU), a la que se incorporó como catedrático a los treinta años. En la actualidad con la condición de “profesor emérito”, dedica su tiempo a completar El arte de programar ordenadores, una serie de volúmenes en la que empezó a trabajar en 1962 y de la que se han publicado hasta ahora los tres–en 1968, 1969 y 1973-. Precisamente el volumen 4 A acaba de finalizar su de impresión.
Los Premios Fundación BBVA Fronteras del Conocimiento, creados en 2008 y dotados con 3,2 millones de euros distribuidos en ocho categorías, reconocen la investigación y la creación de excelencia. Sus ocho categorías reflejan los principales retos científicos, tecnológicos, sociales y económicos del presente.
Fuente: SINC (Servicio de Informacion y Noticias Científicas)