English French German Spain Italian Dutch Russian Portuguese Japanese Korean Arabic Chinese Simplified
  • Sidamat

    Software interactivo para el aprendizaje de las matemáticas

  • Edublog

    Acá encontrarás noticias e información relacionada con las matemáticas y el mundo real.

  • MathClubVirtual

    Red de docentes y estudiantes apasionados por las matemáticas

  • Docente de secundaria

    En Institución Educativa Exalumnas de la Presentación Ibagué Col

  • Matemàticas y Tic

    Uso de Excel para el aprendizaje de la estadística

Mostrando entradas con la etiqueta Estadística. Mostrar todas las entradas
Mostrando entradas con la etiqueta Estadística. Mostrar todas las entradas

Estadística: Conceptos básicos

El surgimiento de la estadística como una parte de la aritmética aplicada a problemas poblacionales, y su presencia en todos los medios de difusión masiva y de divulgación científica. Posibilidad de predicciones de base estadística para la toma de decisiones. Términos clave: población, muestra y parámetros, medidas de tendencia central: mediana, moda, promedio.
Conducción: Oski Guzmán.
* Serie: Horizontes. Matemática 1 [2007]
* Canal: Encuentro
* Portal: Conectate





Comparte este artículo en tus redes sociales:

Fermat, Pascal y los inicios de la probabilidad moderna

Desde el porcentaje de que llueva o nieve un día concreto en una zona determinada hasta la idoneidad de apostar o no según la mano de póker que llevemos, pasando por las cuotas a favor o en contra de la victoria de un cierto equipo y muchos otros fenómenos físicos o económicos. Gran parte de los datos que nos encontramos a diario en muchos ámbitos están basados en el cálculo de probabilidades.
En 1933, Andréi Kolmogórov establecía la que se conoce como concepción axiomática de probabilidad, dando rigor de esta forma a muchos de los estudios que se habían realizado con anterioridad en esta rama y comenzando así el estudio moderno de la teoría de probabilidades. Pero el estudio de la probabilidad comenzó mucho antes, y se puede decir que los precursores de esta teoría fueron Pierre de Fermat y Blaise Pascal.
Nos remontamos al siglo XVII. La teoría de números da sus primeros pasos como rama de las matemáticas gracias a Pierre de Fermat, y la geometría analítica hace su aparición en las matemáticas apoyada en los estudios del propio Fermat y de René Descartes. Al margen de todo esto, la alta sociedad francesa se entretiene con juegos de azar.




Pierre de Fermat
Pierre de Fermat WIKIPEDIA


Uno de sus integrantes, Antoine Gombaud, Caballero de Méré, era un experto jugador (aparte de escritor y pensador). A pesar de su sabiduría en lo que a juegos de azar se refería, había dos que le creaban dudas, que no entendía completamente. Por ello, decidió planteárselos a Pascal.
El primero que vamos a comentar es el siguiente. Supongamos que tiramos un dado cuatro veces y pensemos en la probabilidad de que salga al menos un 6 en alguna de las tiradas (da igual en cuál de ellas). La cuestión es la siguiente: ¿nos conviene apostar a que saldrá al menos un 6? Veámoslo con matemáticas.
Vamos a calcular la probabilidad de que no salga ningún 6 en ninguna de las tiradas, y el resultado se lo restaremos a 1, obteniendo así la probabilidad de que salga al menos un 6.
La probabilidad de que no salga un 6 en una tirada es 5/6 (cinco valores que no son 6 entre seis valores posibles), y como tiramos cuatro veces (y las tiradas son independientes), la probabilidad de que no salga ningún 6 en esas cuatro tiradas es:
(5/6) · (5/6) · (5/6) · (5/6) = (5/6)4
Ahora la probabilidad de que salga al menos un 6 saldrá de restar ese resultado a 1:
P(Al menos un 6) = 1-(5/6)4=0’5177…
Como nos sale un resultado mayor que 0’5, nos conviene apostar a que saldrá al menos un 6 en cuatro tiradas de un dado.
Gombaud sabía que esa apuesta era ligeramente favorable que la contraria (aunque seguro que no hizo los cálculos como hemos mostrado aquí), y a partir de aquí se planteó qué ocurriría al tirar dos dados y esperar que en ambos salga 6 al menos una vez. Su razonamiento fue algo parecido a lo siguiente:
“La probabilidad de sacar 6 en ambos dados (en una tirada) es igual a multiplicar por 1/6 la probabilidad de sacar un 6 con un dado en una tirada. Por tanto, para igualar la situación al problema anterior habría que hacer 4 · 6 = 24 tiradas. Así conseguimos un problema en el que la probabilidad de sacar 6 en ambos dados al menos una vez es la misma que la de sacar un 6 al menos una vez en el caso anterior, por lo que interesa apostar a favor de ese hecho.”




Blaise Pascalpulsa en la foto
Blaise Pascal FLICKR


El caso es que nuestro caballero de Mére, a pesar de que aparentemente la apuesta era favorable, veía que a la larga perdía más veces que ganaba. Vamos, que la apuesta no parecía tan favorable, pero no sabía por qué. ¿Podrías ayudar tú a Antoine? Piénsalo, más adelante daremos la respuesta.
El segundo problema es, bajo mi punto de vista, más interesante. Os pongo en situación:
Imaginemos que dos jugadores A y B juegan con una moneda, tirándola y viendo lo que sale en ella. Si sale cara, A acumula un punto, y si sale cruz lo acumula el jugador B. Ambos han apostado 32 € y gana el jugador que antes llegue a 5 puntos, llevándose entonces todo el dinero (al parecer, el problema trataba de tirar un dado y cada uno había elegido un número concreto, pero para ilustrar el problema nos vale nuestro ejemplo). Por circunstancias que no vienen al caso, hay que interrumpir el juego antes de que uno de los jugadores gane, estando en ese momento el marcador así: A lleva 4 puntos y B lleva 3 puntos. La cuestión es la siguiente: ¿cómo debe repartirse el dinero?
Este problema había sido estudiado anteriormente por Luca Pacioli y por Tartaglia, pero ambos dieron respuestas erróneas. Nuestro caballero de Mére se lo propuso a Pascal, que lo puso en conocimiento de Fermat mediante correspondencia. En esa correspondencia entre estos dos monstruos de las matemáticas se resolvió este problema y, de paso, se creó el germen de la teoría del cálculo de probabilidades.
Pero vayamos al problema en sí. La primera idea, en cierto modo razonable, sería repartir el dinero total, 64 €, en proporción según los puntos que llevan cada uno de ellos en el momento en el que el juego se corta. Como en ese momento A lleva 4 puntos y B lleva 3 puntos, habría que dividir 64 entre 7 y dar 4 partes a A y 3 partes a B…
…el problema es que este razonamiento no da un resultado justo. Por ejemplo, imaginad que sólo se ha hecho una tirada y ha salido cara. Entonces A lleva un punto…y las circunstancias obligan a terminar ahí el juego. Según el razonamiento anterior, A debería llevarse todo el dinero, lo que sería a todas luces injusto.
El reparto más justo (y, por tanto, el correcto) debe ir en función de la probabilidad que tendría cada uno de ganar el juego si éste no se hubiera interrumpido. Vamos a analizar cuáles serían las probabilidades de cada uno y las usaremos después para repartir el dinero correctamente.
Como decíamos, el jugador A lleva 4 puntos y el B lleva 3 puntos, y gana el primero que llegue a 5 puntos. Si en la siguiente tirada hubiera salido una cara, el jugador A llegaría a 5 puntos y, por tanto, ganaría. La probabilidad de que ocurra eso es la probabilidad de que salga cara en una tirada: 1/2.
Si hubiese salido cruz, el jugador B sumaría 4 puntos. Como el A también lleva 4, todavía no ha ganado nadie, por lo que hay que tirar de nuevo. Si en esa segunda tirada sale cara, gana el A, y esto ocurre con probabilidad
(1/2) · (1/2) = 1/4 (el primer 1/2 por la cruz y el segundo por la última cara)
Y si en la segunda tirada sale cruz, gana el jugador B. La probabilidad de que eso ocurra es también
(1/2) · (1/2) = 1/4 (el primer 1/2 por la primera cruz y el segundo por la última cruz)
Analizando estos casos, vemos que la probabilidad de que gane A es:
P(Gana A)=1/2 + 1/4 = 3/4
Y la probabilidad de que el ganador sea B es:
P(Gana B)=1/4
Entonces debemos dividir el dinero total en cuatro partes y darle tres a A y una a B. Por tanto, al jugador A le corresponden 48 € y al B le deben dar 16 €.
Volvamos ahora al primer problema. ¿Lo has resuelto? Razonando como en el caso de una sola tirada de dado seguro que sí. Pero por si acaso vamos a comentarlo.
Vamos a calcular la probabilidad de que no salga el resultado (6,6), y después, como antes, le restaremos esa probabilidad a 1. Como el resultado (6,6) puede darse solamente en 1 de los 36 casos posibles, y tiramos el dado 24 veces, tenemos que:
P(No salga (6,6)) = (35/36)24
Ahora le restamos ese valor a 1 y obtenemos la probabilidad de que salga (6,6) al menos una vez en 24 tiradas:
P(Al menos sale (6,6) una vez en 24 tiradas) = 1 – (35/36)24 = 0’4914…
Lo que significa, al ser menor que 0’5, que apostar a ese resultado es, a la larga, perjudicial para el jugador.

Como ya hemos comentado, Pascal y Fermat comentaron y dieron solución a estos problemas en la correspondencia que se generó entre ambos (Fermat, sobre todo, era mucho de comunicarse con otros matemáticos por correspondencia) después de que el caballero de Mére se los propusiera a Pascal. Aquí tenéis traducciones al inglés de parte de esa correspondencia, aunque por desgracia no todas las cartas han llegado a nuestros días. El responsable de formalizar todos estos argumentos fue Christiaan Huygens, que tuvo conocimiento de esta correspondencia sobre 1655. En 1657 publicó el tratado De Ratiociniis in Ludo Aleae (Calculando en juegos de azar), escrito en el que resolvía los problemas sobre probabilidades que circulaban en aquella época. Este tratado se convirtió en el primero trabajo publicado sobre cálculo de probabilidades.

Como habéis podido ver, el simple planteamiento de un problema práctico por parte de Antoine Gombaud, caballero de Mére, acabó dando lugar a toda una teoría matemática con multitud de usos y aplicaciones. Y no es el único caso, recordad el caso de los puentes de Königsberg y la teoría de grafos. Por ello, no debemos restarle importancia a ninguno de los problemas que se nos puedan ocurrir o que nos puedan aparecer, ya que nunca se sabe la importancia que pueden llegar a tener o las aplicaciones que se les puede encontrar.

Recuperado de http://elpais.com/elpais/2017/04/26/el_aleph/1493220185_791291.html
Comparte este artículo en tus redes sociales:

Estadística

La estadística:  Ciencia que estudia la recolección, análisis e interpretación de datos, ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o irregulares de algún fenómeno o estudio aplicado, de ocurrencia en forma aleatoria o condicional. Sin embargo estadística es más que eso, en otras palabras es el vehículo que permite llevar a cabo el proceso relacionado con la investigación científica.





Comparte este artículo en tus redes sociales:

Reproducen en el laboratorio el comportamiento estadístico de los terremotos

Investigadores de la Universidad de Barcelona publican en Physical Review Letters distintos experimentos en el laboratorio con materiales heterogéneos para encontrar modelos que describan el comportamiento de los terremotos.


La fractura mecánica de los materiales es un fenómeno complejo asociado a muchos accidentes y desastres naturales, que van desde la ruptura de pequeños dispositivos hasta los terremotos.
En un estudio liderado por investigadores de la Universidad de Barcelona, y publicado en la revista Physical Review Letters, se ha utilizado un material que, sometido a compresión, permite reproducir las cuatro principales leyes estadísticas de recurrencia sísmica: la ley de Gutenberg-Richter, la ley de Omori, la distribución de pausas entre sismos y la ley de productividad.
El trabajo ha sido dirigido por el investigador Eduard Vives, de la Facultad de Física de la Universidad de Barcelona, y en él han participado investigadores del Centro de Investigación Matemática (CERCA - Generalitat de Catalunya), de la Universidad de Cambridge, la Universidad de Viena y el Instituto Potosino de Investigación Científica y Tecnológica (México).
"El experimento simula una falla nueva que empezara desde cero"
El material, que se ha estudiado mediante un dispositivo desarrollado por el taller mecánico de los Centros Científicos y Tecnológicos de la UB, es un tipo de vidrio altamente poroso (40 % de porosidad), diseñado para aplicaciones industriales, denominado Vycor®. La muestra, de una medida de 5 milímetros, se introduce entre dos placas y se comprime verticalmente aplicando un peso que aumenta con el tiempo de manera lineal. En las placas de compresión se sitúan unos sensores de emisión acústica, que serían el equivalente a los sismógrafos, que miden ondas acústicas ultrasonoras y que permiten detectar las fracturas en la muestra.
"El experimento que hemos llevado a cabo simula una falla nueva que empezara desde cero", explica el investigador de la UB Eduard Vives. "De este modo –continúa–, hemos podido observar la evolución temporal que tendría, que en el laboratorio es de unas horas y en los terremotos equivaldría a miles de años".
En sismología se estudian los efectos estadísticos espaciales a partir de datos de zonas con mucha actividad sísmica, como por ejemplo California, y de poca actividad. Según el investigador, "esta simetría en el espacio y el tiempo nos lleva a pensar que es posible que los terremotos se comporten siguiendo algún tipo de criticidad autoorganizada –tal y como apuntan algunas teorías–, y si se pudiera demostrar, sería un gran avance por la posibilidad de aplicar teorías ya existentes para este tipo de sistemas. 
La respuesta del material ha mostrado que sigue las cuatro leyes estadísticas principales de la sismología
Anteriormente, distintos trabajos han intentado establecer comparaciones entre terremotos y fracturas de materiales en el laboratorio, utilizando principalmente rocas naturales, pero los resultados o bien han sido incompletos o solamente han reproducido alguna de las propiedades de los terremotos. "Este material, en cambio, permite hacer experimentos controlando distintos parámetros, como la fuerza o la velocidad", concluye Vives. 
Cuatro leyes estadísticas de la sismología 
La respuesta del material ha mostrado que sigue las cuatro leyes estadísticas principales de la sismología. Por una parte, la energía detectada mediante las emisiones acústicas varía de acuerdo con la ley de Gutenberg-Richter, que relaciona el número de terremotos en función de la energía radiada y que decae según una ley de potencias. 
Para tener una idea de la diferencia de escala, la energía emitida por un gran terremoto (de magnitud 8) es equivalente a 1.000 bombas de Hiroshima, mientras que la máxima energía medida por la fractura del material en el laboratorio equivale a la energía de fisión de un único átomo de uranio. La diferencia de magnitud es equivalente, aproximadamente, a un factor de 1027.  
En otro experimento con el mismo material se ha estudiado el número de réplicas después de que se produzca una fractura mayor y se ha visto que decae en el tiempo de acuerdo con la llamada ley de Omori para terremotos. "La diferencia es que el tiempo máximo de réplicas en nuestro caso es de unas cuantas horas, mientras que en los seísmos dura más de cien años"», apunta el investigador de la UB. 
Una tercera ley estadística es la de distribución de pausas entre seísmos (waiting times), que relaciona el tiempo entre dos eventos consecutivos. En este caso, se han comparado los resultados obtenidos en el laboratorio con los de la serie de terremotos de California, una de las más completas, y "teniendo en cuenta la diferencia de escalas, la concordancia es muy alta", afirma Vives.
Finalmente, también se ha podido comprobar la similitud con la ley de productividad, que muestra como el número de réplicas después de una fractura mayor crece en función de la energía de este evento principal.
Tomado de Sinc (Servicio de Información y Noticias Científicas) Ver artículo original acá



Comparte este artículo en tus redes sociales:

Distribuciones de Probabilidad





Es decir, describe la probabilidad de que un evento se realice en el futuro, constituye una herramienta fundamental para la prospectiva, puesto que se puede diseñar un escenario de acontecimientos futuros considerando las tendencias actuales de diversos fenómenos naturales.
 
 
Comparte este artículo en tus redes sociales:

De los jugadores a las aseguradoras


Girolamo Cardano
En el siglo XVI, fue un matemático y un jugador compulsivo. Por desgracia para él, perdió en el juego la mayor parte del dinero que había heredado. Por fortuna para la ciencia escribió lo que se considera el primer trabajo en teoría de la probabilidad moderna, “Liber de ludo aleae,” que acabó publicado en 1663. Un siglo después, otro jugador, Chevalier de Méré, tenía un truco que parecía muy razonable para ganar a los dados a largo plazo, pero perdió todo su dinero. Consultó a su amigo Blaise Pascal buscando una explicación. Pascal escribió a Pierre de Fermat en 1654. La correspondencia entre ellos sentó las bases de la teoría de la probabilidad. 

Christiaan Huygens estudió estos resultados y escribió la primera obra publicada sobre probabilidad, “Ratiociniis De Ludo Aleae” (publicada en 1657).  En el siglo XVII, Jakob Bernoulli reconoció que la teoría de la probabilidad podría aplicarse mucho más allá de los juegos de azar. Escribió “Ars Conjectandi” (publicado después de su muerte en 1713), que consolidó y amplió el trabajo en probabilidad de Cardano, Fermat, Huygens y Pascal. Bernoulli probó la ley de grandes números, que dice que cuanto mayor sea la muestra, más se parecerá el resultado muestral al de la población original. 

Las compañías de seguros deben limitar el número de pólizas que venden. Cada póliza vendida implica un riesgo adicional y el efecto acumulado podría arruinar la empresa. A partir del siglo XVIII, las empresas de seguros comenzaron a utilizar la teoría de probabilidades para sus políticas de ventas y para decidir los precios de los seguros con objeto de garantizar beneficios a largo plazo. La ley de Bernoulli de los grandes números es clave para seleccionar el tamaño de las muestras que permiten realizar predicciones fiables.


Comparte este artículo en tus redes sociales:

La fórmula de Google es uno de los secretos mejor guardados en Internet

Móviles, ordenadores, redes sociales... nos movemos constantemente entre operaciones matemáticas. Una ciencia que encierra todavía algunos curiosos secretos como el algoritmo que calcula las búsquedas de Google.  


Inspiración, creación e intuición. Son algunos de los ingredientes de las matemáticas, esa ciencia que nos acompaña en nuestro día a día, ya sea en el uso del móvil o cuando nos conectamos a Internet para chatear con los amigos. Una ciencia que sigue planteando retos a los investigadores, como los "Problemas del milenio", cuya resolución sería premiada, según anunció el Clay Mathematics Institute en el año 2000, con la suma de un millón de dólares cada uno (y a día de hoy, únicamente uno de estos problemas ha sido resuelto). Las matemáticas, una ciencia de la que dependemos sin duda para el desarrollo y evolución de las nuevas tecnologías.

 

A continuación, la entrevista a Carlos José Navas. Profesor de Finanzas de la UMH y miembro de la Real Sociedad Matemática Española por parte de un periódico de La Provincia de Alicante (España).

¿Tiene Google una fórmula secreta como la Coca-Cola?
Todos los que usamos Google (que somos la práctica totalidad de los internautas) sabemos lo importante que es aparecer entre las primeras posiciones al realizar la búsqueda. La forma en la que Google determina qué enlace debe aparecer antes de otro es mediante una familia de algoritmos llamada PageRank, que fue la gran aportación de la Tesis Doctoral de los fundadores de Google, Larry Page y Sergey Brin, en la Universidad de Stanford. Simplificado, PageRank funciona como un índice de popularidad basado en enlaces: cuantos más enlaces tiene una página desde otras, mayor es su "PageRank". El argoritmo original es conocido (puede verse por ejemplo en http://es.wikipedia.org/wiki/PageRank), pero el que funciona en la actualidad sí, es un secreto como el de la Coca-Cola y uno de los mejor guardados en Internet. Google lo modifica cada cierto tiempo para hacer frente a los intentos de manipular los resultados (la última actualización fue en enero de este año: 2011).

¿Y hasta qué punto dependemos de las matemáticas con las nuevas tecnologías?
Toda la ciencia informática está basada en matemáticas. Lo que nosotros percibimos como una web, un email, un Tweet, una foto en Facebook... detrás son variables, valores, funciones, operaciones lógicas...y en última instancia, al final no son más que 0s y 1s interpretados por los ordenadores.

¿Ocurre de igual modo cuando utilizamos el teléfono móvil?
Sí y son fundamentales. Por poner un simple ejemplo: al realizar una llamada, el teléfono lo que hace es enviar una señal electrónica que transmite una versión digitalizada de lo que estamos diciendo. Para esta trasmisión es fundamental dos cosas: comprimir los datos, para que lleguen de forma casi inmediata al receptor, y corregir los posibles errores, para que lo que llegue sea realmente lo que decimos. Pues bien, ambas labores se basan en algoritmos matemáticos.

¿Es tan difícil de adquirir, aprender o dominar un lenguaje de programación para el ordenador? ¿Hay uno o muchos como ocurre con los idiomas?
Hay muchos, y con la explosión de la web por un lado y de los dispositivos móviles por otro muchos desarrolladores están aprendiendo nuevos lenguajes para adentrarse en esos mercados. Yo confieso que es uno de mis retos pendientes.

¿Qué problemas obsesionan en estos momentos al mundo matemático? ¿Son los seis "Problemas del milenio" como señalan algunos expertos?
Los seis siguen estando ahí, desde luego, pero no creo que sean una obsesión más que para aquellas personas que hayan decidido dedicarse a tratar de encontrarles solución. Es en la matemática aplicada, por ejemplo, en cómo afrontar un problema que jamás se había dado hasta hace 30 años que es el disponer de una cantidad masiva de datos e información y cómo tratarla, donde yo veo más campo para el estudio y que surjan cosas nuevas.

¿Están los jóvenes cada vez más distantes de las matemáticas? ¿Hay curiosidad por los retos difíciles?
Siempre que surge la pregunta sobre los jóvenes, yo recuerdo que alguien me dijo que un viejo profesor que se quejaba de que las nuevas generaciones estaban echadas a perder... y que ese viejo profesor era Aristóteles... no sé si será cierta, pero, se "non è vero, è ben trovato". La revolución de Internet está encabezada por programadores con un dominio excelente de las matemáticas.

¿Depende de las matemáticas el futuro de Internet?
Sí, sin duda. Las soluciones a los problemas de almacenamiento de datos, de velocidades de conexión, de ampliar las posibilidades de la red... todos, en su esencia, son problemas matemáticos. También ocurre con los videojuegos y la fotografía que, como la astronomía, tiene una base puramente matemática, tanto la óptica como la digital.

Comparte este artículo en tus redes sociales:

Desmontando mitos Sobre el Mundo


A través de Internet, de la prensa y de la televisión nos llegan noticias, datos y acontecimientos históricos de todo el planeta. Sin embargo, rara vez tenemos una visión global de lo que pasa en un país, de su historia o de sus perspectivas de futuro. En un mundo interconectado como el de hoy, descubrir lo que sucede en los dormitorios chinos o cómo gestionan su monedero los brasileños nos puede ayudar a saber hacia dónde vamos todos. Eduardo Punset, de la mano de Hans Rosling, profesor de salud pública del Instituto Karolinska, nos revela la cara fascinante de los números y las estadísticas, y su inmenso poder para explicar el pasado y el futuro del mundo.

Tomado de: www.ted.com
Comparte este artículo en tus redes sociales:

Videoteca

Videos Discovery

Videos Discovery
Discovery en la Escuela

Aula virtual Cálculo Integral

Aula virtual Cálculo Integral
Sesiones en Wiziq

Aula Virtual Estadística

Aula Virtual Estadística
Sesiones en Wiziq

Zona Wolfram Alpha

Zona Wolfram Alpha
ir a Herramientas
Este sitio inició el día 1 de abril de 2010. Estas son las estadísticas

   Publicaciones
   Comentarios
 Días online

Vistas de página en total