14
PROBABILIDAD Froilan Fernández Vargas 10--01 Institución Francisco Antonio de Ulloa

Probabilidad 10 01

Embed Size (px)

Citation preview

Page 1: Probabilidad 10 01

PROBABILIDAD Froilan Fernández Vargas

10--01

Institución Francisco Antonio de Ulloa

Page 2: Probabilidad 10 01

¿QUE ES PROBABILIDAD? El primero en dar una definición clásica de probabilidad fue Jakob Bernoulli

en 1713, reformulada después por Abraham De Moivre de la siguiente manera: "...una fracción en la que el numerador es igual al número de apariciones del suceso y el denominador es igual al número total de casos en los que es suceso pueda o no pueda ocurrir. Tal fracción expresa la probabilidad de que ocurra el suceso".

El enfoque clásico de la probabilidad está basado en la suposición de que todos los resultados del experimento son igualmente posibles. La probabilidad se calcula de la siguiente manera:

Probabilidad = número de posibles resultados del evento número total de resultados posibles del experimento

Ejemplo: El experimento es lanzar un dado. ¿Cuál es la probabilidad de que caiga un dos hacia arriba? Las caras el dado están numeradas del 1 al 6, entonces hay una posibilidad de un total de seis de que el número 2 quede hacia arriba:

P(cae 2) = 1 = 0.166 6

La principal dificultad que presenta esta interpretación de la probabilidad es que se basa en sucesos equiprobables , siendo fácil para problemas sencillos, como los de cartas, dados o urnas, es casi imposible para problemas más complejos.

Page 3: Probabilidad 10 01

NACIMIENTO Y EVOLUCIÓN DE LA TEORIA DE LA PROBABILIDAD

Cierto día del año 1654, Blaise Pascal (1623 - 1662) matemático francés, hacía un viaje en compañía de un jugador más o menos profesional conocido como el caballero de Meré, quien era una persona apasionada por todo lo relacionado con el juego de los dados y las cartas, siendo además un hombre noble e ilustrado.

Este caballero creía que había encontrado una "falsedad" en los números al analizar

el juego de los dados, observando que el comportamiento de los dados era diferente cuando se utilizaba un dado que cuando se empleaban dos dados. La "falsedad" partía simplemente de una comparación errónea entre las probabilidades de sacar un seis con un solo dado o de sacar un seis con dos dados. Para el caballero debía existir una relación proporcional entre el número de jugadas necesarias para conseguir el efecto deseado en uno y otro caso. El problema estaba en que el citado caballero no tuvo en cuenta que en el segundo caso estaba analizando una probabilidad compuesta en donde las distintas probabilidades se deben calcular multiplicativamente.

Este y otros problemas planteados por el caballero a Pascal sobre cuestiones relacionadas con diferentes juegos de azar, dieron origen a una correspondencia entre el propio Pascal y algunos de sus amigos matemáticos, sobre todo con Pierre de Fermat (1601-1665) de Toulouse, abogado de profesión, pero gran amante de las matemáticas.

Esta correspondencia constituye el origen de la teoría moderna de la probabilidad.

En una carta de Pascal a Fermat, en la que narraba la anécdota anteriormente mencionada, concluía que "el caballero de Meré tiene mucho talento, pero no es geómetra; ésto es, como sabéis un gran defecto" (carta del 29 de julio de 1654).

Page 4: Probabilidad 10 01

NACIMIENTO Y EVOLUCIÓN DE LA TEORIA DE LA PROBABILIDAD

Otro de los problemas famosos planteados por el caballero a Pascal fue resuelto por éste y Fermat tras el carteo de manera independiente, llegando ambos a la misma solución : En una partida de dados intervienen dos jugadores y apuestan 32 doblones de oro cada uno, eligiendo un número diferente, gana el juego el primero que obtenga tres veces el número que eligió. Después de un rato de juego, el número elegido por el primer apostador ha salido dos veces mientras el otro jugador sólo una vez ha acertado, en este instante la partida debe suspenderse. ¿Cómo dividir los 64 doblones de oro apostados? ¿en qué proporción ha de ser compensado cada jugador?.

En la correspondencia que siguió a este problema, tanto Pascal como Fermat estuvieron de acuerdo en que el primer jugador tiene derecho a 48 doblones de oro.

Veamos también el último de los problemas históricos ( al ser su solución parte del inicio de la probabilidad actual) que propuso Meré y resolvieron Pascal y Fermat:

El juego consistía en lanzar 24 veces un par de dados y el problema era decidir si es lo mismo apostar a favor o en contra de la aparición de por lo menos un seis doble.

Solución:

A= {No sacar un seis doble en una tirada de dos dados} , P(A)=35/36

P(A y A y A………24 veces….y A)= (35/36)24

Este número vale 0´508596121 y por tanto la probabilidad del suceso

contrario será 1- P(A y A….24 veces…y A)= 1- 0´508596121 = 0´491

Luego es más probable obtener una vez un seis doble en 24 tiradas que

obtenerlo al menos una vez. En cambio para 25 tiradas cambian las cosas

pues 1- (35/36)25 = 0´505

Page 5: Probabilidad 10 01

NACIMIENTO Y EVOLUCIÓN DE LA TEORIA DE LA PROBABILIDAD

Pascal y Fermat resolvieron este problema y otros muchos y fueron los que empezaron a formalizar la teoría de las probabilidades, probando el desacuerdo con el caballero de Meré, este se debía a que era erróneo el cálculo que había efectuado, ya que se equivocó en considerar equiprobables sucesos que no lo eran, y sólo cuando

los casos posibles son equiprobables tiene sentido aplicar la definición dada por Meré de probabilidad. Sin embargo, Pascal erró al intentar extender algunos de los resultados de los problemas del caballero al caso en el que hubiera tres o más jugadores.

Ni Pascal ni Fermat expusieron sus resultados por escrito y fue el físico-matemático holandés Christian Huygens (1629-1695) quien en 1657 publicó un breve tratado titulado ”De Ratiocinnis in ludo aleae” (sobre los razonamientos relativos a los juegos de dados) inspirado en la correspondencia sostenida entre los dos creadores de la teoría de la probabilidad. Además Huygens extendió algunos resultados de Pascal y aclaró varios problemas para tres o más jugadores.

En 1665, Pascal publicaba Tratado sobre el triángulo aritmético, la más importante contribución realizada hasta la fecha en el ámbito de la combinatoria. El libro se basa en la construcción y propiedades combinatorias del posteriormente llamado triángulo de Pascal, que es de la siguiente forma:

Page 6: Probabilidad 10 01

NACIMIENTO Y EVOLUCIÓN DE LA TEORIA DE LA PROBABILIDAD

Fila /Columna 0 1 2 3 4 5 6 7 8 0 1 1 1 1 2 1 2 1 3 1 3 3 1 4 1 4 6 4 1 5 1 5 10 10 5 1 6 1 6 15 20 15 6 1 7 1 7 21 35 35 21 7 1 8 1 8 28 56 70 56 28 8 1 Con esta construcción Pascal demostró que el valor de la k-ésima

entrada de la n-ésima columna era el número combinatorio (n/k) y enunció algunas propiedades importantes del triángulo como que cada elemento es la suma de todos los elementos de la columna anterior hasta la fila anterior o como que la suma de todos los elementos de la fila n-ésima es 2.

Las aportaciones de Pascal se extienden a muchos campos como el de la filosofía e incluso al de la teología, intentando argumentar la existencia de Dios en términos probabilísticas y gananciales ( probabilísticamente es mejor creer que no creer, es decir, es mejor actuar como si existiera, por si acaso existe).

Page 7: Probabilidad 10 01

PRIMERAS DEFINICIONES Y TEOREMAS BÁSICOS: El primero en dar la definición clásica de probabilidad fue Jacob

Bernoulli (1654–1705), matemático suizo que trabajó en la universidad de Basilea en 1687, en su obra”Ars conjectandi” (El arte de la conjetura) que fue publicada algunos años después de la muerte del autor. En esta obra encontramos entre otras cosas la importante proposición conocida como el Teorema de Bernoulli mediante el cual la teoría de la probabilidad fue elevada por primera vez del nivel elemental de conjunto de soluciones de problemas particulares a un resultado de importancia general. Bernoulli siempre detacó la importancia de que los fenómenos aleatorios dejaran de enfocarse como casos particulares y se intentara ver los conceptos generales que habías detrás de ellos, sólo así se avanzaría y profundizaría en el entendimiento de esta materia.

Más adelante, el matemático francés exiliado en Inglaterra Abraham De Moivre (1667–1754) aceptó la definición dada por Bernoulli y la reformuló en términos más modernos para la época: «una fracción en la que el numerador es igual al número de apariciones del suceso y el denominador es igual al número total de casos en los que es suceso pueda o no pueda ocurrir. Tal fracción expresa la probabilidad de que ocurra el suceso».

La definición clásica de la probabilidad, en su forma actual, está basada en el concepto de equiprobabilidad de los resultados, basado a su vez en la simetría. Se supone que un experimento se puede descomponer en n sucesos equiprobables y mutuamente excluyentes B1 ,….,Bn llamados sucesos básicos o ‘elementales’.

Page 8: Probabilidad 10 01

PRIMERAS DEFINICIONES Y TEOREMAS BÁSICOS: Así, la probabilidad de suceso A es el número del intervalo [0,1] que

expresa el cociente entre los m sucesos elementales que componen A y el número total n de posibles sucesos elementales. La traba fundamental que encuentra esta interpretación de la probabilidad es la dificultad de descomponer un suceso en sucesos elementales equiprobables; lo que es fácil para problemas sencillos ( cartas, dados, etc…), pero es de gran dificultad en problemas más complicados. 1BnB

Además otro de los descubrimientos importantes de Bernoulli fue el saber obtener la probabilidad de ocurrencia de un suceso sin necesidad de contar los casos favorables (bien por omisión de datos o bien por la imposibilidad de contarlos). Para ello inventó la probabilidad a posteriori, es decir: “mediante la observación múltiple de los resultados de pruebas similares…” De esta manera, introdujo el concepto de probabilidad ‘estadística’: asignar como probabilidad de un suceso el resultado que se obtendría si el proceso se repitiera en condiciones similares un número grande de veces. Sin embargo, estas condiciones no eran muy concretas y con ellas no se podía dar lugar a una definición seria y rigurosa de todos los conceptos q manejaba Bernoulli. En primer lugar, se habla de un ‘número grande’ de veces, pero no se da ninguna indicación sobre cuál es ese número o lo suficientemente grande que debe ser, no se especifica tampoco que significa condiciones similares y tampoco se establece cuál es el error admitido respecto al resultado teórico.

Precisamente, fueron la necesidad de precisar con exactitud qué se entiende por un ‘número grande’ de repeticiones y de calcular el error del resultado obtenido respecto del resultado teórico, lo que llevaron a Jacob Bernoulli a idear, en su forma más intuitiva y básica, la Ley de los Grandes Números.

Page 9: Probabilidad 10 01

PRIMERAS DEFINICIONES Y TEOREMAS BÁSICOS: A continuación expondremos los tres teoremas más importantes

de la probabilidad clásica. Estos teoremas los idearon Bernoulli (Teorema de la suma, formalizado por Bayes) , De Moivre (Teorema de la multiplicación) y Bayes (Teorema de la probabilidad condicionada), aunque todos los conceptos que se manejan en estos teoremas aparecen ya de forma implícita y muy frecuente en los diferentes trabajos de Pascal, Fermat y Huygens.

-Teorema de la Suma: Pascal dio a entender implícitamente que sabía cómo calcular los

casos favorables de un suceso A si conocía los casos favorables de unos Aj disjuntos cuya unión es A (es decir, si los Aj son una partición de A). Jacob Bernoulli también fue consciente de ello, y fue más lejos al darse cuenta de que la probabilidad de la unión no es la suma de las probabilidades si los sucesos no son disjuntos, aunque no supo dar la razón.

No fue ninguno de ellos quien formuló finalmente el teorema de la suma de la probabilidades, sino el reverendo inglés Thomas Bayes (1702–1761), cuyo trabajo fue leído póstumamente, en 1763. En esta obra, Bayes da la primera definición rigurosa y explícita de sucesos disjuntos y enunció la fórmula ahora conocida:

P(AUB) = P (A) + P(B)− P(A∩B)

Page 10: Probabilidad 10 01

PRIMERAS DEFINICIONES Y TEOREMAS BÁSICOS: -Teorema de la Multiplicación:

Al igual que el teorema anterior, el teorema de la multiplicación de probabilidades era conocido por casi todos los matemáticos anteriores a través de resultados particulares. No obstante, fue Abraham De Moivre el primero que lo enunció rigurosamente. De Moivre fue un hugonote francés que debido a su religión se ausentó de Francia y vivió como refugiado en Inglaterra. Allí publicó su obra The doctrine of chances (Doctrina de las Probabilidades) en 1711. De Moivre presentó el importante concepto de independencia de sucesos aleatorios; así, escribió: “Diremos que dos sucesos son independientes, si el primero de ellos no tiene ninguna relación con el otro” y procedió a definir los sucesos dependientes: “Dos sucesos son dependientes si están ligados el uno al otro y la probabilidad de ocurrencia de uno de ellos influye en la probabilidad de ocurrencia del otro”. Una vez hecho esto, De Moivre lo aplicó al cálculo de probabilidades: «la probabilidad de ocurrencia de dos sucesos dependientes es igual a la probabilidad de ocurrencia de uno de ellos dividida por la probabilidad de que el otro ocurra si el primero ya ha ocurrido. Esta regla puede generalizarse para varios sucesos ». El caso de varios sucesos lo describía así: “Se necesita elegir uno de ellos como el primero, otro como el segundo, y así. Luego, la ocurrencia del primero debe considerarse independiente de todas las demás; el segundo debe considerarse con la condición de que el primero ha ocurrido: el tercero con la condición de que tanto el primero como el segundo han ocurrido, y así. De aquí, la probabilidad de las ocurrencias de todos los sucesos es igual al producto de todas las probabilidades” Esto es:

P(A1 ∩A2 ∩ …..An) =P(A1) (Ai |A2 ) …….P(An|A1 ….. ∩ An-1)

La obra de De Moivre contó con tres ediciones, lo que da una idea del gran interés que despertó esta materia en aquella época. En las dos últimas ediciones de la obra el autor también da las primeras indicaciones acerca de la distribución normal de las probabilidades, que más tarde desarrollaría un papel sumamente importante en el desarrollo la teoría de la probabilidad.

Page 11: Probabilidad 10 01

LA TEORÍA DE LA PROBABILIDAD EN EL SIGLO XIX

A partir, fundamentalmente, de Laplace las dos disciplinas más importantes dentro de la teoría de la probabilidad, que eran el cálculo de probabilidades y la estadística se fusionaron de manera que el cálculo de probabilidades se convirtió en el andamiaje matemático de la estadística. Toda la base matemática que permitió desarrollar la teoría de probabilidades está extraída del análisis combinatorio, una disciplina iniciada por Leibniz y Jacob Bernoulli. Posteriormente con el paso del tiempo fue introduciendo la teoría de límites disminuyendo el peso que tenía el análisis combinatorio.

Esta fue sólo la primera de las modernizaciones que sufriría la probabilidad el el siglo XIX. Otra de las más importantes fue la que llevó a cabo el matemático alemán Karl Friedrich Gauss (1777-1855), que desarrolló la teoría de errores conjuntamente con Bessel y Laplace, llegando a establecer el método de mínimos cuadrados como el procedimiento más elemental para resolver los problemas de la teoría de errores. Gauss y Laplace, independientemente aplicaron conceptos probabilísticos al análisis de los errores de medida de las observaciones físicas y astronómicas. De hecho, científicos consagrados de la época como Maxwell, Boltzmann y Gibbs aplicaron la probabilidad en su obra "Mecánica Estadística". La teoría de los errores constituye la primera rama de la estadística que puede constituirse como una estructuración teórico-matemática.

Resaltemos ahora uno de los resultados importantes en teoría de errores de Gauss (también hallado de manera independiente por A.Legendre(1752-1833)) que demostraba que, bajo ciertas condiciones generales, la función de densidad de los errores de medida tiene la forma:

Page 12: Probabilidad 10 01

LA TEORÍA DE LA PROBABILIDAD EN EL SIGLO XIX

Otras contribuciones importantes a la teoría de errores fueron las de Simeon Denis Poisson (1781-1840) que descubrió que la media aritmética no es siempre mejor que una única observación, A.Cauchy(1789-1857) y más tarde de matemáticos rusos como P.Chebyshev(1821-1894).

Al margen de la teoría, el francés Poisson aportó otras cosas destacadas a la teoría de la probabilidad, como la distribución que lleva su nombre y que es aplicable a fenómenos poco comunes y extraños. En 1837 publica su trabajo En 1837 publica su trabajo en Recherches sur la Probabilité des Jugements. Poisson originalmente estudió Medicina, en 1789 se dedicó al campo matemático en la Escuela Politécnica. Fue muy

amigo de Laplace y de Lagrange. Publicó alrededor de 400 artículos en matemática y estadística. Pese al éxito de las aplicaciones se oyeron voces de inconformidad a la definición clásica de probabilidades, que exigía "a priori" saber que todos los eventos eran igualmente posibles. Además, en ciertos casos era imposible aplicar la definición clásica de la probabilidad. Pese a los avances de Poisson, esto no se resolvería hasta el siglo XX.

Page 13: Probabilidad 10 01

LA TEORÍA DE LA PROBABILIDAD EN EL SIGLO XIX

Sin embargo lo que sí hizo Poisson, fue introducir de alguna manera el concepto de variable aleatoria, no como lo entendemos actualmente, sino esbozando sus primeros pasos como un conjunto de cada uno con su probabilidad Posteriormente, Chebyshev asumió que esos conjuntos de los que hablaba Poisson eran independientes e introdujo el término” variable aleatoria” que aún tiene validez en la actualidad y fue A.Liapunov (1857-1918) quien especificó que estas variables no serían siempre independientes y que esa dependencia estaba sujeta a ciertas condiciones. Además Liapunov dio una definición de distribución casi exacta a la actual:

Page 14: Probabilidad 10 01

BIBLIOGRAFIA

WWW.GOOGLE.COM