Powered By Blogger

lunes, 4 de mayo de 2015

Defensa del portafolio

Segunda asignación tercer corte

            En XIX siglo los estadísticos británicos interesados en la fundamentación de la teoría del cálculo del riesgo de perdidas en las pólizas de seguros de vida y comerciales , empezaron a recoger datos sobre nacimientos y defunciones. En la actualidad a este planteamiento se le llama frecuencia relativa de presentación de un evento.
La teoría de la probabilidad se inicio prácticamente con el análisis de los juegos de azar. Sus tres pioneros fueron:
Blaise Pascal (1623-1662)
Pierre de Fermat (1601-1665)
Pierre Simón de Laplace (1749-1827)
         En cuanto al concepto en sí, la probabilidad y el azar siempre ha estado en la mente del ser humano. Por ejemplo: Sumerios y Asirios utilizaban un hueso extraído del talón de animales como ovejas, ciervos o caballos, denominado astrágalo o talus, que tallaban para que pudieran caer en cuatro posiciones distintas, por lo que son considerados como los precursores de los dados. En el caso de la civilización egipcia, algunas pinturas encontradas en las tumbas de los faraones muestran tanto astrágalos como tableros para el registro de los resultados.
         Por su parte, los juegos con dados se practicaron ininterrumpidamente desde los tiempos del Imperio Romano hasta el Renacimiento, aunque no se conoce apenas las reglas con las que jugaban.
        A mediados del siglo  XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales
         Desde los orígenes la principal dificultad para poder considerar la probabilidad como una rama de la matemática fue la elaboración de una teoría suficientemente precisa como para que fuese aceptada como una forma de matemática. A principios del siglo XX el matemático ruso Andrei Kolmogorov » la definió de forma axiomática y estableció las bases para la moderna teoría de la probabilidad que en la actualidad es parte de una teoría más amplia como es la teoría de la medida.



Clasico
El enfoque clásico o a priori de la probabilidad se basa en la consideración de que los resultados de un experimento son igualmente posibles. Empleando el punto de vista clásico, la probabilidad de que suceda un evento se calcula dividiendo el número de resultados favorables, entre el número de resultados posibles.
Si un suceso puede ocurrir de N maneras mutuamente excluyentes e igualmente probables,  y m de ellas poseen una característica A
https://sites.google.com/site/623probabilidad/_/rsrc/1306106576040/probabilidad-clasica-empirica-y-subjetiva/1.jpg
Este planteamiento de la probabilidad es útil cuando tratamos con juegos de cartas, de dados, lanzamientos de monedas y cosas parecidas. Pero hay cierta dificultad cuando se intenta aplicar a los problemas de tomas de decisiones menos previsibles como los que se encuentran en la administración.
Frecuentista
En el siglo los estadísticos británicos interesados en la fundamentación de la teoría del cálculo del riesgo de perdidas en las pólizas de seguros de vida y comerciales, empezaron a recoger datos sobre nacimientos y defunciones. En la actualidad a este planteamiento se le llama frecuencia relativa de presentación de un evento.

Supongamos que efectuamos una serie de n repeticiones del experimento E, intentando mantener constantes las condiciones pertinentes. Sea f el número de repeticiones en las que se presenta el suceso A, de forma que en las restantes n – f no se presentará. Obtendremos así una serie de frecuencias relativas para n1, n2 ….

https://sites.google.com/site/623probabilidad/_/rsrc/1306107015803/probabilidad-clasica-empirica-y-subjetiva/5.jpg




Puede atribuirse a este punto de vista el adelanto registrado en la aplicación de la probabilidad en la Física, la Astronomía, la Biología, las Ciencias Sociales y los negocios.
Subjetivo
Se refiere a la probabilidad de ocurrencia de un suceso basado en la experiencia previa, la opinión personal o la intuición del individuo. En este caso después de estudiar la información disponible, se asigna un valor de probabilidad a los sucesos basado en el grado de creencia de que el suceso pueda ocurrir.
·En este caso después de estudiar la información disponible, se asigna un valor de probabilidad a los sucesos basado en el grado de creencia de que el suceso pueda ocurrir
Como casi todas las decisiones sociales y administrativas de alto nivel corresponden a situaciones especificas más que a una larga serie de situaciones idénticas, los responsable de tomar decisiones en este nivel hacen uso considerable de la probabilidad subjetiva.
Axiomatico
Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una función que definimos sobre unos sucesos determine consistentemente valores de probabilidad sobre dichos sucesos.
Dentro del enfoque axiomático es posible
demostrar que la ley débil de los grandes numeros implica que se cumplirá que:
\mathrm{Prob}\left(\left| \frac{S_n - \mathbb{E}(S_n)}{n} \right| \ge \epsilon\right)
\le \frac{\mathrm{Var}(S_n)}{n^2\epsilon^2} \to 0
Esto permite justificar rigurosamente la ecuación (1) suponiendo que:
S_n = X_1+ \dots + X_n, \quad \mathbb{E}(S_n)= np \qquad X_i \in {0,1}
Donde se interpreta X_i = 1 con probabilidad p y que X_i = 0 con proabilidad 1-p.


Algunos videos sugeridos en el semestre