Powered By Blogger

lunes, 4 de mayo de 2015

Defensa del portafolio

Segunda asignación tercer corte

            En XIX siglo los estadísticos británicos interesados en la fundamentación de la teoría del cálculo del riesgo de perdidas en las pólizas de seguros de vida y comerciales , empezaron a recoger datos sobre nacimientos y defunciones. En la actualidad a este planteamiento se le llama frecuencia relativa de presentación de un evento.
La teoría de la probabilidad se inicio prácticamente con el análisis de los juegos de azar. Sus tres pioneros fueron:
Blaise Pascal (1623-1662)
Pierre de Fermat (1601-1665)
Pierre Simón de Laplace (1749-1827)
         En cuanto al concepto en sí, la probabilidad y el azar siempre ha estado en la mente del ser humano. Por ejemplo: Sumerios y Asirios utilizaban un hueso extraído del talón de animales como ovejas, ciervos o caballos, denominado astrágalo o talus, que tallaban para que pudieran caer en cuatro posiciones distintas, por lo que son considerados como los precursores de los dados. En el caso de la civilización egipcia, algunas pinturas encontradas en las tumbas de los faraones muestran tanto astrágalos como tableros para el registro de los resultados.
         Por su parte, los juegos con dados se practicaron ininterrumpidamente desde los tiempos del Imperio Romano hasta el Renacimiento, aunque no se conoce apenas las reglas con las que jugaban.
        A mediados del siglo  XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales
         Desde los orígenes la principal dificultad para poder considerar la probabilidad como una rama de la matemática fue la elaboración de una teoría suficientemente precisa como para que fuese aceptada como una forma de matemática. A principios del siglo XX el matemático ruso Andrei Kolmogorov » la definió de forma axiomática y estableció las bases para la moderna teoría de la probabilidad que en la actualidad es parte de una teoría más amplia como es la teoría de la medida.



Clasico
El enfoque clásico o a priori de la probabilidad se basa en la consideración de que los resultados de un experimento son igualmente posibles. Empleando el punto de vista clásico, la probabilidad de que suceda un evento se calcula dividiendo el número de resultados favorables, entre el número de resultados posibles.
Si un suceso puede ocurrir de N maneras mutuamente excluyentes e igualmente probables,  y m de ellas poseen una característica A
https://sites.google.com/site/623probabilidad/_/rsrc/1306106576040/probabilidad-clasica-empirica-y-subjetiva/1.jpg
Este planteamiento de la probabilidad es útil cuando tratamos con juegos de cartas, de dados, lanzamientos de monedas y cosas parecidas. Pero hay cierta dificultad cuando se intenta aplicar a los problemas de tomas de decisiones menos previsibles como los que se encuentran en la administración.
Frecuentista
En el siglo los estadísticos británicos interesados en la fundamentación de la teoría del cálculo del riesgo de perdidas en las pólizas de seguros de vida y comerciales, empezaron a recoger datos sobre nacimientos y defunciones. En la actualidad a este planteamiento se le llama frecuencia relativa de presentación de un evento.

Supongamos que efectuamos una serie de n repeticiones del experimento E, intentando mantener constantes las condiciones pertinentes. Sea f el número de repeticiones en las que se presenta el suceso A, de forma que en las restantes n – f no se presentará. Obtendremos así una serie de frecuencias relativas para n1, n2 ….

https://sites.google.com/site/623probabilidad/_/rsrc/1306107015803/probabilidad-clasica-empirica-y-subjetiva/5.jpg




Puede atribuirse a este punto de vista el adelanto registrado en la aplicación de la probabilidad en la Física, la Astronomía, la Biología, las Ciencias Sociales y los negocios.
Subjetivo
Se refiere a la probabilidad de ocurrencia de un suceso basado en la experiencia previa, la opinión personal o la intuición del individuo. En este caso después de estudiar la información disponible, se asigna un valor de probabilidad a los sucesos basado en el grado de creencia de que el suceso pueda ocurrir.
·En este caso después de estudiar la información disponible, se asigna un valor de probabilidad a los sucesos basado en el grado de creencia de que el suceso pueda ocurrir
Como casi todas las decisiones sociales y administrativas de alto nivel corresponden a situaciones especificas más que a una larga serie de situaciones idénticas, los responsable de tomar decisiones en este nivel hacen uso considerable de la probabilidad subjetiva.
Axiomatico
Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una función que definimos sobre unos sucesos determine consistentemente valores de probabilidad sobre dichos sucesos.
Dentro del enfoque axiomático es posible
demostrar que la ley débil de los grandes numeros implica que se cumplirá que:
\mathrm{Prob}\left(\left| \frac{S_n - \mathbb{E}(S_n)}{n} \right| \ge \epsilon\right)
\le \frac{\mathrm{Var}(S_n)}{n^2\epsilon^2} \to 0
Esto permite justificar rigurosamente la ecuación (1) suponiendo que:
S_n = X_1+ \dots + X_n, \quad \mathbb{E}(S_n)= np \qquad X_i \in {0,1}
Donde se interpreta X_i = 1 con probabilidad p y que X_i = 0 con proabilidad 1-p.


Algunos videos sugeridos en el semestre

martes, 31 de marzo de 2015

Temas tratados en el semestre



Temas tratados en el primer corte
Durante el primer corte los temas visto en la materia de estadística y probabilidad se basó en la conceptualización de la materia, comenzando con un poco de historia donde se estableció que el desarrollo de la estadística consistía en 3 fases: La primera relacionada a los censos, la segunda  fue el paso de  la Descripción de los Conjuntos a la Aritmética Política y la tercera fase referente a la  Estadística y Cálculo de Probabilidades
 Se dio a conocer la definición del termino de estadística de diferente autores y uno de ellos la da a conocer como un valor resumido, calculado, como base en una muestra de observaciones que generalmente, aunque no por necesidad, se considera como una estimación de parámetro de determinada población; es decir, una función  de valores de muestra.
A medida que se fueron conociendo los distintos conceptos relacionados se observó cuál es su importancia y utilidad. Normalmente es utilizada para propósitos descriptivos, para organizar y resumir datos numéricos.  Se divide en estadística descriptiva y estadística inferencial.
La estadística descriptiva es la encargada de la organización, condensación, presentación de los datos en tablas y gráficos y del cálculo de medidas numéricas que permitan estudiar los aspectos más importantes de los datos. La estadística inferencial está definida por un conjunto de técnicas, mediante las cuales se hacen generalizaciones o se toman decisiones en base a información parcial obtenida mediante técnicas descriptivas.
En lo relacionado a los datos estadísticos se dieron a conocer dos tipos: Los datos cualitativos que son datos que solo toman valores asociados a las cualidades o atributos, clasificándolos en una de varias categorías, es decir, no son valores numéricos. Los datos cuantitativos provienen de variables que pueden medirse, cuantificarse o expresarse numéricamente.
En la tercera y última clase del primer corte era relacionada a la forma de presentar los datos estadísticos organizados que es mediante: presentación con palabras, tablas estadísticas o graficas estadísticas. Entre los tipos de tablas estadísticas se encuentran aquellas con propósitos generales y con propósitos especiales.
El método estadístico es aquel procedimiento que se debe llevar a cabo para obtener resultados mediante determinadas reglas y operaciones, se basa en cuatro pasos:
1-      La etapa inicial, consiste en la recolección de datos referidos a la situación que se desea investigar. 
2-      Tabulación y agrupamiento de datos.    Los datos son convenientemente ordenados, clasificados y tabulados, es decir, dispuestos en tablas que facilitan la lectura.
3-      Medición de datos. En esta etapa, comienza la elaboración matemática y medición de los datos.
4-      Inferencia estadística. Después de la medición de datos, la Teoría de la Probabilidad acude en ayuda de la Estadística. Se deducen las leyes de inferencia que permiten predecir el comportamiento futuro de la población investigada.

Temas tratados en el segundo corte
La clase número 4 del segundo corte fue relacionada las tablas de distribución de frecuencia las mismas se  utilizan cuando se recolectan datos, con ellas se pueden representar los datos de manera que es más fácil analizarlos. Se pueden elaborar tablas de distribución de frecuencias para datos no agrupados y para datos agrupados. Estas últimas se utiliza cuando se tienen muchos datos.
         Cuando hay muchos datos se agrupan en clases.
          Clase es cada uno de los grupos en que se dividen los datos.
         Para determinar cuántas clases crear, se puede utilizar la siguiente fórmula: (fórmula de Sturges ) Número de clases = 1 + 3,322 log n    donde n es el número total de datos.
Se dio a conocer los tipos de frecuencia entre los que se destacan: Frecuencia Absoluta simple, Frecuencia Absoluta acumulada, Frecuencia Relativa simple y Frecuencia Relativa Acumulada.
En cuanto a la organización de datos para determinar el número de veces que aparece cada dato (frecuencia absoluta), se utiliza el diagrama de tallo y hojas. Este diagrama facilita determinar la cantidad de veces que se repite un dato y los valores de los datos con el fin de escribirlos de manera ordenada en la tabla
La clase numero 5 fue relacionada a la representación gráfica en el estudio de la estadística esta gráfica contribuye a un mejor análisis de los datos y ffacilita la comprensión del fenómeno considerado. Entre los tipos de gráficos se encuentran:
El histograma es un resumen gráfico de los valores producidos por las variaciones de una determinada característica, representando la frecuencia con que se presentan distintas categorías dentro de dicho conjunto. El  polígono de frecuencias que  se forma uniendo los extremos de las barras de un diagrama de barras mediante segmentos.
La ojiva es una gráfica asociada a la distribución de frecuencias, es decir, que en ella se permite ver cuántas observaciones se encuentran por encima o debajo de ciertos valores, en lugar de solo exhibir los números asignados a cada intervalo.
 En los diagramas de sectores  se muestra el valor de la frecuencia de la variable señalada como un sector circular dentro de un círculo completo. Los pictogramas, que muestran diagramas figurativos con figuras o motivos que aluden a la distribución estadística analizada. Los cartogramas, basados en mapas geográficos que utilizan distintas tramas, colores o intensidades para remarcar las diferencias entre los datos
Las pirámides de población se utilizan en la expresión de informaciones demográficas, económicas o sociales, y en ellas se clasifican comúnmente los datos de la población del grupo de muestra considerado en diferentes escalas de edad y diferenciada por sexo.

Cuarta asignacion. segundo corte




Ejercicios  medidas de dispersión


1)       Calcular todas las medidas de dispersión para la siguiente distribución
Xi
ni
5
3
10
7
15
5
20
3
25
2


Numero total de datos = 5
Media aritmética 15
Rango = VM-Vm
       R= 25-5=20

 VARIANZA


S2=∑(Xi- X)2 *n
          N

S2=│(5-15)2 *3│+│(10-15)2 *7│+│(15-15)2 *5│+│(20-15)2 *3│+│(25-15)2 *2│
                                                    20
S2= 300+175+0+75+200
               20
S2=750   = 37.5
       20          


DESVIACION ESTANDAR






 
S=  
S=
S= 6.123



COEFICIENTE DE VARIACION

CV=  S
       I xI
CV = 6.123
         15

CV= 0.408 * 100= 40.8%