Estadistica y probabilidades I
lunes, 4 de mayo de 2015
Segunda asignación tercer corte
En XIX
siglo los estadísticos británicos interesados en la fundamentación de la teoría
del cálculo del riesgo de perdidas en las pólizas de seguros de vida y
comerciales , empezaron a recoger datos sobre nacimientos y defunciones. En la
actualidad a este planteamiento se le llama frecuencia relativa de presentación
de un evento.
La teoría de la probabilidad se inicio prácticamente con el
análisis de los juegos de azar. Sus tres pioneros fueron:
Blaise Pascal (1623-1662)
Pierre de Fermat (1601-1665)
Pierre Simón de Laplace (1749-1827)
En cuanto al concepto en sí, la
probabilidad y el azar siempre ha estado en la mente del ser humano. Por
ejemplo: Sumerios y Asirios utilizaban un hueso extraído del talón de animales
como ovejas, ciervos o caballos, denominado astrágalo o talus, que tallaban
para que pudieran caer en cuatro posiciones distintas, por lo que son
considerados como los precursores de los dados. En el caso de la civilización
egipcia, algunas pinturas encontradas en las tumbas de los faraones muestran
tanto astrágalos como tableros para el registro de los resultados.
Por su parte, los juegos con dados se
practicaron ininterrumpidamente desde los tiempos del Imperio Romano hasta el
Renacimiento, aunque no se conoce apenas las reglas con las que jugaban.
A mediados
del siglo XIX, un fraile agustino
austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con
sus interesantes experimentos sobre el cruce de plantas de diferentes
características. Su obra, La matemática de la Herencia, fue una de las primeras
aplicaciones importantes de la teoría de probabilidad a las ciencias naturales
Desde los
orígenes la principal dificultad para poder considerar la probabilidad como una
rama de la matemática fue la elaboración de una teoría suficientemente precisa
como para que fuese aceptada como una forma de matemática. A principios del
siglo XX el matemático ruso Andrei Kolmogorov » la definió de forma axiomática
y estableció las bases para la moderna teoría de la probabilidad que en la
actualidad es parte de una teoría más amplia como es la teoría de la medida.
|
Clasico
|
El enfoque clásico o a priori de la probabilidad se
basa en la consideración de que los resultados de un experimento son
igualmente posibles. Empleando el punto de vista clásico, la probabilidad de
que suceda un evento se calcula dividiendo el número de resultados
favorables, entre el número de resultados posibles.
|
Si un suceso puede ocurrir de N
maneras mutuamente excluyentes e igualmente probables, y m de ellas
poseen una característica A
![]() |
Este planteamiento
de la probabilidad es útil cuando tratamos con juegos de cartas, de dados,
lanzamientos de monedas y cosas parecidas. Pero hay cierta dificultad cuando
se intenta aplicar a los problemas de tomas de decisiones menos previsibles
como los que se encuentran en la administración.
|
|
Frecuentista
|
En el siglo los estadísticos británicos interesados
en la fundamentación de la teoría del cálculo del riesgo de perdidas en las
pólizas de seguros de vida y comerciales, empezaron a recoger datos sobre nacimientos
y defunciones. En la actualidad a este planteamiento se le llama frecuencia
relativa de presentación de un evento.
|
Supongamos
que efectuamos una serie de n repeticiones del experimento E, intentando
mantener constantes las condiciones pertinentes. Sea f el número de
repeticiones en las que se presenta el suceso A, de forma que en las
restantes n – f no se presentará. Obtendremos así una serie de frecuencias
relativas para n1, n2 ….
![]() |
Puede atribuirse
a este punto de vista el adelanto registrado en la aplicación de la
probabilidad en la Física, la Astronomía, la Biología, las Ciencias Sociales
y los negocios.
|
|
Subjetivo
|
Se refiere a la probabilidad de ocurrencia de un
suceso basado en la experiencia previa, la opinión personal o la intuición
del individuo. En este caso después de estudiar la información disponible, se
asigna un valor de probabilidad a los sucesos basado en el grado de creencia
de que el suceso pueda ocurrir.
|
·En este caso después de estudiar la información disponible, se asigna
un valor de probabilidad a los sucesos basado en el grado de creencia de que
el suceso pueda ocurrir
|
Como casi todas las
decisiones sociales y administrativas de alto nivel corresponden a
situaciones especificas más que a una larga serie de situaciones idénticas,
los responsable de tomar decisiones en este nivel hacen uso considerable de
la probabilidad subjetiva.
|
|
Axiomatico
|
Los axiomas de
probabilidad son las condiciones mínimas que deben verificarse para que una
función que definimos sobre unos sucesos determine consistentemente valores
de probabilidad sobre dichos sucesos.
|
Dentro del enfoque axiomático es posible
Donde se interpreta
|
|
martes, 31 de marzo de 2015
Temas tratados en el semestre
Temas tratados en el primer corte
Durante
el primer corte los temas visto en la materia de estadística y probabilidad se
basó en la conceptualización de la materia, comenzando con un poco de historia
donde se estableció que el desarrollo de la estadística consistía en 3 fases:
La primera relacionada a los censos, la segunda
fue el paso de la
Descripción de los Conjuntos a la Aritmética Política y la tercera fase
referente a la Estadística y Cálculo de
Probabilidades
Se dio a conocer la definición
del termino de estadística de diferente autores y uno de ellos la da a conocer
como un valor resumido,
calculado, como base en una muestra de observaciones que generalmente, aunque
no por necesidad, se considera como una estimación de parámetro de determinada
población; es decir, una función de
valores de muestra.
A medida que se fueron conociendo los distintos conceptos
relacionados se observó cuál es su importancia y utilidad. Normalmente es
utilizada para propósitos descriptivos, para organizar y resumir datos
numéricos. Se divide en estadística
descriptiva y estadística inferencial.
La estadística descriptiva es la encargada de la organización,
condensación, presentación de los datos en tablas y gráficos y del cálculo de
medidas numéricas que permitan estudiar los aspectos más importantes de los
datos. La estadística inferencial está definida por un conjunto de técnicas,
mediante las cuales se hacen generalizaciones o se toman decisiones en base a
información parcial obtenida mediante técnicas descriptivas.
En lo relacionado a los datos
estadísticos se dieron a conocer dos tipos: Los datos cualitativos que son
datos que solo toman valores asociados a las cualidades o atributos,
clasificándolos en una de varias categorías, es decir, no son valores
numéricos. Los datos cuantitativos provienen de variables que pueden medirse,
cuantificarse o expresarse numéricamente.
En la tercera y última clase del primer corte era
relacionada a la forma de presentar los datos estadísticos organizados que es
mediante: presentación con palabras, tablas estadísticas o graficas
estadísticas. Entre los tipos de tablas estadísticas se encuentran aquellas con
propósitos generales y con propósitos especiales.
El método estadístico es aquel procedimiento que se debe
llevar a cabo para obtener resultados mediante determinadas reglas y
operaciones, se basa en cuatro pasos:
1-
La etapa inicial, consiste en la recolección de
datos referidos a la situación que se desea investigar.
2- Tabulación y
agrupamiento de datos. Los datos son
convenientemente ordenados, clasificados y tabulados, es decir, dispuestos en
tablas que facilitan la lectura.
3- Medición de datos.
En esta etapa, comienza la elaboración matemática y medición de los datos.
4-
Inferencia estadística. Después de la medición de
datos, la Teoría de la Probabilidad acude en ayuda de la Estadística. Se
deducen las leyes de inferencia que permiten predecir el comportamiento futuro
de la población investigada.
Temas tratados en el segundo corte
La clase número 4 del segundo corte fue relacionada las
tablas de distribución de frecuencia las mismas se utilizan cuando se recolectan datos, con ellas
se pueden representar los datos de manera que es más fácil analizarlos. Se pueden elaborar tablas de distribución
de frecuencias para datos no agrupados y para datos agrupados. Estas últimas se
utiliza cuando se tienen muchos datos.
•
Cuando hay muchos datos se agrupan en clases.
•
Clase es cada uno de los grupos
en que se dividen los datos.
•
Para determinar cuántas clases crear, se puede utilizar la siguiente
fórmula: (fórmula de
Sturges ) Número de clases = 1 + 3,322 log n donde n es el número total de datos.
Se dio a conocer los tipos de frecuencia
entre los que se destacan: Frecuencia Absoluta simple, Frecuencia Absoluta acumulada, Frecuencia
Relativa simple y Frecuencia Relativa Acumulada.
En cuanto a la organización de datos para determinar el
número de veces que aparece cada dato (frecuencia absoluta), se utiliza el
diagrama de tallo y hojas. Este diagrama facilita determinar la cantidad de veces que se repite un
dato y los valores de los datos con el fin de escribirlos de manera ordenada en
la tabla
La clase
numero 5 fue relacionada a la representación gráfica en el estudio de la
estadística esta gráfica contribuye a un mejor análisis de los datos y ffacilita la comprensión del fenómeno considerado. Entre
los tipos de gráficos se encuentran:
El histograma es un
resumen gráfico de los valores producidos por las variaciones de una
determinada característica, representando la frecuencia con que se presentan
distintas categorías dentro de dicho conjunto. El polígono de frecuencias que se forma uniendo los extremos de las barras
de un diagrama de barras mediante segmentos.
La ojiva es una gráfica asociada a la distribución de
frecuencias, es decir, que en ella se permite ver cuántas observaciones se
encuentran por encima o debajo de ciertos valores, en lugar de solo exhibir los
números asignados a cada intervalo.
En los diagramas
de sectores se muestra el valor de la
frecuencia de la variable señalada como un sector circular dentro de un círculo
completo. Los pictogramas, que
muestran diagramas figurativos con figuras o motivos que aluden a la
distribución estadística analizada. Los
cartogramas, basados en mapas geográficos que utilizan distintas tramas,
colores o intensidades para remarcar las diferencias entre los datos
Las pirámides de población se utilizan en la expresión de
informaciones demográficas, económicas o sociales, y en ellas se clasifican
comúnmente los datos de la población del grupo de muestra considerado en
diferentes escalas de edad y diferenciada por sexo.
Cuarta asignacion. segundo corte
Ejercicios medidas de dispersión
1)
Calcular
todas las medidas de dispersión para la siguiente distribución
|
Xi
|
ni
|
|
5
|
3
|
|
10
|
7
|
|
15
|
5
|
|
20
|
3
|
|
25
|
2
|
Numero total de datos = 5
Media aritmética 15
Rango = VM-Vm
R=
25-5=20
VARIANZA
S2=∑(Xi-
X)2 *n
N
S2=│(5-15)2 *3│+│(10-15)2
*7│+│(15-15)2 *5│+│(20-15)2 *3│+│(25-15)2 *2│
20
S2=
300+175+0+75+200
20
S2=750 = 37.5
20
DESVIACION
ESTANDAR
S=
S= 
S= 6.123
COEFICIENTE
DE VARIACION
CV= S
CV = 6.123
15
CV= 0.408
* 100= 40.8%
Suscribirse a:
Comentarios (Atom)


