INSTITUTO DE ESTUDIOS SUPERIORES DE CHIAPAS
UNIVERSIDAD SALAZAR
ASESOR:
DR. VICTOR AVENDAÑO PORRAS
DOCTORADO EN: “ADMINISTRACIÓN”
Materia:
SEMINARIO DE INVESTIGACIÓN II
Titulo:
DEFINICIÓN CONCEPTOS MATEMÁTICOS
Alumno:
Lic. Majin C. Ruiz Díaz
Tuxtla Gutiérrez, Chiapas; Mayo de 2012.
MEDIA
En matemáticas y estadística una media o promedio es una medida de tendencia
central que según la Real Academia Española, resulta al efectuar una serie
determinada de operaciones con un conjunto de números y que, en determinadas
condiciones, puede representar por sí solo a todo el conjunto. Existen distintos
tipos de medias, tales como la media geométrica, la media ponderada y la media
armónica aunque en el lenguaje común, el término se refiere generalmente a la
media aritmética.
La media aritmética es un promedio estándar que a menudo se denomina
"promedio". La media se confunde a veces con la mediana o moda. La media
aritmética es el promedio de un conjunto de valores, o su distribución; sin
embargo, para las distribuciones con sesgo, la media no es necesariamente el
mismo valor que la mediana o que la moda. La media, moda y mediana son
parámetros característicos de una distribución de probabilidad. Es a veces una
forma de medir el sesgo de una distribución tal y como se puede hacer en las
distribuciones exponencial y de Poisson.
Por ejemplo, la media aritmética de 34, 27, 45, 55, 22, 34 (seis valores) es:
34+27+45+55+22+34= 217 = 36.167
6 6
ERRORES TÍPICOS
En estadística, un error típico se refiere a las variaciones que son a menudo
inevitables. El error típico puede definirse también como la variación producida por
factores distorsionantes tanto conocidos como desconocidos.
Tipos de error. Se pueden definir los siguientes tipos de error:
Error de tratamiento. Debido a la incapacidad de replicar o repetir el
tratamiento desde una aplicación y la siguiente.
Error de estado. Debido a cambios aleatorios en el estado físico de las
unidades experimentales.
Error de medida. Debido a las imprecisiones en el proceso de medición o
recuento.
Error de muestreo. Debido a la selección aleatoria de unidades
experimentales para la investigación.
Error experimental. Está asociado a una unidad experimental, refleja las
diferencias entre las múltiples unidades experimentales, es decir, una
unidad experimental no puede ser replicada en forma exacta.
Error observacional. Está asociado a las unidades observacionales; es un
reflejo del error de medición y del error del muestreo (además de otros
factores).
MEDIANA (ESTADÍSTICA)
En el ámbito de la estadística, la mediana, representa el valor de la variable de
posición central en un conjunto de datos ordenados. De acuerdo con esta
definición el conjunto de datos menores o iguales que la mediana representarán el
50% de los datos, y los que sean mayores que la mediana representarán el otro
50% del total de datos de la muestra. La mediana coincide con el percentil 50, con
el segundo cuartil y con el quinto decil. Su cálculo no se ve afectado por valores
extremos.
Cálculo
Es el valor medio en un conjunto de valores ordenados. Corresponde al percentil
50 o segundo cuartil (P50 o Q2). Los pasos son: 1) Arregla los valores en orden
del menor al mayor 2) Cuenta de derecha a izquierda o al revés hasta encontrar el
valor o valores medios. Ejemplo: tenemos el siguiente conjunto de números
8,3,7,4,11,2,9,4,10,11,4 ordenamos: 2,3,4,4,4,7,8,9,10,11,11 En esta secuencia la
mediana es 7, que es el número central. Y si tuviésemos: 8,3,7,4,11,9,4,10,11,4,
entonces ordenamos: 3,4,4,4,7,8,9,10,11,11 y la mediana (Md) está en: los
números centrales son 7 y 8, lo que haces es sumar 7 + 8 y divides entre 2 y Md=
7.5.
Existen dos métodos para el cálculo de la mediana:
1. Considerando los datos en forma individual, sin agruparlos.
2. Utilizando los datos agrupados en intervalos de clase.
MODA (ESTADÍSTICA)
En estadística, la moda es el valor con una mayor frecuencia en una distribución
de datos.
Hablaremos de una distribución bimodal de los datos adquiridos en una columna
cuando encontremos dos modas, es decir, dos datos que tengan la misma
frecuencia absoluta máxima. Una distribución trimodal de los datos es en la que
encontramos tres modas. Si todas las variables tienen la misma frecuencia
diremos que no hay moda.
El intervalo modal es el de mayor frecuencia absoluta. Cuando tratamos con datos
agrupados antes de definir la moda, se ha de definir el intervalo modal.
La moda, cuando los datos están agrupados, es un punto que divide al intervalo
modal en dos partes de la forma p y c-p, siendo c la amplitud del intervalo, que
verifiquen que:
Siendo la frecuencia absoluta del intervalo modal las frecuencias absolutas de los
intervalos anterior y posterior, respectivamente, al intervalo modal.
Moda de datos agrupados
Para obtener la moda en datos agrupados se usa la siguiente fórmula:
Donde:
= L-inferior de la clase modal.
= es el delta de frecuencia absoluta modal y la frecuencia absoluta premodal.
= es el delta de frecuencia absoluta modal y la frecuencia absoluta postmodal.
i = intervalo.
Encontrar la estatura modal de un grupo que se encuentra distribuido de la
siguiente forma:
Entre 1 y 1.10 hay 1 estudiante
Entre 1.10 y 1.15 hay 1 estudiantes
Entre 1.20 y 1.25 hay 2 estudiantes
Entre 1.30 y 1.35 hay 2 estudiantes.
Entre 1.45 y 1.55 hay 3 estudiantes.
Entre 1.50 y 1.60 hay 4 estudiantes.
Entre 1.60 y 1.70 hay 10 estudiantes.
Entre 1.70 y 1.80 hay 8 estudiantes.
Entre 1.80 y 1.90 hay 2 estudiantes.
Clase modal = 1.60 y 1.70 (es la que tiene frecuencia absoluta más alta, 10)
Li-1 = 1.60 D1 = 6 D2 = 2 i = 0.10
Moda = 1.60 + (6/8) * 0.1 = 1.675
DESVIACIÓN ESTÁNDAR
La desviación estándar o desviación típica (denotada con el símbolo σ) es una
medida de centralización o dispersión para variables de razón (ratio o cociente) y
de intervalo, de gran utilidad en la estadística descriptiva.
Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación
típica es una medida (cuadrática) que informa de la media de distancias que
tienen los datos respecto de su media aritmética, expresada en las mismas
unidades que la variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas
de tendencia central, sino que necesitamos conocer también la desviación que
presentan los datos en su distribución respecto de la media aritmética de dicha
distribución, con objeto de tener una visión de los mismos más acorde con la
realidad al momento de describirlos e interpretarlos para la toma de decisiones
VARIANZA
En teoría de probabilidad, la varianza (que suele representarse como ) de una
variable aleatoria es una medida de dispersión definida como la esperanza del
cuadrado de la desviación de dicha variable respecto a su media.
Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable
mide una distancia en metros, la varianza se expresa en metros al cuadrado. La
desviación estándar, es la raíz cuadrada de la varianza, es una medida de
dispersión alternativa expresada en las mismas unidades de los datos de la
variable objeto de estudio. La varianza tiene como valor mínimo 0.
Hay que tener en cuenta que la varianza puede verse muy influida por los valores
atípicos y no se aconseja su uso cuando las distribuciones de las variables
aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras
medidas de dispersión más robustas.
El término varianza fue acuñado por Ronald Fisher en un artículo de 1918 titulado
The Correlation Between Relatives on the Supposition of Mendelian Inheritance.
Dada una variable aleatoria X con media μ = E(X), se define su varianza, Var(X)
(también representada como o, simplemente σ2), como
Desarrollando la definición anterior, se obtiene la siguiente definición alternativa (y
equivalente):
Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco
tiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecen
de varianza. Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 <
k ≤ 2.
Si la variable aleatoria X es continua con función de densidad f(x), entonces
Donde
y las integrales están definidas sobre el rango de X.
Si la variable aleatoria X es discreta con pesos x1 ↦ p1, ..., xn ↦ pn, entonces
Donde
CURTOSIS
En teoría de la probabilidad y estadística, la curtosis es una medida de la forma o
apuntamiento de las distribuciones. Así las medidas de curtosis (también llamadas
de apuntamiento o de concentración central) tratan de estudiar la mayor o menor
concentración de frecuencias alrededor de la media y en la zona central de la
distribución.
Definición de curtosis. El coeficiente de apuntamiento de uso más extendido es el
basado en el cuarto momento con respecto a la media y se define como:
donde es el 4º momento centrado o con respecto a la media y es la
desviación estándar.
En ocasiones se emplea esta otra definición del coeficiente de curtosis:
donde al final se ha sustraído 3 (que es la curtosis de la Normal) con objeto de
generar un coeficiente que valga 0 para la Normal y tome a ésta como referencia
de apuntamiento:
Tomando, pues, la distribución normal como referencia, una distribución puede
ser:
más apuntada que la normal –leptocúrtica.
menos apuntada que la normal- platicúrtica.
la distribución normal es mesocúrtica.
En la distribución normal se verifica que , donde es el momento de
orden 4 respecto a la media y la desviación típica.
Así tendremos que:
Si la distribución es leptocúrtica y
Si la distribución es platicúrtica y
Si la distribución es mesocúrtica y
Otra forma de medir la curtosis se obtiene examinando la fórmula de la curtosis de
la suma de variables aleatorias. Si Y es la suma de n variables aleatorias
estadísticamente independientes, todas con igual distribución X, entonces
, complicándose la fórmula si la curtosis se hubiese
definido como .
ASIMETRIA
Las medidas de asimetría son indicadores que permiten establecer el grado de
simetría (o asimetría) que presenta una distribución de probabilidad de una
variable aleatoria sin tener que hacer su representación gráfica.
Como eje de simetría consideramos una recta paralela al eje de ordenadas que
pasa por la media de la distribución. Si una distribución es simétrica, existe el
mismo número de valores a la derecha que a la izquierda de la media, por tanto, el
mismo número de desviaciones con signo positivo que con signo negativo.
Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la
media es más larga que la de la izquierda, es decir, si hay valores más separados
de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si
la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si
hay valores más separados de la media a la izquierda.
COEFICIENTE DE ASIMETRÍA de Fisher
En teoría de la probabilidad y estadística, la medida de asimetría más utilizada
parte del uso del tercer momento estándar. La razón de esto es que nos interesa
mantener el signo de las desviaciones con respecto a la media, para obtener si
son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin
embargo, no es buena idea tomar el momento estándar con respecto a la media
de orden 1. Debido a que una simple suma de todas las desviaciones siempre es
cero. En efecto, si por ejemplo, los datos están agrupados en clases, se tiene
que:
en donde representa la marca de la clase -ésima y denota la frecuencia
relativa de dicha clase. Por ello, lo más sencillo es tomar las desviaciones al cubo.
El COEFICIENTE DE ASIMETRÍA de Fisher, representado por , se define como:
Donde es el tercer momento en torno a la media y es la desviación estándar.
Si , la distribución es asimétrica positiva o a la derecha.
Si , la distribución es asimétrica negativa o a la izquierda.
Si la distribución es simétrica, entonces sabemos que . El recíproco no es
cierto: es un error común asegurar que si entonces la distribución es
simétrica (lo cual es falso).
COEFICIENTE DE ASIMETRÍA de Pearson
Sólo se puede utilizar en distribuciones uniformes, unimodales y moderadamente
asimétricas. Se basa en que en distribuciones simétricas la media de la
distribución es igual a la moda.
Si la distribución es simétrica, y . Si la distribución es
asimétrica positiva la media se sitúa por encima de la moda y, por tanto .
COEFICIENTE DE ASIMETRÍA de Bowley
Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente
expresión:
En una distribución simétrica el tercer cuartil estará a la misma distancia de la
mediana que el primer cuartil. Por tanto .
Si la distribución es positiva o a la derecha .
La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen
una distribución normal, esto es, simétrica en torno a la media. La distribución
normal tiene una asimetría cero. Pero en realidad, los valores no son nunca
perfectamente simétricos y la asimetría de la distribución proporciona una idea
sobre si las desviaciones de la media son positivas o negativas. Una asimetría
positiva implica que hay más valores distintos a la derecha de la media.
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto
con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede
aceptar que una distribución estadística sigue la distribución normal. Esto es
necesario para realizar numerosos contrastes estadísticos en la teoría de
inferencia estadística.
RANGO (ESTADÍSTICA)
En estadística descriptiva se denomina rango estadístico (R) o recorrido
estadístico al intervalo de menor tamaño que contiene a los datos; es igual a la
diferencia entre el valor máximo y el valor mínimo; por ello, comparte unidades con
los datos. Permite obtener una idea de la dispersión de los datos, cuanto mayor es
el rango, más dispersos están los datos de un conjunto.
Por ejemplo, para una serie de datos de carácter cuantitativo, como lo es la
estatura medida en centímetros, tendríamos:
es posible ordenar los datos como sigue:
donde la notación x(i) indica que se trata del elemento i-ésimo de la serie de datos.
De este modo, el rango sería la diferencia entre el valor máximo (k) y el mínimo; o,
lo que es lo mismo:
En nuestro ejemplo, con cinco valores, nos da que R = 185-155 = 30.
VALORES MÁXIMOS Y MÍNIMOS
Sin duda alguna una de las mayores aplicaciones del cálculo diferencial es la
optimización, en los cuales se nos pide la manera óptima de hacer algo. Todos
estos problemas de optimización se reducen a encontrar valores máximos y
mínimos de funciones.
Una función “f” tiene un máximo absoluto en C si
F(c) >= F(x) para toda x en D, donde D es el dominio de f. El número F(c) se llama
valor máximo de f en D. De manera análoga una función “f” tiene un mínimo
absoluto en C si
F(c) =< F(x) para toda x en D, donde D es el dominio de f. El numero F(c) se llama
valor mínimo de f en D. Estos valores se conocen como valores extremos.
Una función “f” tiene un máximo local en C si
F(c) >= F(x) cuando x esta cercano a C.
Pero no todas las funciones tienen valores extremos, por eso estudiamos el
teorema del valor extremo que dice que si “f” es continua sobre un intervalo
cerrado [a, b] entonces f alcanza un valor máximo absoluto f(c) y un valor mínimo
absoluto f(d) en algunos números c y d en [a, b].
Este teorema nos indica si existe o no un valor extremo pero no nos dice como
encontrarlo, para este propósito estudiamos el teorema de Fermat que dice que si
“f” tiene un máximo o mínimo local en C y si F'(c) existe, entonces
f'(c) = 0. Este teorema sugiere que empecemos a buscar los valores mínimos y
extremos de “f” en los números que hace la función 0 o indefinida. Estos números
tienen un nombre especial: Los números críticos de una función “f” es un numero c
en el dominio de “f” tal que f'(c) = 0 o f'(c) no existe. Por ende si “f” tiene un
extremo local en C, entonces C es un número critico de “f”.
En síntesis para hallar los valores máximos y mínimos de una Función “f” se debe
seguir este procedimiento (absolutos de un intervalo [a, b]):
Método del intervalo cerrado:
Encuentre los valores de “f” en los números críticos de “f” en (a, b). Halle los
valores de “f” en los puntos extremos del intervalo. El mas grande de los valores
de los pasos 1 y 2 es el valor máximo absoluto; el mas pequeño, el valor mínimo
absoluto
SUMA
La suma o adición es la operación básica por su naturalidad, que se representa
con el signo (+), que se combina con facilidad matemática de composición que
consiste en combinar o añadir dos números o más para obtener una cantidad final
o total. La suma también ilustra el proceso de juntar dos colecciones de objetos
con el fin de obtener una sola colección. Por otro lado, la acción repetitiva de
sumar uno es la forma más básica de contar.
En términos más formales, la suma es una operación aritmética definida sobre
conjuntos de números (naturales, enteros, racionales, reales y complejos), y
también sobre estructuras asociadas a ellos, como espacios vectoriales con
vectores cuyas componentes sean estos números o funciones que tengan su
imagen en ellos.
En el álgebra moderna se utiliza el nombre suma y su símbolo "+" para
representar la operación formal de un anillo que dota al anillo de estructura de
grupo abeliano, o la operación de un módulo que dota al módulo de estructura de
grupo abeliano. También se utiliza a veces en teoría de grupos para representar la
operación que dota a un conjunto de estructura de grupo. En estos casos se trata
de una denominación puramente simbólica, sin que necesariamente coincida esta
operación con la suma habitual en números, funciones, vectores, etc.
Propiedades de la suma
Propiedad conmutativa: Si se altera el orden de los sumandos, no cambia el
resultado: a + b=g+3.
Propiedad asociativa: Propiedad que establece que cuando se suman tres o
más números reales, la suma siempre es la misma independientemente de
su agrupamiento.2 Un ejemplo es: a+ (b-c) = (a x b)-c.
Elemento neutro: 0. Para cualquier número a, a + 0 = 0 + a = a.
Elemento opuesto o inverso aditivo: Para cualquier número entero, racional,
real o complejo a, existe un número −a tal que a + (−a) = (−a) + a = 0. Este
número −a se denomina elemento opuesto, y es único para cada a. No
existe en algunos conjuntos, como el de los números naturales.
Propiedad distributiva: La suma de dos números multiplicada por un tercer
número es igual a la suma del producto de cada sumando multiplicado por
el tercer número. Por ejemplo, (6+3) * 4 = 6*4 + 3*4.
Propiedad de cerradura: Cuando se suman números naturales el resultado
es siempre un número natural. Por ejemplo a + b=c.
Estas propiedades pueden no cumplirse en casos del límite de sumas parciales
cuando tienden al infinito.
CUENTA
Operación o conjunto de operaciones matemáticas necesarias para averiguar un
resultado.