21
INSTITUTO DE ESTUDIOS SUPERIORES DE CHIAPAS UNIVERSIDAD SALAZAR ASESOR: DR. VICTOR AVENDAÑO PORRAS DOCTORADO EN: “ADMINISTRACIÓN” Materia: SEMINARIO DE INVESTIGACIÓN II Titulo: DEFINICIÓN CONCEPTOS MATEMÁTICOS Alumno: Lic. Majin C. Ruiz Díaz

Conceptos

Embed Size (px)

Citation preview

Page 1: Conceptos

INSTITUTO DE ESTUDIOS SUPERIORES DE CHIAPAS

UNIVERSIDAD SALAZAR

ASESOR:

DR. VICTOR AVENDAÑO PORRAS

DOCTORADO EN: “ADMINISTRACIÓN”

Materia:

SEMINARIO DE INVESTIGACIÓN II

Titulo:

DEFINICIÓN CONCEPTOS MATEMÁTICOS

Alumno:

Lic. Majin C. Ruiz Díaz

Page 2: Conceptos

Tuxtla Gutiérrez, Chiapas; Mayo de 2012.

MEDIA

En matemáticas y estadística una media o promedio es una medida de tendencia

central que según la Real Academia Española, resulta al efectuar una serie

determinada de operaciones con un conjunto de números y que, en determinadas

condiciones, puede representar por sí solo a todo el conjunto. Existen distintos

tipos de medias, tales como la media geométrica, la media ponderada y la media

armónica aunque en el lenguaje común, el término se refiere generalmente a la

media aritmética.

La media aritmética es un promedio estándar que a menudo se denomina

"promedio". La media se confunde a veces con la mediana o moda. La media

aritmética es el promedio de un conjunto de valores, o su distribución; sin

embargo, para las distribuciones con sesgo, la media no es necesariamente el

mismo valor que la mediana o que la moda. La media, moda y mediana son

parámetros característicos de una distribución de probabilidad. Es a veces una

forma de medir el sesgo de una distribución tal y como se puede hacer en las

distribuciones exponencial y de Poisson.

Por ejemplo, la media aritmética de 34, 27, 45, 55, 22, 34 (seis valores) es:

34+27+45+55+22+34= 217 = 36.167

6 6

ERRORES TÍPICOS

En estadística, un error típico se refiere a las variaciones que son a menudo

inevitables. El error típico puede definirse también como la variación producida por

factores distorsionantes tanto conocidos como desconocidos.

Tipos de error. Se pueden definir los siguientes tipos de error:

Page 3: Conceptos

Error de tratamiento. Debido a la incapacidad de replicar o repetir el

tratamiento desde una aplicación y la siguiente.

Error de estado. Debido a cambios aleatorios en el estado físico de las

unidades experimentales.

Error de medida. Debido a las imprecisiones en el proceso de medición o

recuento.

Error de muestreo. Debido a la selección aleatoria de unidades

experimentales para la investigación.

Error experimental. Está asociado a una unidad experimental, refleja las

diferencias entre las múltiples unidades experimentales, es decir, una

unidad experimental no puede ser replicada en forma exacta.

Error observacional. Está asociado a las unidades observacionales; es un

reflejo del error de medición y del error del muestreo (además de otros

factores).

MEDIANA (ESTADÍSTICA)

En el ámbito de la estadística, la mediana, representa el valor de la variable de

posición central en un conjunto de datos ordenados. De acuerdo con esta

definición el conjunto de datos menores o iguales que la mediana representarán el

50% de los datos, y los que sean mayores que la mediana representarán el otro

50% del total de datos de la muestra. La mediana coincide con el percentil 50, con

el segundo cuartil y con el quinto decil. Su cálculo no se ve afectado por valores

extremos.

Cálculo

Es el valor medio en un conjunto de valores ordenados. Corresponde al percentil

50 o segundo cuartil (P50 o Q2). Los pasos son: 1) Arregla los valores en orden

Page 4: Conceptos

del menor al mayor 2) Cuenta de derecha a izquierda o al revés hasta encontrar el

valor o valores medios. Ejemplo: tenemos el siguiente conjunto de números

8,3,7,4,11,2,9,4,10,11,4 ordenamos: 2,3,4,4,4,7,8,9,10,11,11 En esta secuencia la

mediana es 7, que es el número central. Y si tuviésemos: 8,3,7,4,11,9,4,10,11,4,

entonces ordenamos: 3,4,4,4,7,8,9,10,11,11 y la mediana (Md) está en: los

números centrales son 7 y 8, lo que haces es sumar 7 + 8 y divides entre 2 y Md=

7.5.

Existen dos métodos para el cálculo de la mediana:

1. Considerando los datos en forma individual, sin agruparlos.

2. Utilizando los datos agrupados en intervalos de clase.

MODA (ESTADÍSTICA)

En estadística, la moda es el valor con una mayor frecuencia en una distribución

de datos.

Hablaremos de una distribución bimodal de los datos adquiridos en una columna

cuando encontremos dos modas, es decir, dos datos que tengan la misma

frecuencia absoluta máxima. Una distribución trimodal de los datos es en la que

encontramos tres modas. Si todas las variables tienen la misma frecuencia

diremos que no hay moda.

El intervalo modal es el de mayor frecuencia absoluta. Cuando tratamos con datos

agrupados antes de definir la moda, se ha de definir el intervalo modal.

La moda, cuando los datos están agrupados, es un punto que divide al intervalo

modal en dos partes de la forma p y c-p, siendo c la amplitud del intervalo, que

verifiquen que:

Page 5: Conceptos

Siendo la frecuencia absoluta del intervalo modal las frecuencias absolutas de los

intervalos anterior y posterior, respectivamente, al intervalo modal.

Moda de datos agrupados

Para obtener la moda en datos agrupados se usa la siguiente fórmula:

Donde:

= L-inferior de la clase modal.

= es el delta de frecuencia absoluta modal y la frecuencia absoluta premodal.

= es el delta de frecuencia absoluta modal y la frecuencia absoluta postmodal.

i = intervalo.

Encontrar la estatura modal de un grupo que se encuentra distribuido de la

siguiente forma:

Entre 1 y 1.10 hay 1 estudiante

Entre 1.10 y 1.15 hay 1 estudiantes

Entre 1.20 y 1.25 hay 2 estudiantes

Entre 1.30 y 1.35 hay 2 estudiantes.

Entre 1.45 y 1.55 hay 3 estudiantes.

Entre 1.50 y 1.60 hay 4 estudiantes.

Page 6: Conceptos

Entre 1.60 y 1.70 hay 10 estudiantes.

Entre 1.70 y 1.80 hay 8 estudiantes.

Entre 1.80 y 1.90 hay 2 estudiantes.

Clase modal = 1.60 y 1.70 (es la que tiene frecuencia absoluta más alta, 10)

Li-1 = 1.60 D1 = 6 D2 = 2 i = 0.10

Moda = 1.60 + (6/8) * 0.1 = 1.675

DESVIACIÓN ESTÁNDAR

La desviación estándar o desviación típica (denotada con el símbolo σ) es una

medida de centralización o dispersión para variables de razón (ratio o cociente) y

de intervalo, de gran utilidad en la estadística descriptiva.

Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación

típica es una medida (cuadrática) que informa de la media de distancias que

tienen los datos respecto de su media aritmética, expresada en las mismas

unidades que la variable.

Para conocer con detalle un conjunto de datos, no basta con conocer las medidas

de tendencia central, sino que necesitamos conocer también la desviación que

presentan los datos en su distribución respecto de la media aritmética de dicha

distribución, con objeto de tener una visión de los mismos más acorde con la

realidad al momento de describirlos e interpretarlos para la toma de decisiones

VARIANZA

En teoría de probabilidad, la varianza (que suele representarse como ) de una

variable aleatoria es una medida de dispersión definida como la esperanza del

cuadrado de la desviación de dicha variable respecto a su media.

Page 7: Conceptos

Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable

mide una distancia en metros, la varianza se expresa en metros al cuadrado. La

desviación estándar, es la raíz cuadrada de la varianza, es una medida de

dispersión alternativa expresada en las mismas unidades de los datos de la

variable objeto de estudio. La varianza tiene como valor mínimo 0.

Hay que tener en cuenta que la varianza puede verse muy influida por los valores

atípicos y no se aconseja su uso cuando las distribuciones de las variables

aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras

medidas de dispersión más robustas.

El término varianza fue acuñado por Ronald Fisher en un artículo de 1918 titulado

The Correlation Between Relatives on the Supposition of Mendelian Inheritance.

Dada una variable aleatoria X con media μ = E(X), se define su varianza, Var(X)

(también representada como o, simplemente σ2), como

Desarrollando la definición anterior, se obtiene la siguiente definición alternativa (y

equivalente):

Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco

tiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecen

de varianza. Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 <

k ≤ 2.

Si la variable aleatoria X es continua con función de densidad f(x), entonces

Page 8: Conceptos

Donde

y las integrales están definidas sobre el rango de X.

Si la variable aleatoria X es discreta con pesos x1 ↦ p1, ..., xn ↦ pn, entonces

Donde

CURTOSIS

En teoría de la probabilidad y estadística, la curtosis es una medida de la forma o

apuntamiento de las distribuciones. Así las medidas de curtosis (también llamadas

de apuntamiento o de concentración central) tratan de estudiar la mayor o menor

concentración de frecuencias alrededor de la media y en la zona central de la

distribución.

Definición de curtosis. El coeficiente de apuntamiento de uso más extendido es el

basado en el cuarto momento con respecto a la media y se define como:

Page 9: Conceptos

donde es el 4º momento centrado o con respecto a la media y es la

desviación estándar.

En ocasiones se emplea esta otra definición del coeficiente de curtosis:

donde al final se ha sustraído 3 (que es la curtosis de la Normal) con objeto de

generar un coeficiente que valga 0 para la Normal y tome a ésta como referencia

de apuntamiento:

Tomando, pues, la distribución normal como referencia, una distribución puede

ser:

más apuntada que la normal –leptocúrtica.

menos apuntada que la normal- platicúrtica.

la distribución normal es mesocúrtica.

En la distribución normal se verifica que , donde es el momento de

orden 4 respecto a la media y la desviación típica.

Así tendremos que:

Si la distribución es leptocúrtica y

Si la distribución es platicúrtica y

Si la distribución es mesocúrtica y

Otra forma de medir la curtosis se obtiene examinando la fórmula de la curtosis de

la suma de variables aleatorias. Si Y es la suma de n variables aleatorias

estadísticamente independientes, todas con igual distribución X, entonces

Page 10: Conceptos

, complicándose la fórmula si la curtosis se hubiese

definido como .

ASIMETRIA

Las medidas de asimetría son indicadores que permiten establecer el grado de

simetría (o asimetría) que presenta una distribución de probabilidad de una

variable aleatoria sin tener que hacer su representación gráfica.

Como eje de simetría consideramos una recta paralela al eje de ordenadas que

pasa por la media de la distribución. Si una distribución es simétrica, existe el

mismo número de valores a la derecha que a la izquierda de la media, por tanto, el

mismo número de desviaciones con signo positivo que con signo negativo.

Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la

media es más larga que la de la izquierda, es decir, si hay valores más separados

de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si

la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si

hay valores más separados de la media a la izquierda.

COEFICIENTE DE ASIMETRÍA de Fisher

En teoría de la probabilidad y estadística, la medida de asimetría más utilizada

parte del uso del tercer momento estándar. La razón de esto es que nos interesa

mantener el signo de las desviaciones con respecto a la media, para obtener si

son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin

embargo, no es buena idea tomar el momento estándar con respecto a la media

de orden 1. Debido a que una simple suma de todas las desviaciones siempre es

cero. En efecto, si por ejemplo, los datos están agrupados en clases, se tiene

que:

Page 11: Conceptos

en donde representa la marca de la clase -ésima y denota la frecuencia

relativa de dicha clase. Por ello, lo más sencillo es tomar las desviaciones al cubo.

El COEFICIENTE DE ASIMETRÍA de Fisher, representado por , se define como:

Donde es el tercer momento en torno a la media y es la desviación estándar.

Si , la distribución es asimétrica positiva o a la derecha.

Si , la distribución es asimétrica negativa o a la izquierda.

Si la distribución es simétrica, entonces sabemos que . El recíproco no es

cierto: es un error común asegurar que si entonces la distribución es

simétrica (lo cual es falso).

COEFICIENTE DE ASIMETRÍA de Pearson

Sólo se puede utilizar en distribuciones uniformes, unimodales y moderadamente

asimétricas. Se basa en que en distribuciones simétricas la media de la

distribución es igual a la moda.

Si la distribución es simétrica, y . Si la distribución es

asimétrica positiva la media se sitúa por encima de la moda y, por tanto .

Page 12: Conceptos

COEFICIENTE DE ASIMETRÍA de Bowley

Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente

expresión:

En una distribución simétrica el tercer cuartil estará a la misma distancia de la

mediana que el primer cuartil. Por tanto .

Si la distribución es positiva o a la derecha .

La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen

una distribución normal, esto es, simétrica en torno a la media. La distribución

normal tiene una asimetría cero. Pero en realidad, los valores no son nunca

perfectamente simétricos y la asimetría de la distribución proporciona una idea

sobre si las desviaciones de la media son positivas o negativas. Una asimetría

positiva implica que hay más valores distintos a la derecha de la media.

Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto

con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede

aceptar que una distribución estadística sigue la distribución normal. Esto es

necesario para realizar numerosos contrastes estadísticos en la teoría de

inferencia estadística.

RANGO (ESTADÍSTICA)

En estadística descriptiva se denomina rango estadístico (R) o recorrido

estadístico al intervalo de menor tamaño que contiene a los datos; es igual a la

diferencia entre el valor máximo y el valor mínimo; por ello, comparte unidades con

los datos. Permite obtener una idea de la dispersión de los datos, cuanto mayor es

el rango, más dispersos están los datos de un conjunto.

Page 13: Conceptos

Por ejemplo, para una serie de datos de carácter cuantitativo, como lo es la

estatura medida en centímetros, tendríamos:

es posible ordenar los datos como sigue:

donde la notación x(i) indica que se trata del elemento i-ésimo de la serie de datos.

De este modo, el rango sería la diferencia entre el valor máximo (k) y el mínimo; o,

lo que es lo mismo:

En nuestro ejemplo, con cinco valores, nos da que R = 185-155 = 30.

VALORES MÁXIMOS Y MÍNIMOS

Sin duda alguna una de las mayores aplicaciones del cálculo diferencial es la

optimización, en los cuales se nos pide la manera óptima de hacer algo. Todos

estos problemas de optimización se reducen a encontrar valores máximos y

mínimos de funciones.

Una función “f” tiene un máximo absoluto en C si

F(c) >= F(x) para toda x en D, donde D es el dominio de f. El número F(c) se llama

valor máximo de f en D. De manera análoga una función “f” tiene un mínimo

absoluto en C si

F(c) =< F(x) para toda x en D, donde D es el dominio de f. El numero F(c) se llama

valor mínimo de f en D. Estos valores se conocen como valores extremos.

Page 14: Conceptos

Una función “f” tiene un máximo local en C si

F(c) >= F(x) cuando x esta cercano a C.

Pero no todas las funciones tienen valores extremos, por eso estudiamos el

teorema del valor extremo que dice que si “f” es continua sobre un intervalo

cerrado [a, b] entonces f alcanza un valor máximo absoluto f(c) y un valor mínimo

absoluto f(d) en algunos números c y d en [a, b].

Este teorema nos indica si existe o no un valor extremo pero no nos dice como

encontrarlo, para este propósito estudiamos el teorema de Fermat que dice que si

“f” tiene un máximo o mínimo local en C y si F'(c) existe, entonces

f'(c) = 0. Este teorema sugiere que empecemos a buscar los valores mínimos y

extremos de “f” en los números que hace la función 0 o indefinida. Estos números

tienen un nombre especial: Los números críticos de una función “f” es un numero c

en el dominio de “f” tal que f'(c) = 0 o f'(c) no existe. Por ende si “f” tiene un

extremo local en C, entonces C es un número critico de “f”.

En síntesis para hallar los valores máximos y mínimos de una Función “f” se debe

seguir este procedimiento (absolutos de un intervalo [a, b]):

Método del intervalo cerrado:

Encuentre los valores de “f” en los números críticos de “f” en (a, b). Halle los

valores de “f” en los puntos extremos del intervalo. El mas grande de los valores

de los pasos 1 y 2 es el valor máximo absoluto; el mas pequeño, el valor mínimo

absoluto

Page 15: Conceptos

SUMA

La suma o adición es la operación básica por su naturalidad, que se representa

con el signo (+), que se combina con facilidad matemática de composición que

consiste en combinar o añadir dos números o más para obtener una cantidad final

o total. La suma también ilustra el proceso de juntar dos colecciones de objetos

con el fin de obtener una sola colección. Por otro lado, la acción repetitiva de

sumar uno es la forma más básica de contar.

En términos más formales, la suma es una operación aritmética definida sobre

conjuntos de números (naturales, enteros, racionales, reales y complejos), y

también sobre estructuras asociadas a ellos, como espacios vectoriales con

vectores cuyas componentes sean estos números o funciones que tengan su

imagen en ellos.

En el álgebra moderna se utiliza el nombre suma y su símbolo "+" para

representar la operación formal de un anillo que dota al anillo de estructura de

grupo abeliano, o la operación de un módulo que dota al módulo de estructura de

grupo abeliano. También se utiliza a veces en teoría de grupos para representar la

operación que dota a un conjunto de estructura de grupo. En estos casos se trata

de una denominación puramente simbólica, sin que necesariamente coincida esta

operación con la suma habitual en números, funciones, vectores, etc.

Propiedades de la suma

Propiedad conmutativa: Si se altera el orden de los sumandos, no cambia el

resultado: a + b=g+3.

Propiedad asociativa: Propiedad que establece que cuando se suman tres o

más números reales, la suma siempre es la misma independientemente de

su agrupamiento.2 Un ejemplo es: a+ (b-c) = (a x b)-c.

Elemento neutro: 0. Para cualquier número a, a + 0 = 0 + a = a.

Page 16: Conceptos

Elemento opuesto o inverso aditivo: Para cualquier número entero, racional,

real o complejo a, existe un número −a tal que a + (−a) = (−a) + a = 0. Este

número −a se denomina elemento opuesto, y es único para cada a. No

existe en algunos conjuntos, como el de los números naturales.

Propiedad distributiva: La suma de dos números multiplicada por un tercer

número es igual a la suma del producto de cada sumando multiplicado por

el tercer número. Por ejemplo, (6+3) * 4 = 6*4 + 3*4.

Propiedad de cerradura: Cuando se suman números naturales el resultado

es siempre un número natural. Por ejemplo a + b=c.

Estas propiedades pueden no cumplirse en casos del límite de sumas parciales

cuando tienden al infinito.

CUENTA

Operación o conjunto de operaciones matemáticas necesarias para averiguar un

resultado.