28
Universidad Nacional Experimental de Guayana Vicerrectorado Académico Proyecto de carrera Ingeniería en industrias Forestales REGRESION LINEAL MULTIPLE Y CUADRATICA APLICADA A LA INGENIRIA Y A OTRAS CIENCIAS. Profesor: Ing. Álvaro Barrios Upata, Julio del 2014 Integrantes: Grillet Evelin Montaño María Rodríguez Thomas

Regresión lineal multiple autores grillet montaño rodríguez

Embed Size (px)

Citation preview

Universidad Nacional Experimental de Guayana

Vicerrectorado Académico

Proyecto de carrera

Ingeniería en industrias Forestales

REGRESION LINEAL MULTIPLE Y CUADRATICA

APLICADA A LA INGENIRIA Y A OTRAS CIENCIAS.

Profesor:

Ing. Álvaro Barrios

Upata, Julio del 2014

Integrantes:

Grillet Evelin

Montaño María

Rodríguez Thomas

ii

INDICE GENERAL

Pag.

Lista de cuadros………………………………………………………………… IV

Lista de imágenes…………………………………………………………..…... V

Lista de gráficos……………………………………………………………….... VI

Introducción…………………………………………………………………….. 1

Objetivo general………………………………………………………………... 3

Objetivo especifico……………………………………………………………... 3

Regresión Lineal..……………...……………………………………………….. 4

Regresión Lineal Simple.………………………………………………….……. 4

Diagrama de Dispersión..………………………………………………………. 7

Determinación de la ecuación para regresión lineal simple…………………..... 8

Predicciones en el análisis de regresión: interpolación contra

extrapolación…………………………………………………………………..

9

Error estándar de la estimación…………………………………………………. 9

Medidas de variación en la regresión

correlación……………...………………………………………………….........

10

Coeficiente de determinación…..………………………………………………. 11

iii

Pag.

El coeficiente de correlación…………………………………………..……….. 12

nálisis de Regresión Múltiple.……………………………...……….....……… 13

Ejercicio nº 1…………………………………………………..…………...…… 15

Ejercicio nº 2……………………………………………………………...…….. 20

Conclusiones…………………………………………………………………… 22

Recomendaciones………………………………………………………………. 23

Referencias……………………………………………………………………... 24

iv

LISTA DE FIGURAS

Cuadro Pag.

1 Datos del Experimento…………………………………………… 15

2 Análisis de los datos (regresión)………………………………… 16

N Datos del experimento de flujo sanguíneo de los seres

humano……………………………………………………………

20

Imagen Pag.

1 Tipos de modelo de Regresión ……………………………………. 6

N Medidas de variación en la regresión.……………………………… 11

Gráfico Pag.

1 Curva de regresión ajustada variable X1…………………………… 18

2 Curva de regresión ajustada variable X2…………………………… 18

N Regresión cuadrática……………………………………………… 21

INTRODUCCION

La regresión y la correlación son dos técnicas estrechamente relacionadas y

comprenden una forma de estimación.

En forma más especifica el análisis de correlación y regresión comprende el

análisis de los datos muéstrales para saber qué es y cómo se relacionan entre sí dos o

más variables en una población. El análisis de correlación produce un número que

resume el grado de la correlación entre dos variables; y el análisis de regresión da

lugar a una ecuación matemática que describe dicha relación.

El análisis de regresión lineal es una técnica estadística utilizada para estudiar

la relación entre variables cuantitativas. Tanto en el caso de dos variables (regresión

simple) como en el de más de dos variables (regresión múltiple), el análisis regresión

lineal puede utilizarse para explorar y cuantificar la relación entre una variable

llamada dependiente o criterio (Y) y una o más variables llamadas independientes o

predictoras (X1, X2, …, Xp), así como para desarrollar una ecuación lineal con fines

predictivos. (Escuela Superior de Informática, s/f).

El modelo de regresión cuadrática es una alternativa cuando el modelo lineal

no logra un coeficiente de determinación apropiado, o cuando el fenómeno en estudio

tiene un comportamiento que puede considerarse como parabólico. La forma más

simple de tratar de establecer la tendencia es a través de un diagrama de dispersión o

nube de puntos (Reyes, 2011)

En el marco del análisis estadístico multidimensional interesa, en gran

medida, descubrir la interdependencia o la relación existente entre dos o más de las

características analizadas.

En el siguiente trabajo se presentan dos (02) ejercicios aplicados de regresión

donde uno demuestra dos variables independientes que son el peso inicial y la

2

cantidad de alimentos, con respecto a una variable dependiente que es el peso final,

como se pide comprobar si es posible predecir el peso de un animal en un periodo

determinado, se estudio el caso y se puede definir que este pertenece a regresión

lineal múltiple ya que tiene más de dos variables.

El segundo (02) ejercicio solo presenta dos variables “x” y “y” y se trata de

una regresión cuadrática donde se tendrá que estimar su ecuación.

Para ambos ejercicios se utilizara Microsoft Excel para analizar los datos y

estudiar sus respectivas graficas de regresión ya sea lineal o grafico de dispersión.

La solución de estos ejercicios permitirá conocer la importancia de la

regresión y sus diferentes tipos para la aplicación de la Ingeniería y otras Ciencias.

3

OBJETIVO GENERAL

Resolver dos (02) ejercicios de regresión, aplicados en Ingeniería y en otras Ciencias

OBJETIVOS ESPECIFICOS

Definir Regresión, tipos, diagramas, sus ecuaciones y errores.

Obtener posibles eventos que involucren diferentes modelos de regresión.

Determinar una función matemática sencilla que describa el comportamiento

de una variable dados los valores de otra u otras variables.

Aplicar los conocimientos de Regresión, comprendiendo e interpretando los

diferentes tipos de regresión para aplicarlos en la resolución de los ejercicios.

4

REGRESIÓN LINEAL.

Según Leonard,. y Díaz . (2006) Dice que el objetivo principal del análisis de

regresión es estimar el valor de una variable aleatoria (la variable dependiente) dado

que se conoce el valor de la variable asociada (la variable independiente). La variable

dependiente también se denomina variable de respuesta, mientras que la variable

independiente también se denomina variable predictora.

Dependiendo del criterio matemático que se emplee, se puede dar distintas

ecuaciones lineales diferentes para un mismo diagrama de dispersión dado. Con el

criterio del mínimo cuadrados, la recta de regresión de mejor ajuste ( y la mejor

ecuación) es aquella en la cual se minimiza la suma de las desviaciones al cuadrado

entre los valores estimado y real de la variable dependiente para el dato muestral

correspondiente. Las formulas de cálculo mediante las cuales se pueden determinar

los valores de y b1 para la ecuación de regresión que satisface el criterio de

mínimos cuadrados son: (Ob. Cit.)

-

REGRESIÓN LINEAL SIMPLE

Según Walpole y Myers (1992) En el caso de una regresión lineal simple

donde hay una sola variable de regresión independiente una sola variable

aleatoria dependiente Y, los datos pueden representarse por los pares de

observaciones .

Se desea determinar la relación entre una sola variable regresiva X y una

variable de respuesta Y. La variable regresiva X se supone como una variable

5

matemática continua, controlable por el experimentador. Supóngase que la verdadera

relación entre Y y X es una línea recta, y que la observación Y en cada nivel de X es

una variable aleatoria.

El modelo para la línea recta se puede representar como:

En donde:

A= intercepción real con el eje Y de la población

B= pendiente real de la población

= error aleatorio en Y para la observación

En este modelo, la pendiente B de la recta representa el cambio unitario en Y,

por cambio unitario en X, es decir, representa la cantidad de cambio de Y (Positivo o

Negativo) para un cambio unitario particular en X. Por otra parte, la intercepción A

con el eje Y representa un factor constante que está incluido en la ecuación.

Representa el valor de Y cuando X es igual a cero. Además la ultima componente ,

del modelo representa el error aleatorio en Y para cada observación que ocurre. Este

término se ha incluido sólo porque el modelo estadístico es una aproximación a la

relación exacta entre las dos variables. (Gómez C., 2009)

Según Robert Johnson (1990) dice que la línea de regresión se deduce del

análisis de una situación en la cual se tiene dos a más variables de comportamiento

relacionado. Cuando se estudia esas dos variables conjuntamente, amenudo se ve una

situación donde se podría controlar una de las variables mediante acciones sobre la

otra; o tal vez se quiera predecir el valor de la segunda el base al conocimiento de la

primera. En cualquiera de estos casos se desea encontrar una línea de regresión si

existe que prediga de manera óptima el valor de la variable de salida. La variable que

6

se conoce o se puede controlar se llama variable de entrada. La variable que resulta

de la utilización de la ecuación de la línea de regresión se llama variable de salida.

La grafica lineal que se obtiene no es simplemente una representación visual

de nuestros datos. De hecho, revela dos cosas: a) existen realmente una relación

funcional (ecuacional) entre las dos variables, y b)la línea expresa la relación

cuantitativa entre ambas variables.(Ob.Cit)

Imagen nº 1. Tipos de Modelos de Regresión

Una vez trabajado el

diagrama de dispersión se

puede lograr una idea

aproximada del tipo de

relación existente entre las

variables. La naturaleza de

la relación puede adoptar

muchas formas, que van

desde funciones

matemáticas muy sencillas

hasta muy complicadas. La

relación más simple

consiste en una línea recta

o relación lineal.(Gómez,

2009)

Fuente: Gómez, (2009)

7

EL DIAGRAMA DE DISPERSIÓN

Un diagrama de dispersión es una gráfica en la que se traza cada uno de los

puntos que representan un par de valores observados para las variables independiente

y dependiente. El valor de la variable independiente se gráfica con respecto al eje

horizontal, y el valor de la variable dependiente Y se traza con respecto al eje vertical.

(Kazmier. y Díaz, 1997)

La forma de la relación representada mediante el diagrama de dispersión

puede ser curvilínea y no lineal. Para las relaciones que no son lineales, un enfoque

utilizado con frecuencia consiste en determinar algún método para transformar los

valores de una o ambas variables, de manera que la relación de los valores

transformados sí sea lineal Después, puede aplicarse el análisis de regresión a los

valores transformados y pueden transformarse los valores estimados de la variable

dependiente, de vuelta a la escala original de medición. (Ob. Cit.)

El modo más elemental de visualizar la correlación entre las dos variables X e

Y es el método gráfico. El procedimiento es sencillo, basta con representar los datos

de las variables en las coordenadas X e Y, y trazar los puntos correspondientes. Así se

obtiene una “nube de puntos”, que se silueta y se puede atravesar con una recta

auxiliar en los casos que exista correlación. (Ob. Cit.)

La direccionalidad (tendencia) de la nube de puntos permite identificar si la

correlación es positiva o negativa, de tal modo que si es creciente (“hacia arriba”) la

correlación es positiva. (Gómez,. 2009)

8

DETERMINACIÓN DE LA ECUACIÓN PARA REGRESIÓN LINEAL

SIMPLE

a) El método de los mínimos cuadrados

El científico alemán Karl Gauss (1777-1855) propuso estimar los parámetros y

de la ecuación .

Este criterio para estimar los coeficientes de regresión se conoce como el

método de mínimos cuadrados.

Las estimaciones de mínimos cuadrados de la ordenada al origen y la

pendiente del modelo de regresión lineal simple son

Donde:

Por tanto, la línea de regresión estimada o ajustada es:

Nótese que cada par de observaciones satisface la relación:

9

Donde recibe el nombre de residuo. El residuo describe el error en el

ajuste del modelo en la observación . (Montgomery. y Runger., 2001)

Una técnica matemática que determina los valores de A y B que mejor se

ajustan a los datos observados, se conoce como el método de los mínimos cuadrados.

Con el uso de dicho método se obtienen dos ecuaciones, llamadas ecuaciones

normales y una vez resultas para A y B quedan como sigue:

(Gómez., 2009)

PREDICCIONES EN EL ANÁLISIS DE REGRESIÓN: INTERPOLACIÓN

CONTRA EXTRAPOLACIÓN

Cuando se utiliza el análisis de regresión para predicciones, es importante

considerar sólo el rango pertinente de la variable independiente al hacer predicciones.

Este rango abarca todos los valores de X, desde el mínimo hasta el máximo utilizados

para desarrollar la ecuación de regresión. Por ello, al predecir Y para un valor dado de

X, se puede interpolar dentro de este rango de los valores de X, pero no se puede

extrapolar más allá del rango de los valores de X. (Berenson M. y Levine, D., 1989)

ERROR ESTÁNDAR DE LA ESTIMACIÓN

Con el propósito de medir la confiabilidad de la ecuación de estimación, los

estadísticos han desarrollado el error estándar de la estimación. Este error se

representa con y se parece a la desviación estándar, en que ambas son medidas de

dispersión. El error estándar de la estimación, mide la variabilidad o dispersión de los

valores observados alrededor de la línea de regresión.

10

Error estándar de la

estimación

Ecuación con que se calcula el error estándar de estimación:

Donde:

Y= valores de la variable dependiente

= valores estimados obtenidos de la ecuación de estimación que corresponden a

cada valor de Y

n= número de puntos de datos usados para ajustar la línea de regresión. (Levin.,

1988)

MEDIDAS DE VARIACIÓN EN LA REGRESIÓN CORRELACIÓN

A fin de determinar qué tan bien predice la variable independiente a la

variable dependiente en el modelo estadístico, se necesita desarrollar varias medidas

de variación.

La primera medida, la variación total, es una medida de la variación de los

valores de Y en torno a su media y se mide en dos componentes. En un problema de

regresión total en Y, la variable dependiente, se puede subdividir en variación

explicada, o sea, la que es atribuible a la relación entre X e Y y la variación no

explicada, atribuible a la relación entre Xe Y.

11

Figura nº N. Medidas de variación en la regresión

COEFICIENTE DE DETERMINACIÓN

El coeficiente de determinación es la manera primaria de medir el grado, o

fuerza, de la relación que existe entre dos variables, X y Y. hemos usado una muestra

de puntos para desarrollar las líneas de regresión y por eso a esta medida la

llamaremos el coeficiente muestral de determinación. (Levin R., 1988)

Dicho coeficiente se obtiene de la relación entre dos tipos de variación: la variación

de los valores de Y en el conjunto de datos alrededor de:

1. La línea de regresión ajustada

2. Su propia media

El término de variación en estos dos casos se emplea en su sentido estadístico

habitual y significa “la suma de un grupo de cuadrados de desviaciones”. Así pues, al

aplicar esta definición, es razonable expresar la variación de los valores de Y

alrededor de la línea de regresión mediante la siguiente ecuación: (Ob. Cit.)

Fuente: Berenson. y Levine., (1989).

12

Variación de los valores de Y alrededor de la línea de regresión =

Y la segunda variación, de los valores de Y alrededor de su propia media, está

determinada por:

Variación de los valores de Y alrededor de su media=

Uno menos la razón entre esas dos variaciones es el coeficiente muestral de

determinación, que se representa con : (Ob. Cit.)

EL COEFICIENTE DE CORRELACIÓN

El coeficiente de correlación es la segunda medida con que puede describirse

la eficacia con que una variable es explicada por otra. Cuando estamos trabajando con

muestras, el coeficiente muestral de correlación se denota con r y es la raíz cuadrada

del coeficiente muestral de determinación: (Levin., 1988)

Cuando la pendiente de la ecuación de estimación es positiva, r es la raíz

cuadrada positiva; pero si b es negativa, r es la raíz cuadrada negativa. Así pues, el

signo de r indica la dirección de la relación entre las dos variables X y Y. si existe una

relación inversa, es decir, si Y disminuye al aumentar X, entonces r caerá entre 0 y -1.

De manera análoga, si hay una relación directa (si Y aumenta al hacerlo X), r será un

valor dentro del intervalo de 0 a 1. (Ob. Cit.)

ANÁLISIS DE REGRESIÓN MÚLTIPLE

Muchos problemas de regresión involucran más de una variable regresiva.

13

Tales modelos se denominan de regresión múltiple. La regresión múltiple es

una de las técnicas estadísticas más ampliamente utilizadas y permite predecir el

valor de una variable dependiente a partir de diversas variables independientes.

Supóngase una investigación en particular, donde se tienen dos variables

independientes, entonces el modelo de regresión lineal múltiple se expresa como:

A= intercepción con el eje Y

Pendiente de Y con la variable manteniendo constante a la variable

Pendiente de Y con la variable manteniendo constante a la variable

Error aleatorio en Y para una observación dada.

Coeficientes de regresión múltiple

Según Gómez,. 2009). Dice que se utiliza el método de los mínimos

cuadrados para calcular los coeficientes de regresión y con la ayuda del programa

Microsoft Excel se obtiene dicho coeficientes.

Predicción de la variable dependiente “y” para valores dados de la variable

independiente.

Al ajustarse el modelo de regresión múltiple de los datos, se puede desarrollar

diversos procedimientos análogos a los antes mencionados para la regresión lineal

simple. (Ob. Cit.)

14

Para medir la asociación en el modelo de regresión múltiple.

En la regresión múltiple, dado que hay cuando menos dos variables

independientes, el coeficiente de determinación múltiple, representan la proporción

de la variable “y” que se explica por el conjunto de variables independientes

seleccionadas. (Ob. Cit.)

Coeficientes de determinación parcial.

Los coeficientes de determinación parcial (rx1 y rx2) miden la proporción de la

variación en la variable dependiente que se explica por cada variable independiente a

la vez que se mantiene constante a la otra u otras variables independientes. (Ob. Cit.)

15

EJERCICIOS.

1) Se lleva a cabo un experimento para determinar si es posible pronosticar el

peso de un animal después de un periodo de tiempo determinado sobre la base

de su peso inicial y de la cantidad de alimento que recibe. Se registraron los

siguientes datos en kg: (Walpole,. y Myers,. 1992)

Cuadro 1. Datos del experimento

Peso Final, y Peso Inicial, x1 Alimento

Consumido,x2

95 42 272

77 33 226

80 33 259

100 45 292

97 39 311

70 36 183

50 32 173

80 41 236

92 40 230

84 38 235

a) Ajuste una ecuación de regresión múltiple de la forma:

b) Pronostique el peso final de un animal que tiene un peso inicial de 35 kg y que

recibe 250 kg de alimento.

16

RESPUESTA:

Cuadro 2. Análisis de los datos (Regresión)

Resumen

Estadísticas de la regresión

Coeficiente de correlación múltiple 0,934429227

Coeficiente de determinación R^2 0,87315798

R^2 ajustado 0,836917402

Error típico 6,050788638

Observaciones 10

ANÁLISIS DE VARIANZA

Grados de libertad

Regresión 2

Residuos 7

Total 9

Coeficientes

Intercepción -22,99316393

Variable X 1 1,395672916

Variable X 2 0,217613407

Suma de cuadrados

Promedio de los

cuadrados

1764,215698 882,107849

256,284302 36,61204314

2020,5

Error típico Estadístico t

17,76254332 -1,294474756

0,582541662 2,395833648

0,057766963 3,767091008

17

F

Valor crítico

de F

24,09337948 0,00072681

Probabilidad Inferior 95%

Superior

95% Inferior 95,0%

Superior

95,0%

0,236564972 -64,99490462 19,00857677 -64,99490462 19,00857677

0,04775762 0,018180773 2,773165058 0,018180773 2,773165058

0,007009546 0,081016245 0,354210568 0,081016245 0,354210568

Análisis de los

residuales

Observación Pronóstico para Y Residuos

1 94,81594518 0,18405482

2 72,24467223 4,755327774

3 79,42591465 0,574085351

4 103,3552321 -3,355232063

5 99,1158493 -2,115849297

6 67,07431448 2,925685518

7 59,31548875 -9,315488751

8 85,58618962 -5,586189621

9 82,88483626 9,115163736

10 81,18155747 2,818442534

18

Grafico nº 1. Curva de Regresión Ajustada para la Variable X1

(Fuente: El Autor )

Grafico nº 2. Curva de Regresión Ajustada para la Variable X2

(Fuente: El Autor)

0

20

40

60

80

100

120

0 10 20 30 40 50

Pe

so F

inal

Peso Inicial X 1

Y

Pronóstico para Y

Lineal (Pronóstico para Y)

0

20

40

60

80

100

120

0 100 200 300 400

Pe

so F

inal

Alimentos Consumidos X 2

Y

Pronóstico para Y

Lineal (Pronóstico para Y)

19

Aplicación de la ecuación:

a)

b)

ANALISIS:

El Coeficiente de determinación R^2 nos permite observar que si existe una

relación directa de la variable dependiente (y) con respecto a las dos (02) variables

independiente (x1 y x2) ya que arrojo 0,87315798 y lo que nos indica que mientras

más se acerque a uno (1) mas se ajusta la línea de regresión a los datos.

Por lo que se pudo observar en la respuesta b, es que si se puede pronosticar el

peso final de un animal sabiendo las dos variables independientes que en este caso es

el peso inicial y la cantidad de alimento que ingiere el animal.

20

2) Se lleva a cabo un experimento con objeto de determinar si el flujo sanguíneo

cerebral de los seres humanos se podía pronosticarse a partir de la presión del

oxigeno arterial (milímetros de mercurio) se utilizaron 15 pacientes y los

datos observados son los que se indican en el siguiente cuadro: (Walpole,. y

Myers,. 1992)

Cuadro N. Datos del experimento de flujo sanguíneo cerebral de los seres humanos

Presión del

oxígeno

arterial, x

Flujo sanguíneo,

y

603,40 84,33

582,50 87,80

556,20 82,20

594,60 78,21

558,90 78,44

575,20 80,01

580,10 83,53

451,20 79,46

404,00 75,22

484,00 76,58

452,40 77,90

448,40 78,80

334,80 80,67

320,30 86,60

350,30 78,20

Estime la ecuación de regresión cuadrática

21

RESPUESTA:

Grafico nº 3. Regresión Cuadrática para comparar la relación entre flujo sanguíneo y Presión del oxigeno arterial.

(Fuente: El Autor)

A) Estime la ecuación de regresión cuadrática:

Y= 141,61 + 0,2819x + 0,0003x2

ANALISIS:

Estos datos se ajustan mejor a un modelo de regresión cuadrática ya que

tienen un comportamiento parabólico de segundo grado. Pero como se observa en el

grafico nº 3 los datos están dispersos no siguen la curva parabólica esto quiere decir

que no se puede pronosticar el flujo sanguíneo cerebral de los seres humanos a partir

de la presión del oxigeno arterial.

y = 0,0003x2 - 0,2819x + 141,61

74,00

76,00

78,00

80,00

82,00

84,00

86,00

88,00

90,00

0,00 100,00 200,00 300,00 400,00 500,00 600,00 700,00

Flujo

Sanguineo

Presion del Oxigeno arterial

22

CONCLUSIONES

Cuando se habla de regresión lineal múltiple se refiere a una variable

dependiente y a dos o más variables independientes como se presento en el ejercicio

1, al analizar los datos nos dimos cuenta que los puntos (datos del problema) están

muy cerca de la lineal de tendencia, esto quiere decir, que si existe una relación entre

estas variables, y más al analizar el coeficiente de determinación R2 nos comprueba

que el análisis es acertado.

En el ejercicio dos (02) el Flujo Sanguíneo y la presión del oxigeno arterial

son dos variables (x,y) pero al analizar sus datos estos se ajustan a una regresión

cuadrática ya que obtiene un coeficiente de determinación apropiado para ser una

regresión lineal, al graficar este ejercicio por dispersión nos dimos cuenta que los

datos están muy alejados de la parábola, esto nos indica que no existe relación alguna

entre las dos variables.

23

RECOMENDACIONES

Es recomendable aplicar regresión lineal múltiple cuando se tenga una

variable dependiente y dos o más variables independientes..

Cuando se presente un caso de estudio y porque no también de la vida

cotidiana donde los datos no se tenga un coeficiente de determinación

apropiado es necesario aplicar una regresión cuadrática y analizar su parábola

y si los datos se relacionan entre sí para así poder llegar a una conclusión

satisfactoria.

24

REFERENCIAS

Berenson, M. y Levine, D. (1982). Estadística para Administración y

Economía: Conceptos y Aplicaciones. Nueva editorial Interamericana.

México.

Escuela Superior de Informática. (s/f). Regresión Lineal con SPSS.

[Documento en línea] Disponible:

http://www.uclm.es/profesorado/raulmmartin/Estadistica/PracticasSPSS/REG

RESION_LINEAL_CON_SPSS.pdf [Consulta: 2014, Julio 19]

Gómez, C. (2009). Guía de Regresión y Correlación. Upata, Venezuela.

Johnson, R. (1990). Estadística Elemental. Segunda Edición. México.

Kasmier, L. y Díaz, A. (1993). Estadística Aplicada a la Administración y a

la Economía. Cuarta edición. México.

Levin, R. (1988). Estadística para Administradores. Segunda edición.

México.

Montgomerhy, D. y Runger, G. (1996). Probabilidad y Estadística Aplicada a

la Ingeniería. McGraw-Hill Interamericana Editores, S.A de C.V. México.

Moreno, A. (2008). Distribución Normal. [Documento en línea]. Disponible:

http://www.monografias.com/trabajos10/dino/dino.shtml [Consulta: 2014,

Julio 06]

Reyes, L. (2011). Estadística, Matemática y Computación. [Documento en

línea] Disponible: http://reyesestadistica.blogspot.com/2011/07/analisis-de-

regresion-cuadratica.html [Consulta: 2014, Julio 19]

Walpole, R. y Myers, R. (1992). Probabilidad y Estadística. Cuarta edición.

México.