To install click the Add extension button. That's it.

The source code for the WIKI 2 extension is being checked by specialists of the Mozilla Foundation, Google, and Apple. You could also do it yourself at any point in time.

4,5
Kelly Slayton
Congratulations on this excellent venture… what a great idea!
Alexander Grigorievskiy
I use WIKI 2 every day and almost forgot how the original Wikipedia looks like.
What we do. Every page goes through several hundred of perfecting techniques; in live mode. Quite the same Wikipedia. Just better.
.
Leo
Newton
Brights
Milds

Multicolinealidad

De Wikipedia, la enciclopedia libre

Factor de inflación de alta varianza en multicolinealidad

El proceso o término de multicolinealidad en econometría es una situación en la que se presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo, es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría encontrar en condiciones de laboratorio.[1][2]

YouTube Encyclopedic

  • 1/5
    Views:
    17 049
    6 867
    12 397
    748
    813
  • Que es la Multicolinealidad, y que diablos que tiene que ver con el AMOR
  • MULTICOLINEALIDAD en Modelo de Regresión Lineal Múltiple - Problema y solución (teoría)
  • Multicolinealidad
  • Multicolinealidad explicada para científicos de datos
  • Introducción a la Multicolinealidad

Transcription

Clases de colinealidad

Existen varios tipos de colinealidad.[3]

Multicolinealidad exacta

Afirmamos que hay colinealidad exacta, cuando una o más variables, son una combinación lineal de otra, es decir, existe un coeficiente de correlación entre estas dos variables de 1. Esto provoca que , es decir, la matriz tenga determinante y sea singular (no invertible).

Efectos y soluciones de la colinealidad exacta

Se da cuando el rango es menor al número de columnas:

Ordenamos las variables explicativas del modelo de manera que:

Teniendo en cuenta que:

Sustituimos en el Modelo:

Y llamamos a

y si reescribimos el modelo tenemos:

Cuando hay colinealidad exacta no podemos estimar los parámetros del modelo, lo que estimamos son combinaciones lineales de ellos que reciben el nombre de funciones estimables. Siendo en nuestro caso particular nuestra función estimable.

Ejemplo de cómo operar con funciones estimables:

Como se puede ver, la tercera columna es el doble de la segunda, de manera que la matriz X'X es singular y en consecuencia no podríamos obtener el estimador MCO.

De manera que en virtud de lo visto anteriormente tenemos:

De manera que:

Multicolinealidad aproximada

Afirmamos que hay colinealidad aproximada, cuando una o más variables, no son exactamente una combinación lineal de la otra, pero existe un coeficiente de determinación entre estas variables muy cercano al uno y por lo tanto:

Efectos y soluciones de la colinealidad aproximada

El efecto de la multicolinealidad es el aumento de las varianzas de los estimadores de los coeficientes de regresión debido a :

y al ser la Varianza de las perturbaciones:

Debido a esto y dado que para realizar el análisis estructural se necesita la varianza de los estimadores y al ser un componente de esta la inversa de |X'X| la convierte muy elevada, y en consecuencia las estimaciones son poco precisas y afecta negativamente al análisis estructural.

Otro efecto son que tenemos unas estimaciones sensibles a la muestra. Puesto que la función objetivo (suma de cuadrados de residuos) es muy plana en el entorno del óptimo, de modo que pequeños cambios en los valores de y o de X pueden dar lugar a cambios importantes en las estimaciones.

Detección de la colinealidad

Método del factor de inflación de la varianza

Partimos de que:

De manera que podemos hacer un contraste de hipótesis, para ver si hay o no colinealidad para la i-ésima variable, habrá colinealidad cuando:

Siendo el cuantil de la distribución F de Snedecor con k - 2 y n – k + 1 grados de libertad.

Por este método analizamos la colinealidad que produce una determinada variable explicativa.

Autovalores y número de condición de |X'X|

Partimos de que:

Siendo:

i-ésimo autovalor de la matriz. Por tanto, podemos reducir el diagnóstico a comprobar si la matriz tiene algún autovalor próximo a cero.

De manera que en función del número de condición tenemos:

Por este método analizamos la colinealidad que producen todas las variables explicativas del modelo en su conjunto.

Método del determinante en la matriz de correlación de exógenas

En supuesto que no hay multicolinealidad fuerte, la matriz de correlación tiende a la matriz identidad, por lo cual su determinante tiende a la unidad.

Caso contrario, cuando hay multicolinealidad, la matriz de correlación dista de ser la identidad, y la determinante estará cercana a cero; entonces bajo esta situación se dice que hay indicios de multicolinealidad.

Solución de la colinealidad

  • Aumentar el tamaño muestral puede reducir un problema de colinealidad aproximada.
  • Si se suprimen variables que están correlacionadas con otras, la pérdida de capacidad explicativa será pequeña y la colinealidad se reducirá.
  • Trabajar con las series logaritmizadas.
  • Utilizar datos de corte transversal.
  • Desestacionalizar las series y quitarles la tendencia.

Referencias

  1. «Multicolinealidad». Consultado el 25 de febrero de 2020. 
  2. «El Concepto de Multicolinealidad». Consultado el 25 de febrero de 2020. 
  3. «Multicolinealidad». Consultado el 25 de febrero de 2020. 
Esta página se editó por última vez el 14 may 2024 a las 21:42.
Basis of this page is in Wikipedia. Text is available under the CC BY-SA 3.0 Unported License. Non-text media are available under their specified licenses. Wikipedia® is a registered trademark of the Wikimedia Foundation, Inc. WIKI 2 is an independent company and has no affiliation with Wikimedia Foundation.