Lecture 6: Machine Learning Paradigma Predictivo

49
Lecture 6: Machine Learning Paradigma Predictivo Big Data and Machine Learning en el Mercado Inmobiliario Educaci ´ on Continua Ignacio Sarmiento-Barbieri Universidad de los Andes March 24, 2022 Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 0 / 34

Transcript of Lecture 6: Machine Learning Paradigma Predictivo

Page 1: Lecture 6: Machine Learning Paradigma Predictivo

Lecture 6: Machine LearningParadigma Predictivo

Big Data and Machine Learning en el Mercado InmobiliarioEducacion Continua

Ignacio Sarmiento-Barbieri

Universidad de los Andes

March 24, 2022

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 0 / 34

Page 2: Lecture 6: Machine Learning Paradigma Predictivo

Agenda

1 Recap

2 Prediccion: estadıstica clasica vs la maquina de aprenderTipos de AprendizajePrediction vs EstimationOverfit y Prediccion fuera de Muestra

3 Error de prediccion y metodos de remuestreoEnfoque de conjunto de validacionLOOCVValidacion cruzada en K-partes

4 Para seguir leyendo

5 Break

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 1 / 34

Page 3: Lecture 6: Machine Learning Paradigma Predictivo

Modelo Monocentrico

I Planteamos un modelo monocentrico

I Nos ilustraba de manera sencilla la importancia de ciertos elementos a considerar:

I Distancia al empleo

I Costos de transporte

I Costos de construccion (elasticidad)

I Amenidades

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 2 / 34

Page 4: Lecture 6: Machine Learning Paradigma Predictivo

Precio de Propiedades

I Con estas consideraciones, podemos pensar una casa como un bien diferenciado: Hque tiene distintas caracterısticas (x1, x2, . . . , xn)

H = (x1, x2, . . . , xn) (1)

I El precio de este producto (y) es funcion de estos atributos

y = f (x1, x2, . . . , xn) (2)

I El precio de equilibrio para cada variedad del bien diferenciado (por ejemplo unacasa en particular) es una funcion de los atributos de la misma.

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 3 / 34

Page 5: Lecture 6: Machine Learning Paradigma Predictivo

1 Recap

2 Prediccion: estadıstica clasica vs la maquina de aprenderTipos de AprendizajePrediction vs EstimationOverfit y Prediccion fuera de Muestra

3 Error de prediccion y metodos de remuestreoEnfoque de conjunto de validacionLOOCVValidacion cruzada en K-partes

4 Para seguir leyendo

5 Break

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 3 / 34

Page 6: Lecture 6: Machine Learning Paradigma Predictivo

Estadıstica clasica vs la maquina de aprender

y = f (X) + u (3)

I Estadıstica ClasicaI Inferencia

I f () ”correcta” el interes es en entender como y afecta X

I modelos surge de la teoria/experimentos

I Interes es en test de hipotesis (std. err., ci’s)

I Maquina de AprenderI Interes es predecir y

I El f () correcto es el que predice mejor

I Modelo?

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 4 / 34

Page 7: Lecture 6: Machine Learning Paradigma Predictivo

¿Que es la maquina de aprender?

I El aprendizaje de maquinas es una rama de la informatica y la estadıstica, encargadade desarrollar algoritmos para predecir los resultados y a partir de las variablesobservables X.

I La parte de aprendizaje proviene del hecho de que no especificamos comoexactamente la computadora debe predecir y a partir de X.

I Esto queda como un problema empırico que la computadora puede ”aprender”.

I En general, esto significa que nos abstraemos del modelo subyacente, el enfoque esmuy pragmatico

“Lo que sea que funciona, funciona...”

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 5 / 34

Page 8: Lecture 6: Machine Learning Paradigma Predictivo

¿Que es la maquina de aprender?

I El aprendizaje de maquinas es una rama de la informatica y la estadıstica, encargadade desarrollar algoritmos para predecir los resultados y a partir de las variablesobservables X.

I La parte de aprendizaje proviene del hecho de que no especificamos comoexactamente la computadora debe predecir y a partir de X.

I Esto queda como un problema empırico que la computadora puede ”aprender”.

I En general, esto significa que nos abstraemos del modelo subyacente, el enfoque esmuy pragmatico

“Lo que sea que funciona, funciona...”

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 5 / 34

Page 9: Lecture 6: Machine Learning Paradigma Predictivo

“Lo que sea que funciona, funciona...”

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 6 / 34

Page 10: Lecture 6: Machine Learning Paradigma Predictivo

Tipos de Aprendizaje

I ML se divide en dos (¿?) ramas principales:

1 Aprendizaje supervisado: Tenemos datos tanto sobre un resultado y como sobre lasvariables explicativas X.

I Esto es lo mas cercano al analisis de regresion que conocemos.

I Si y es discreto, tambien podemos ver esto como un problema de clasificacion.

I Es el enfoque de este curso.

2 Aprendizaje no supervisado: No tenemos datos sobre y, solo sobre X.

I Queremos agrupar estos datos (sin especificar que agrupar).

I Permite reducir la dimensionalidad y explorar datos

I Algunos algoritmos destacados: PCA, y K-medias

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 7 / 34

Page 11: Lecture 6: Machine Learning Paradigma Predictivo

Prediccion y Error Predictivo

I El objetivo es predecir y dadas otras variables X. Ej: precio vivienda dadas lascaracterısticas

I Asumimos que el link entre y and X esta dado por el modelo:

y = f (X) + u (4)

I donde f (X) es cualquier funcion,

I u una variable aleatoria no observable E(u) = 0 and V(u) = σ2

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 8 / 34

Page 12: Lecture 6: Machine Learning Paradigma Predictivo

Como medimos: “Lo que sea que funciona, funciona...”

I En la practica no conocemos f (X)

I Es necesario estimarla y = f (X)

I La medida de cuan bien funciona nuestro modelo es

MSE(y) =1n

n

∑i=1

(yi − yi)2 (5)

=1n

n

∑i=1

(fi − fi)2 (6)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 9 / 34

Page 13: Lecture 6: Machine Learning Paradigma Predictivo

Como medimos: “Lo que sea que funciona, funciona...”

I Podemos descomponer el MSE en dos partes

MSE(y) = MSE(f ) + σ2 (7)

I el error de estimar f con f . (reducible)

I el error de no observar u. (irreducible)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 10 / 34

Page 14: Lecture 6: Machine Learning Paradigma Predictivo

Prediccion y Error Predictivo

I Descomponiendo un poco mas:

Err(Y) = MSE(f ) + σ2 (8)

= Bias2(f ) + V(f ) + Error Irreducible (9)

I Este resultado es muy importante,I Aparece el dilema entre sesgo y varianza

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 11 / 34

Page 15: Lecture 6: Machine Learning Paradigma Predictivo

Dilema sesgo/varianza

Source: https://tinyurl.com/y4lvjxpc

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 12 / 34

Page 16: Lecture 6: Machine Learning Paradigma Predictivo

Dilema sesgo/varianzaI El secreto de ML: admitiendo un poco de sesgo podemos tener ganancias

importantes en varianza

Source: https://tinyurl.com/y4lvjxpc

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 13 / 34

Page 17: Lecture 6: Machine Learning Paradigma Predictivo

Dilema sesgo/varianzaI El secreto de ML: admitiendo un poco de sesgo podemos tener ganancias

importantes en varianza

Source: https://tinyurl.com/y4lvjxpc

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 13 / 34

Page 18: Lecture 6: Machine Learning Paradigma Predictivo

Prediccion y regresion linealI El problema es:

y = f (X) + u (10)

I proponemos :

f (X) = β0 + β1X1 + · · ·+ βpXp (11)

Fuente: https://www.reddit.com/r/datascience/comments/ah0q69/_/

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 14 / 34

Page 19: Lecture 6: Machine Learning Paradigma Predictivo

Prediccion y regresion linealI El problema es:

y = f (X) + u (10)

I proponemos :

f (X) = β0 + β1X1 + · · ·+ βpXp (11)

Fuente: https://www.reddit.com/r/datascience/comments/ah0q69/_/Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 14 / 34

Page 20: Lecture 6: Machine Learning Paradigma Predictivo

Prediccion y regresion lineal

I Y el dilema sesgo varianza?

I Bajo los supuestos clasicos (Gauss-Markov) el estimador de OLS es insesgado:

E(Xβ) = E(β1 + β2X2 + · · ·+ βpXp) (12)

= E(β1) + E(β2)X2 + · · ·+ E(βp)Xp (13)= Xβ (14)

I MSE(y) se reduce a V(β)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 15 / 34

Page 21: Lecture 6: Machine Learning Paradigma Predictivo

Prediccion y regresion lineal

I Y el dilema sesgo varianza?I Bajo los supuestos clasicos (Gauss-Markov) el estimador de OLS es insesgado:

E(Xβ) = E(β1 + β2X2 + · · ·+ βpXp) (12)

= E(β1) + E(β2)X2 + · · ·+ E(βp)Xp (13)= Xβ (14)

I MSE(y) se reduce a V(β)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 15 / 34

Page 22: Lecture 6: Machine Learning Paradigma Predictivo

Complejidad y compensacion de varianza/sesgo

I En la econometrıa clasica, la eleccion de modelos se resume a elegir entre modelosmas pequenos y mas grandes.

I Considere los siguientes modelos para estimar y:

y = β1X1 + u1

I β(1)1 el estimador de OLS y on X1

I La prediccion es:

y(1) = β(1)1 X1

y = β1X1 + β2X2 + u2

I β(2)1 y β

(2)2 con β1 y β2 los el estimador

de OLS de y en X1 y X2.I La prediccion es:

y(2) = β(2)1 X1 + β

(2)2 X2

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 16 / 34

Page 23: Lecture 6: Machine Learning Paradigma Predictivo

Complejidad y compensacion de varianza/sesgo

I Una discusion importante en la econometrıa clasica es la de la omision de variablesrelevantes frente a la inclusion de variables irrelevantes.

I Si el modelo (1) es verdadero entonces estimar el modelo mas grande (2) conduce aestimadores ineficientes aunque no sesgados debido a que incluyen innecesariamenteX2.

I Si el modelo (2) se verdadero, estimar el modelo mas pequeno (1) conduce a unaestimacion de menor varianza pero sesgada si X1 tambien se correlaciona con el regresoromitido X2.

I Esta discusion de pequeno vs grande siempre es con respecto a un modelo que sesupone es verdadero.

I Pero en la practica el modelo verdadero es desconocido!!!

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 17 / 34

Page 24: Lecture 6: Machine Learning Paradigma Predictivo

Complejidad y compensacion de varianza/sesgo

I Elegir entre modelos implica un dilema sesgo/varianza

I La econometrıa clasica tiende a resolver este dilema abruptamente,I requiriendo una estimacion no sesgada y, por lo tanto, favoreciendo modelos mas

grandes para evitar sesgos

I En esta configuracion simple, los modelos mas grandes son ”mas complejos”, por loque los modelos mas complejos estan menos sesgados pero son mas ineficientes.

I Por lo tanto, en este marco muy simple, la complejidad se mide por el numero devariables explicativas.

I Una idea central en el aprendizaje automatico es generalizar la idea de complejidad,I Nivel optimo de complejidad, es decir, modelos cuyo sesgo y varianza conducen al

menor MSE.

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 18 / 34

Page 25: Lecture 6: Machine Learning Paradigma Predictivo

Overfit

1

2

3

4

5

0.2 0.4 0.6 0.8 1.0

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 19 / 34

Page 26: Lecture 6: Machine Learning Paradigma Predictivo

Overfit

1

2

3

4

5

0.2 0.4 0.6 0.8 1.0

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 19 / 34

Page 27: Lecture 6: Machine Learning Paradigma Predictivo

Overfit

1

2

3

4

5

0.2 0.4 0.6 0.8 1.0

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 19 / 34

Page 28: Lecture 6: Machine Learning Paradigma Predictivo

Overfit

1

2

3

4

5

0.2 0.4 0.6 0.8 1.0

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 19 / 34

Page 29: Lecture 6: Machine Learning Paradigma Predictivo

Overfit

1

2

3

4

5

0.2 0.4 0.6 0.8 1.0

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 19 / 34

Page 30: Lecture 6: Machine Learning Paradigma Predictivo

Overfit

1

2

3

4

5

0.2 0.4 0.6 0.8 1.0

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 19 / 34

Page 31: Lecture 6: Machine Learning Paradigma Predictivo

Overfit y Prediccion fuera de Muestra

I ML nos interesa la prediccion fuera de muestra

I Overfit: modelos complejos predicen muy bien dentro de muestra, pero tienden ahacer un trabajo fuera de muestra

I Hay que elegir el nivel adecuado de complejidad

I Como medimos el error de prediccion fuera de muestra?

I R2 no funciona: se concentra en la muestra y es no decreciente en complejidad

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 20 / 34

Page 32: Lecture 6: Machine Learning Paradigma Predictivo

Overfit

1

2

3

4

5

0.2 0.4 0.6 0.8 1.0

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 20 / 34

Page 33: Lecture 6: Machine Learning Paradigma Predictivo

Overfit

1

2

3

4

5

0.2 0.4 0.6 0.8 1.0

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 20 / 34

Page 34: Lecture 6: Machine Learning Paradigma Predictivo

1 Recap

2 Prediccion: estadıstica clasica vs la maquina de aprenderTipos de AprendizajePrediction vs EstimationOverfit y Prediccion fuera de Muestra

3 Error de prediccion y metodos de remuestreoEnfoque de conjunto de validacionLOOCVValidacion cruzada en K-partes

4 Para seguir leyendo

5 Break

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 20 / 34

Page 35: Lecture 6: Machine Learning Paradigma Predictivo

Metodos de remuestreo

I Los metodos de resampleo son una herramienta indispensable de la estadısticamoderna.

I Estos envuelven sacar muestras aleatorias de nuestra muestra y reajustar el modelode interes en cada muestra para obtener informacion adicional del modelo.

I Quizas el metodo mas conocido por ustedes es el de bootstrap.

I Nosotros vamos a discutir la validacion cruzada (cross-validation)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 21 / 34

Page 36: Lecture 6: Machine Learning Paradigma Predictivo

Error de Prueba y de Entrenamiento

I Dos conceptos importantes

I Test Error: es el error de prediccion en la muestra de prueba (test)

ErrT est = MSE[(y, y)|T est] (15)

I Training error:es el error de prediccion en la muestra de entrenamiento (training)

ErrT rain = MSE[(y, y)|T rain] (16)

I Como elegimos T est?

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 22 / 34

Page 37: Lecture 6: Machine Learning Paradigma Predictivo

Que son los Metodos de Remuestreo?

I Herramientas que implican extraer repetidamente muestras de un conjunto deentrenamiento y reajustar el modelo de interes en cada muestra para obtener masinformacion sobre el modelo.

I Evaluacion del modelo: estimar el error de prediccion en la muestra de prueba

I Seleccion de modelo: seleccione el nivel apropiado de flexibilidad del modelo

I ¡Son computacionalmente costosos! Pero en estos dıas tenemos computadoraspoderosas

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 23 / 34

Page 38: Lecture 6: Machine Learning Paradigma Predictivo

Enfoque de conjunto de validacionI Suponga que nos gustarıa encontrar un conjunto de variables que den el menor error

de prediccion en la muestra de prueba (no de entrenamiento)I Si tenemos muchos datos, podemos lograr este objetivo dividiendo aleatoriamente

los datos en partes de entrenamiento y validacion (prueba)I Luego usarıamos la parte de entrenamiento para construir cada modelo posible (es

decir, las diferentes combinaciones de variables) y elegimos el modelo que dio lelmenor error de prediccion en la muestra de prueba

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 24 / 34

Page 39: Lecture 6: Machine Learning Paradigma Predictivo

Enfoque de conjunto de validacionI Modelo y = f (x) + u donde f es un polinomio de grado p∗.I Izquierda: error de prediccion en la muestra de prueba para una sola particionI Derecha: error de prediccion en la muestra de prueba para varias particionesI Hay un monton de variabilidad. (Necesitamos algo mas estable)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 25 / 34

Page 40: Lecture 6: Machine Learning Paradigma Predictivo

Enfoque de conjunto de validacion

I Ventajas:

I Simple

I Facil de implementar

I Desventajas:

I El MSE de validacion (prueba) puede ser altamente variable

I Solo se utiliza un subconjunto de observaciones para ajustar el modelo (datos deentrenamiento). Los metodos estadısticos tienden a funcionar peor cuando se entrenancon pocas observaciones

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 26 / 34

Page 41: Lecture 6: Machine Learning Paradigma Predictivo

Leave-One-Out Cross Validation (LOOCV)I Este metodo es similar al enfoque de validacion, pero trata de abordar las

desventajas de este ultimo.

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 27 / 34

Page 42: Lecture 6: Machine Learning Paradigma Predictivo

Validacion cruzada en K-partes

I LOOCV es computacionalmente intensivo, por lo que podemos ejecutar k-fold CrossValidation

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 28 / 34

Page 43: Lecture 6: Machine Learning Paradigma Predictivo

Validacion cruzada en K-partesI Dividir los datos en K partes (N = ∑K

j=1 nj)

I Ajustar el modelo dejando afuera una de las partes (folds)→ f−k(x)

I Calcular el error de prediccion en la parte (fold) que dejamos afuera

MSEj =1nj

∑(ykj − y−j)

2 (17)

I Promediar

CV(k) =1k

k

∑j=1

MSEj (18)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 29 / 34

Page 44: Lecture 6: Machine Learning Paradigma Predictivo

Validacion cruzada en K-partesI Izquierda: LOOCV errorI Derecha: 10-fold CVI LOOCV es caso especial de k-fold, donde k = nI Ambos son estables, pero LOOCV (generalmente) es mas intensivo computacionalmente!

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 30 / 34

Page 45: Lecture 6: Machine Learning Paradigma Predictivo

Validacion cruzada en K-partes para seleccion de modelosI Supongamos que α parametriza la complejidad del modelo (en nuestro ejemplo el

grado del polinomio)I Primero calculamos el CV error para un grupo de modelos (α), y elegimos el mınimo

minα

CV(k)(α) (19)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 31 / 34

Page 46: Lecture 6: Machine Learning Paradigma Predictivo

Trade-off Sesgo-Varianza para validacion cruzada en K-partesI Sesgo:

I El enfoque del conjunto de validacion tiende a sobreestimar el error de prediccion en lamuestra de prueba (menos datos, peor ajuste)

I LOOCV, agrega mas datos→menos sesgoI K-fold un estado intermedio

I Varianza:I LOOCV promediamos los resultados de n modelos ajustados, cada uno esta entrenado

en un conjunto casi identico de observaciones→ altamente correlacionadoI K partes esta correlacion es menor, estamos promediando la salida de k modelo ajustado

que estan algo menos correlacionados

I Por lo tanto, existe un trade-off

I Tendemos a usar k-fold CV con (K = 5 y K = 10)I Se ha demostrado empıricamente que producen estimaciones del error de prediccion

que no sufren ni de un sesgo excesivamente alto ni de una varianza muy alta Kohavi(1995)

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 32 / 34

Page 47: Lecture 6: Machine Learning Paradigma Predictivo

1 Recap

2 Prediccion: estadıstica clasica vs la maquina de aprenderTipos de AprendizajePrediction vs EstimationOverfit y Prediccion fuera de Muestra

3 Error de prediccion y metodos de remuestreoEnfoque de conjunto de validacionLOOCVValidacion cruzada en K-partes

4 Para seguir leyendo

5 Break

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 32 / 34

Page 48: Lecture 6: Machine Learning Paradigma Predictivo

Para seguir leyendo

I Davidson, R., & MacKinnon, J. G. (2004). Econometric theory and methods (Vol. 5).New York: Oxford University Press.

I James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An introduction to statisticallearning (Vol. 112, p. 18). New York: springer.

I Friedman, J., Hastie, T., & Tibshirani, R. (2001). The elements of statistical learning(Vol. 1, No. 10). New York: Springer series in statistics.

I Murphy, K. P. (2012). Machine learning: a probabilistic perspective. MIT press.

I Rosen, S. (1974). Hedonic prices and implicit markets: product differentiation in purecompetition. Journal of political economy, 82(1), 34-55.

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 33 / 34

Page 49: Lecture 6: Machine Learning Paradigma Predictivo

Volvemos en 5 min conPython y Webscraping

Sarmiento-Barbieri (Uniandes) Lecture 6: Machine Learning Paradigma Predictivo March 24, 2022 34 / 34