Métodos locales II

12
M II A R-F I C D (A ) ..

Transcript of Métodos locales II

Page 1: Métodos locales II

Métodos locales IIAlan Reyes-FigueroaIntroducción a la Ciencia de Datos (Aula 16) 01.marzo.2021

Page 2: Métodos locales II

Spectral Embedding

Ref : Laplacian Eigenmaps for Dimensionality Reduction and DataRepresentation. M. Belkin, P. Niyogi, Neural Computation, June 2003; 15(6)1373-1396.

Idea: Se construye una matriz de adyacencia o de afinidad (similaridad)W entre una estructura de grafo entre los datos. Los elementos wij de Wpesan o miden el grado de afinidad.• Se construye la matriz laplaciana L = D−W y la laplaciana

normalizada L = D−1/2(D−W)D−1/2.• Se calculan la descomposición en autovalores de L. Los autovectores

describen las direcciones de proyección.

Métodos locales II | Alan Reyes-Figueroa Page 1

Page 3: Métodos locales II

Spectral Embedding

Métodos locales II | Alan Reyes-Figueroa Page 2

Page 4: Métodos locales II

Spectral Embedding

Matriz de afinidad W Laplaciano normalizado L

Métodos locales II | Alan Reyes-Figueroa Page 3

Page 5: Métodos locales II

AutoencodersDefinir mapas lineales E : Rd → Rp y D : Rp → Rd, con p < d.

E se llama el encoder, y D el decoder. El objetivo es resolverminE,D

∑i

||xi − (D ◦ E)(xi)||2.

Se usa x∗i = E(xi) como representación de xi. La elección popular para E yD: redes neuronales.

Métodos locales II | Alan Reyes-Figueroa Page 4

Page 6: Métodos locales II

Autoencoders

Red neuronal covolucional profunda (CNN).

Métodos locales II | Alan Reyes-Figueroa Page 5

Page 7: Métodos locales II

Autoencoders

Métodos locales II | Alan Reyes-Figueroa Page 6

Page 8: Métodos locales II

Otros métodosProbabilistic PCA:Hacer PCA en el espacio de parámetros de la distribución. ConsidermasoX = [θij] ó X = [g(θij)] asociados a una muestra [Xij de v.a. independientescon distribuciones cualquiera.Hacer [θij] = USVT .

Métodos locales II | Alan Reyes-Figueroa Page 7

Page 9: Métodos locales II

Otros métodosProjection Pursuit:Similar a PCA. En lugar de buscar la dirección ` de máxima varianza,usamos otra medida de proyección óptima.Buscar direcciones que maximicen la no gaussianidad (caracterizamos lagaussiana en términos de la entropía). Por ejemplo, buscamos ` tal que lanegentropía de `Tx sea máxima. (Similar a ICA)

Métodos locales II | Alan Reyes-Figueroa Page 8

Page 10: Métodos locales II

Otros métodos

Métodos locales II | Alan Reyes-Figueroa Page 9

Page 11: Métodos locales II

Otros métodosMétodos aleatorios y grand tour:Hacer una caminata aleatoria (película) con proyecciones que cambiansuavemente.

Métodos locales II | Alan Reyes-Figueroa Page 10

Page 12: Métodos locales II

Recursos en Python• sklearn.decomposition: Contiene los métodos de PCA,

KernelPCA, NMF, FastICA, y contiene otros similares como LDA,FactorAnalysis, DictionaryLearning.

• sklearn.manifold: Contiene métodos de manifold learning:Isomap, t-SNE, Local Lineal Embedding (y variantes de LLE: modifiedLLE, Hessian LLE, LTSA LLE), MultiDimensionalScaling (MDS),SpectralEmbedding.

• tensorflow y pytorch: Librerías para redes neuronales, enparticular auto-encoders.

• Software ggobi: Tiene importantes herramientas para visualización.Contiene el método de grand tour.

• SimpSOM, MiniSom, SOMPy, kohonen: Librerías conimplementaciones de SOM. (pip install ...)

Métodos locales II | Alan Reyes-Figueroa Page 11