Método Hash

De Wikipedia, la enciclopedia libre

En el aprendizaje automático (AA), el método hash, (por analogía con el método del kernel ), también conocido como atributos hash, es una forma rápida y eficiente en el espacio de vectorizar atributos, es decir, convertir atributos arbitrarios en índices en un vector o matriz.[1][2]​ Funciona aplicando una función hash a los atributos y usando los valores hash como índices directamente, en lugar de buscar los índices en una matriz asociativa .

Este método se atribuye a menudo a Weinberger y otros. (2009),[2]​ pero existe una descripción mucho anterior de este método publicada por John Moody en 1989.[1]

Para más información[editar]

Ejemplo[editar]

En una tarea típica de clasificación de documentos, la entrada al algoritmo de aprendizaje automático (tanto durante el aprendizaje como durante la clasificación) es texto libre. A partir de esto, se construye una representación de bolsa de palabras (BOP): los componentes léxicos individuales se extraen y cuentan y cada componente léxico distinto en el conjunto de formación define un atributo (variable independiente) de cada uno de los documentos tanto en el conjunto de formación como en el de prueba.

Sin embargo, los algoritmos de aprendizaje automático (AA) suelen definirse en términos de vectores numéricos. Por lo tanto, las bolsas de palabras para un conjunto de documentos se consideran una matriz atributo-documento donde cada fila es un solo documento y cada columna es un solo atributo/palabra; la entrada i, j en dicha matriz captura la frecuencia (o peso) del j término del vocabulario en el documento i . (Una convención alternativa intercambia las filas y columnas de la matriz, pero esta diferencia es irrelevante. ) Normalmente, estos vectores son extremadamente escasos, según la ley de Zipf .

El método común es construir, en el momento del aprendizaje o antes, una representación de diccionario del vocabulario del conjunto de formación y usarlo para asignar palabras a índices. Las tablas hash y los intentos son candidatos comunes para la implementación de diccionarios. Por ejemplo, los tres documentos

  • A Juan le gusta ver películas.
  • A María también le gustan las películas.
  • A Juan también le gusta el fútbol.

se pueden convertir a la matriz término-documento usando el diccionario

Término Índice
Juan 1
gustos 2
a 3
mirar 4
películas 5
María 6
también 7
también 8
fútbol 9

(Se elimina la puntuación, como es habitual en la clasificación y agrupación de documentos. )

El problema con este proceso es que dichos diccionarios ocupan una gran cantidad de espacio de almacenamiento y crecen en tamaño a medida que crece el conjunto de formación.[3]​ Por el contrario, si el vocabulario se mantiene fijo y no se aumenta con un conjunto de formación cada vez mayor, un adversario puede intentar inventar palabras nuevas o errores ortográficos que no estén en el vocabulario almacenado para eludir un filtro de aprendizaje automático. Para abordar este desafío, Yahoo! La investigación intentó utilizar funciones hash para los filtros de basura.[4]

Ten en cuenta que el método de hash no se limita a la clasificación de texto y tareas similares a nivel del documento, sino que se puede aplicar a cualquier problema que involucre un gran número (quizás ilimitado) de atributos.

Razones matemáticas[editar]

Matemáticamente, una ficha es un elemento en un conjunto finito (o contablemente infinito) . Supongamos que solo necesitamos procesar un cuerpo finito, entonces podemos poner todos los componentes léxicos que aparecen en el cuerpo en , significa que es finito. Sin embargo, supongamos que queremos procesar todas las palabras posibles formadas por letras en castellano, entonces es contablemente infinito.

La mayoría de las redes neuronales solo pueden operar con entradas de vectores reales, por lo que debemos construir una función de "diccionario" .

Cuando es finito, de tamaño , podemos usar codificación one-hot para mapearlo en . Primero, enumerar arbitrariamente , luego define . En otras palabras, asignamos un índice único. a cada componente léxico, luego asigna el componente léxico con el índice al vector base unitario .

La codificación one-hot es fácil de interpretar, pero requiere mantener la enumeración arbitraria de . dado una ficha , calcular , debemos averiguar el índice de la ficha . Así, para implementar eficientemente, necesitamos una biyección rápida de calcular y tenemos .

De hecho, podemos aligerar el requisito: basta con tener una inyección rápida de calcular. , luego usa .

En la práctica, no hay una forma sencilla de construir un sistema de inyección eficiente. . Sin embargo, no necesitamos una inyección estricta, sino una inyección aproximada. Como cuando , probablemente deberíamos tener , por lo que probablemente .

En este punto acabamos de especificar que debería ser una función hash. Así, llegamos a la idea del hash de atributos.

Algoritmos[editar]

Hashing de atributos (Weinberger y otros 2009)[editar]

El algoritmo hash de atributos básico presentado en (Weinberger y otros, 2009)[2]​ se define de la siguiente manera.

Primero, se especifican dos funciones hash: el hash del núcleo , y el signo hash . Luego, se define la función hash de atributos:

Finalmente, extiende esta función de hash de atributos a cadenas de componentes léxicos mediante

dónde es el conjunto de todas las cadenas finitas que consisten de componentes léxicos en . De manera equivalente,

Propiedades geométricas[editar]

Queremos decir algo sobre la propiedad geométrica de , pero , por sí solo, es un conjunto de componentes léxicos, no podemos imponerle una estructura geométrica excepto la topología discreta, que es generada por la métrica discreta . Para que quede más bonito, lo llevamos a y luego de a por extensión lineal:

Hay una suma infinita, que debe ser manejada de inmediato. Básicamente, sólo hay dos formas de manejar los infinitos. Se puede imponer una métrica y luego completarla para permitir sumas infinitas que se comporten bien, o se puede exigir que nada sea realmente infinito, sólo potencialmente . Aquí, optamos por el camino del potencial infinito, restringiendo contener sólo vectores con soporte finito : , sólo un número finito de entradas de son distintos de cero. Definir un producto interno en de la manera obvia:
Como nota de pie de página, si es infinito, entonces el espacio del producto interno no está completo . Completarlo nos llevaría a un espacio de Hilbert, que permite sumas infinitas con buen comportamiento. Ahora tenemos un espacio de producto interno, con estructura suficiente para describir la geometría de la función hash de atributos. .

Primero, podemos ver por qué se llama "hash del núcleo": nos permite definir un núcleo por

En el lenguaje del "método del núcleo", es el kernel generado por el «mapa de atributos»
Ten en cuenta que este no es el mapa de atributos que estábamos usando, que es . De hecho, hemos estado usando otro núcleo. , definido por
El beneficio de aumentar el hash del núcleo con el hash binario es el siguiente teorema, que establece que es una isometría "en promedio".

Si el hash binario no es es sesgado (lo que significa que toma valor con igual probabilidad), entonces es una isometría en expectativa:


Teorema (enunciado intuitivo)

 

La declaración anterior interpreta la función hash binaria. no como una función determinista de tipo , sino como un vector binario aleatorio con entradas imparciales, lo que significa que para cualquier .

Esta es una buena imagen intuitiva, aunque no rigurosa. Para una declaración y prueba rigurosas, ver[2]

Implementación de pseudocódigo[editar]

En lugar de mantener un diccionario, un vectorizador de atributos que utiliza el método de hash puede construir un vector de una longitud predefinida aplicando una función hash h a las características (por ejemplo, palabras), luego usando los valores hash directamente como índices de características y actualizándolos. el vector resultante en esos índices. Aquí, asumimos que característica en realidad significa vector de características.

 function hashing_vectorizer(atributos: array of string, N : integer):
   x := new vector[N]
   for f in features:
     h := hash(f)
     x[h mod N] += 1
   return x

Por lo tanto, si el vector de atributos es ["gato","perro","gato"] y la función hash es si es "gato" y si es perro". Tomemos la dimensión del vector de atributos de salida (N ) para ser 4. Luego salidax será [0,2,1,0]. Se ha sugerido que se utilice una segunda función hash de salida de un solo bit ξ para determinar el signo del valor de actualización, para contrarrestar el efecto de las colisiones hash.[2]​ Si se utiliza dicha función hash, el algoritmo se convierte en

 function hashing_vectorizer(atributos: array of string, N : integer):
   x := new vector[N]
   for f in atributos:
     h := hash(f)
     idx := h mod N
     if ξ(f) == 1:
       x[idx] += 1
     else:
       x[idx] -= 1
   return x

El pseudocódigo anterior en realidad convierte cada muestra en un vector. En cambio, una versión optimizada solo generaría un flujo de pares y dejaría que los algoritmos de aprendizaje y predicción consumieran dichos flujos; Luego se podría implementar un modelo lineal como una tabla única hash que represente el vector de coeficientes.

Extensiones y variaciones[editar]

Hash de atributos aprendidos[editar]

El hash de única generalmente sufre una colisión de hash, lo que significa que existen pares de tokens diferentes con el mismo hash: . Un modelo de aprendizaje automático entrenado con palabras con atributos hash tendría dificultades para distinguir y , esencialmente porque es polisémico .

Si es raro, entonces la degradación del rendimiento es pequeña, ya que el modelo siempre podría simplemente ignorar el caso raro y pretender que todo medio . Sin embargo, si ambos son comunes, la degradación puede ser grave.

Para controlar esto, se pueden formar funciones hash supervisadas que eviten asignar componentes léxicos comunes a los mismos vectores de atributos.[5]

Aplicaciones y rendimiento práctico.[editar]

Ganchev y Dredze demostraron que en aplicaciones de clasificación de texto con funciones hash aleatorias y varias decenas de miles de columnas en los vectores de salida, el hash de atributos no tiene por qué tener un efecto adverso en el rendimiento de la clasificación, incluso sin la función hash con signo.[3]

Weinberger y otros (2009) aplicaron su versión de hash de atributos al aprendizaje multitarea y, en particular, al filtrado de correo basura, donde los atributos de entrada son pares (usuario, atributos) de modo que un único vector de parámetros captura los filtros de basura por usuario, así como un filtro global para varios cientos de miles de usuarios y descubrió que la precisión del filtro aumentó.[2]

Chen y otros (2015) combinaron la idea de hash de atributos y matriz dispersa para construir «matrices virtuales»: matrices grandes con pequeños requisitos de almacenamiento. La idea es tratar una matriz. como un diccionario, con claves en , y valores en . Luego, como es habitual en los diccionarios hash, se puede utilizar una función hash , y así representar una matriz como un vector en , no importa que tan grande es. Con matrices virtuales, construyeron HashedNets, que son redes neuronales grandes, que ocupan sólo cantidades pequeñas de almacenamiento.[6]

Implementaciones[editar]

Las implementaciones del método de hash están presentes en:

Véase también[editar]

Referencias[editar]

  1. a b Moody, John (1989). «Fast learning in multi-resolution hierarchies». Advances in Neural Information Processing Systems. 
  2. a b c d e f . Proc. ICML. 2009. 
  3. a b . Proc. ACL08 HLT Workshop on Mobile Language Processing. 2008. 
  4. Josh Attenberg; Kilian Weinberger; Alex Smola; Anirban Dasgupta; Martin Zinkevich (2009). «Collaborative spam filtering with the hashing trick». Virus Bulletin. 
  5. . CIKM. 2009. pp. 187-196. 
  6. Chen, Wenlin; Wilson, James; Tyree, Stephen; Weinberger, Kilian; Chen, Yixin (1 de junio de 2015). «Compressing Neural Networks with the Hashing Trick». International Conference on Machine Learning (en inglés) (PMLR): 2285-2294. 
  7. Owen, Sean; Anil, Robin; Dunning, Ted; Friedman, Ellen (2012). Mahout in Action. Manning. pp. 261-265. 
  8. «gensim: corpora.hashdictionary – Construct word<->id mappings». Radimrehurek.com. Consultado el 13 de febrero de 2014. 
  9. «4.1. Feature extraction — scikit-learn 0.14 documentation». Scikit-learn.org. Consultado el 13 de febrero de 2014. 
  10. «sofia-ml - Suite of Fast Incremental Algorithms for Machine Learning. Includes methods for learning classification and ranking models, using Pegasos SVM, SGD-SVM, ROMMA, Passive-Aggressive Perceptron, Perceptron with Margins, and Logistic Regression». Consultado el 13 de febrero de 2014. 
  11. «Hashing TF». Consultado el 4 de septiembre de 2015. «Maps a sequence of terms to their term frequencies using the hashing trick.» 
  12. «FeatureHashing: Creates a Model Matrix via Feature Hashing With a Formula Interface». 
  13. «tf.keras.preprocessing.text.hashing_trick — TensorFlow Core v2.0.1». Consultado el 29 de abril de 2020. «Converts a text to a sequence of indexes in a fixed-size hashing space.» 
  14. «dask_ml.feature_extraction.text.HashingVectorizer — dask-ml 2021.11.17 documentation». ml.dask.org. Consultado el 22 de noviembre de 2021. 

Enlaces externos[editar]