Núcleo definido positivo

De Wikipedia, la enciclopedia libre

En teoría de operadores, una rama de las matemáticas, un núcleo definido positivo es una generalización del concepto de función definida positiva o de matriz definida positiva. Fue introducido por primera vez por James Mercer a principios del siglo XX, en el contexto de la resolución de ecuaciones con integrales. Desde entonces, las funciones definidas positivas y sus diversos análogos y generalizaciones han surgido en diversas partes de las matemáticas. Aparecen naturalmente en el análisis de Fourier, en la teoría de la probabilidad, en la teoría de operadores, en la teoría de funciones complejas, en problemas de momentos, en ecuaciones integrales, problemas de condiciones de contorno para ecuaciones en derivadas parciales, en aprendizaje automático, en problemas de embebido, en teoría de la información y en otras áreas.

Este artículo discute algunos de los desarrollos históricos y actuales de la teoría de los núcleos definidos positivos, comenzando con la idea general y las propiedades antes de considerar sus aplicaciones prácticas.

Definición[editar]

Sea un conjunto no vacío, a veces denominado conjunto índice. Una función simétrica se denomina núcleo definido positivo (d.p.) en si

 

 

 

 

(1.1)

se cumple para cualquier , dado .

En la teoría de la probabilidad, a veces se hace una distinción entre núcleos definidos positivos, para los cuales la igualdad en (1.1) implica , y núcleos semidefinidos positivos (s.d.p.), que no imponen esta condición. Téngase en cuenta que esto es equivalente a exigir que cualquier matriz finita construida mediante evaluación por pares, , tenga autovalores completamente positivos (d.p.) o no negativos (s.d.p.).

En la literatura matemática, los núcleos suelen ser funciones de valores complejos, pero en el presente artículo figuran funciones de valores reales, que es la práctica común en las aplicaciones de núcleos d.p.

Algunas propiedades generales[editar]

  • Para una familia de núcleos d.p.
    • La suma cónica es d.p., dado
    • El producto es d.p., dado
    • El límite es d.p. si el límite existe.
  • Si es una secuencia de conjuntos y es una secuencia de núcleos d.p., entonces tanto
   

como

   
son núcleos d.p. en .
  • Sea . Entonces la restricción de a también es un núcleo d.p.

Ejemplos de núcleos definidos positivos[editar]

  • Ejemplos comunes de núcleos d.p. definidos en el espacio euclídeo incluyen:
    • Núcleo lineal: .
    • Núcleo polinómico: .
    • Núcleo gaussiano (función núcleo de base radial): .
    • Núcleo laplaciano: .
    • Núcleo de Abel: .
    • Núcleo que genera espacios de Sóbolev : , donde es la función de Bessel de tercera especie.
    • Núcleo que genera el espacio de Paley-Wiener: .
  • Si es un espacio de Hilbert, entonces su producto interno correspondiente es un núcleo d.p. De hecho, se tiene que
  • Núcleos definidos en e histogramas: los histogramas se encuentran con frecuencia en aplicaciones de problemas de la vida real. La mayoría de las observaciones suelen estar disponibles en forma de vectores de conteo no negativos que, si se normalizan, producen histogramas de frecuencias. Se ha demostrado[1]​ que la siguiente familia de métricas al cuadrado, respectivamente la divergencia de Jensen, el cuadrado , la variación total y dos variaciones de la distancia de Hellinger:
    se pueden utilizar para definir núcleos d.p. utilizando la siguiente fórmula

Historia[editar]

Los núcleos definidos positivos, como se definen en (1.1), aparecieron por primera vez en 1909 en un artículo sobre ecuaciones integrales de James Mercer.[2]​ Varios otros autores hicieron uso de este concepto en las siguientes dos décadas, pero ninguno de ellos usó explícitamente núcleos , es decir, funciones d.p. (de hecho, M. Mathias y S. Bochner parecen no haber estado al tanto de estos estudios). El trabajo de Mercer surgió del artículo de Hilbert de 1904[3]​ sobre las ecuaciones integrales de Fredholm del segundo tipo:

   

 

 

 

 

(1.2)

En particular, Hilbert había demostrado que:

   

 

 

 

 

(1.3)

donde es un núcleo simétrico real continuo, es continuo, es un sistema completo de orthonormal eigenfunctions y los son los correspondientes autovalores de (1.2). Hilbert ideó la definición de un núcleo definido como uno para el cual la integral doble

satisface que excepto para . El objeto original del artículo de Mercer era caracterizar los núcleos que son definidos en el sentido de Hilbert, pero pronto descubrió que la clase de tales funciones era demasiado restrictiva para caracterizarlas en términos de determinantes. Por lo tanto, definió un núcleo simétrico real continuo como de tipo positivo (es decir, definido positivo) si para todas las funciones continuas reales sobre , y demostró que (1.1) es una condición necesaria y suficiente para que un núcleo sea de tipo positivo. Luego demostró que para cualquier núcleo d.p. la expansión

se mantiene absoluta y uniformemente.

Aproximadamente al mismo tiempo, W. H. Young,[4]​ motivado por una pregunta diferente en la teoría de ecuaciones integrales, demostró que para núcleos continuos la condición (1.1) es equivalente a para todo .

E.H. Moore[5][6]​ inició el estudio de un tipo muy general de núcleo d.p. Si es un conjunto abstracto, llama a las funciones definidas en matrices hermíticas positivas si cumplen (1.1) para todo . Moore estaba interesado en la generalización de ecuaciones integrales y demostró que para cada existe un espacio de Hilbert de funciones tales que, para cada . Esta propiedad se denomina propiedad de reproducción del núcleo y resulta ser importante en la solución de problemas de valores de frontera para ecuaciones diferenciales parciales elípticas.

Otra línea de desarrollo en la que los núcleos d.p. jugaron un papel importante fue la teoría de los armónicos en espacios homogéneos, iniciada por E. Cartan en 1929, y continuada por H. Weyl y S. Ito. La teoría más completa sobre núcleos d.p. en espacios homogéneos es la de Mark Krein[7]​ que incluye como casos especiales el trabajo sobre funciones d.p. e irreducibles representaciones unitarias de grupos localmente compactos.

En la teoría de la probabilidad los núcleos d.p. surgen como núcleos de covarianza de procesos estocásticos.[8]

Conexión con la reproducción de núcleos de espacios de Hilbert y mapas de características[editar]

Los núcleos definidos positivos proporcionan un marco que abarca algunas construcciones espaciales básicas de Hilbert. A continuación, se presenta una estrecha relación entre los núcleos definidos positivos y dos objetos matemáticos, a saber, la reproducción de núcleos de espacios de Hilbert y mapas de características.

Sea un conjunto, un espacio de Hilbert de funciones y el producto interno correspondiente en . Para cualquier , la evaluación funcional está definida por . Primero se define un espacio de Hilbert del núcleo de reproducción (EHRN):

Definición: Un espacio es denominado espacio de Hilbert con reproducción del núcleo si los funcionales valoración son continuos.

Cada EHRN tiene una función especial asociada, a saber, el núcleo reproductor:

Definición: El núcleo reproductor es una función tal que

  1. , y
  2. , para todo y .

La última propiedad se llama la propiedad de reproducción.

El siguiente resultado muestra la equivalencia entre EHRN y la reproducción de los núcleos:

Cada núcleo reproductor induce un único EHRN, y cada EHRN posee un único núcleo reproductor.

Ahora, la conexión entre los núcleos definidos positivos y los EHRN viene dada por el siguiente teorema

Todo núcleo reproductor es definido positivo, y todo núcleo definido positivo define un EHRN único, del cual es el núcleo reproductor único.

Por lo tanto, dado un núcleo definido positivo , es posible construir un EHRN asociado con como núcleo reproductor.

Como se indicó anteriormente, los núcleos definidos positivos se pueden construir a partir de productos internos. Este hecho se puede utilizar para conectar los núcleos d.p. con otro objeto interesante que surge en las aplicaciones de aprendizaje automático, a saber, el mapa de características. Sea un espacio de Hilbert y el producto interno correspondiente. Cualquier mapa se denomina mapa de características. En este caso se denomina al espacio de características. Es fácil ver[9]​ que cada mapa de características define un único núcleo d.p. por

De hecho, la definición positiva de se deriva de la propiedad del producto interior definido positivo. Por otro lado, cada núcleo d.p. y su EHRN correspondiente tienen muchos mapas de características asociados. Por ejemplo: sean , y para todo . Entonces , por la propiedad de reproducción. Esto sugiere una nueva visión de los núcleos d.p. como productos internos en espacios de Hilbert propios, o en otras palabras, los núcleos d.p. se pueden ver como mapas de similitud que cuantifican de manera efectiva lo similares que son dos puntos e a través del valor . Además, mediante la equivalencia de núcleos d.p. y su correspondiente EHRN, cada mapa de características se puede utilizar para construir un EHRN.

Núcleos y distancias[editar]

Los métodos del núcleo a menudo se comparan con los métodos basados ​​en la distancia, como vecinos más próximos. En esta sección se discuten los paralelismos entre sus dos ingredientes respectivos, a saber, los núcleos y las distancias .

Aquí, por una función de distancia entre cada par de elementos de algún conjunto , se hace referencia a una métrica definida en ese conjunto, es decir, cualquier función de valor no negativo en que satisfaga

  • y si y solo si ,
  • ,
  • .

Un enlace entre distancias y núcleos d.p. está dada por un tipo particular de núcleo, llamado núcleo definido negativo, caracterizado de la siguiente manera

Definición: Una función simétrica se denomina núcleo definido negativo (d.n.) sobre si

   

 

 

 

 

(1.4)

mantiene para cualquier y tales que .

El paralelismo entre núcleos d.n. y distancias es el siguiente: siempre que un núcleo d.n. desaparece en el conjunto , y es cero solo en este conjunto, entonces su raíz cuadrada es una distancia para .[10]​ Al mismo tiempo cada distancia no corresponde necesariamente a un núcleo d.n. Esto solo es cierto para distancias hilbertianas, en las que la distancia se llama hilbertiana si se puede embeber el espacio métrico isométricamente en algún espacio de Hilbert.

Por otra parte, los núcleos d.n. se pueden identificar con una subfamilia de núcleos d.p. conocidos como núcleos infinitamente divisibles. Se dice que un núcleo de valor no negativo es infinitamente divisible si para cada existe un núcleo definido positivo tal que .

Otra relación es que un núcleo d.p. induce una pseudométrica, donde la primera restricción en la función de distancia se relaja para permitir que para . Dado un núcleo definido positivo , se puede definir una función de distancia como:

   

Algunas aplicaciones[editar]

Núcleos en el aprendizaje automático[editar]

Los núcleos definidos positivos, a través de su equivalencia con la reproducción de espacios de Hilbert del núcleo, son particularmente importantes en el campo de la teoría del aprendizaje estadística debido al célebre teorema de representación que establece que cada función minimizadora en un EHRN se puede escribir como una combinación lineal de la función del núcleo evaluada en los puntos de entrenamiento. Este es un resultado útil en la práctica, ya que simplifica eficazmente el problema de minimización de riesgos empíricos de un problema de optimización de dimensión infinita a uno de dimensión finita.

Núcleos en modelos probabilísticos[editar]

Hay varias formas diferentes en las que surgen núcleos en la teoría de la probabilidad.

  • Problemas de recuperación no deterministas: supóngase que se quiere encontrar la respuesta de una función modelo desconocida en un nuevo punto de un conjunto , siempre que se tenga una muestra de pares de entrada-salida dada por observación o experimento. La respuesta en no es una función fija de sino una realización de una variable aleatoria de valor real . El objetivo es obtener información sobre la función que reemplaza a en la configuración determinista. Para dos elementos , las variables aleatorias y no estarán descorrelacionadas, porque si está demasiado cerca de , los experimentos aleatorios descritos por y a menudo mostrarán un comportamiento similar. Esto se describe mediante un núcleo de covarianza . Tal núcleo existe y es positivo-definido bajo suposiciones adicionales débiles. Sin embargo, se puede obtener una buena estimación de utilizando la interpolación con el núcleo de covarianza, ignorando por completo el fondo probabilístico.

Supóngase ahora que una variable de ruido , con media cero y varianza , se agrega a , de modo que el ruido es independiente para diferentes e independiente de , entonces el problema de encontrar una buena estimación para es idéntico al anterior, pero con un núcleo modificado proporcionado por .

  • Estimación de densidad por núcleos: el problema es recuperar la densidad de una distribución multivariante sobre un dominio , a partir de una muestra grande incluyendo repeticiones. Cuando los puntos de muestreo son densos, la verdadera función de densidad debe tomar valores grandes. Es posible una estimación de densidad simple contando el número de muestras en cada celda de una cuadrícula y trazando el histograma resultante, que produce una estimación de densidad constante por partes. Se puede obtener una mejor estimación utilizando un núcleo invariante de traslación no negativa , con integral total igual a uno, y definiendo
    como una estimación suave.

Solución numérica de ecuaciones diferenciales parciales[editar]

Una de las mayores áreas de aplicación de los llamados métodos sin malla es la solución numérica de ecuaciones en derivadas parciales. Algunos de los métodos populares sin malla están estrechamente relacionados con los núcleos definidos positivos (como el método sin malla local de Petrov Galerkin, el método de partícula del núcleo de reproducción y la hidrodinámica de partículas suavizadas). Estos procedimientos utilizan un núcleo de base radial con un método de colocación.[11]

Teorema de dilatación de Stinespring[editar]

Otras aplicaciones[editar]

En la literatura sobre experimentos informáticos[12]​ y otros experimentos de ingeniería, se encuentran cada vez más modelos basados ​​en núcleos d.p., la función núcleo de base radial o el krigeaje. Uno de esos temas es la metodología de superficie de respuesta. Otros tipos de aplicaciones que se reducen al ajuste de datos son el prototipado rápido y los gráficos por computadora. Aquí, a menudo se usan modelos de superficie implícitos para aproximar o interpolar datos de nubes de puntos.

Aplicaciones de los núcleos definidos positivos en varias otras ramas de las matemáticas se encuentran en la integración multivariante, la optimización multivariante y en el análisis numérico y la computación científica, donde se estudian algoritmos rápidos, precisos y adaptables, idealmente desarrollados en entornos informáticos de alto rendimiento.[13]

Véase también[editar]

Referencias[editar]

  1. Hein, M. and Bousquet, O. (2005). "Hilbertian metrics and positive definite kernels on probability measures". In Ghahramani, Z. and Cowell, R., editors, Proceedings of AISTATS 2005.
  2. Mercer, J. (1909). “Functions of positive and negative type and their connection with the theory of integral equations”. Philosophical Transactions of the Royal Society of London, Series A 209, pp. 415-446.
  3. Hilbert, D. (1904). "Grundzuge einer allgemeinen Theorie der linearen Integralgleichungen I", Gott. Nachrichten, math.-phys. K1 (1904), pp. 49-91.
  4. Young, W. H. (1909). "A note on a class of symmetric functions and on a theorem required in the theory of integral equations", Philos. Trans. Roy.Soc. London, Ser. A, 209, pp. 415-446.
  5. Moore, E.H. (1916). "On properly positive Hermitian matrices", Bull. Amer. Math. Soc. 23, 59, pp. 66-67.
  6. Moore, E.H. (1935). "General Analysis, Part I", Memoirs Amer. Philos. Soc. 1, Philadelphia.
  7. Krein. M (1949/1950). "Hermitian-positive kernels on homogeneous spaces I and II" (in Russian), Ukrain. Mat. Z. 1(1949), pp. 64-98, and 2(1950), pp. 10-59. English translation: Amer. Math. Soc. Translations Ser. 2, 34 (1963), pp. 69-164.
  8. Loève, M. (1960). "Probability theory", 2nd ed., Van Nostrand, Princeton, N.J.
  9. Rosasco, L. and Poggio, T. (2015). "A Regularization Tour of Machine Learning - MIT 9.520 Lecture Notes" Manuscript.
  10. Berg, C., Christensen, J. P. R., and Ressel, P. (1984). "Harmonic Analysis on Semigroups". Number 100 in Graduate Texts in Mathematics, Springer Verlag.
  11. Schabak, R. and Wendland, H. (2006). "Kernel Techniques: From Machine Learning to Meshless Methods", Cambridge University Press, Acta Numerica (2006), pp. 1-97.
  12. Haaland, B. and Qian, P. Z. G. (2010). "Accurate emulators for large-scale computer experiments", Ann. Stat.
  13. Gumerov, N. A. and Duraiswami, R. (2007). "Fast radial basis function interpolation via preconditioned Krylov iterationUso incorrecto de la plantilla enlace roto (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).". SIAM J. Scient. Computing 29/5, pp. 1876-1899.