Suma de cuadrados (SOS) Polinomial

De Wikipedia, la enciclopedia libre

En matemáticas, una forma (i.e. un polinomio homogéneo) h(x) de grado 2m en el vector real n-dimensional x es una suma de cuadrados de formas (SOS, por sus siglas en inglés) si y sólo si existen formas de grado m tales que

Cada forma que es SOS es también un polinomio positivo, y a pesar de que el converso no es siempre cierto, Hilbert probó que para n = 2, 2m = 2 o n = 3 y 2m = 4, una forma es SOS si y sólo si esta es positiva.[1]​ Lo mismo es cierto también para el problema análogo en formas positivas simétricas.[2][3]

A pesar de que no toda forma puede ser representada como una suma de cuadrados (SOS), ya se han encontrado condiciones suficientes explícitas que una forma sea SOS.[4][5]​ Además, toda forma real no negativa puede ser aproximada arbitrariamente bien (según la -norma de su vector de coeficientes) por una secuencia de formas que son SOS.[6]

Representación Cuadrada matricial (SMR)[editar]

Establecer si una forma h(x) es SOS, corresponde a solucionar un problema de optimización convexa. De hecho, cualquier h(x) puede ser escrito como

donde es un vector que contiene una base para las formas de grado m en x (tal como todos los monomios de grado m en x), El símbolo ′ denota que tomamos la matrix transpuesta, y H es cualquier matriz simétrica que satisface lo siguiente

y es una parameterización lineal del espacio lineal

La dimensión del vector está dada por

mientras que la dimensión del vector está dada por

Entonces, h(x) es SOS sí y sólo si existe un vector tal que

significando que la matriz es positiva-semidefinida. Esto es una prueba de viabilidad por medio de desigualdad matricial lineal (LMI, por sus siglas en inglés), lo cual es un problema de optimización convexa. La expresión fue introducida en[7]​ con el nombre representación matricial cuadrada (SMR) para establecer si una forma es SOS por medio de una LMI. Esta representación es también conocida como la matriz de Gram.[8]

Ejemplos[editar]

  • Considera la forma de grado 4 en dos variables . Tenemos
ya que existe un α tal que , es decir , de donde sale que h(x) es SOS.
  • Considera la forma de grado 4 en tres variables . Tenemos que
Ya que para , tenemos entonces que h(x) es SOS.

Generalizaciones[editar]

Matricies SOS[editar]

Una forma matricial F(x) (i.e., una matriz cuyas entradas son formas) de dimensión r y grado 2m en el vector real n-dimensional x es SOS sí y sólo si existen formas matriciales de grado m tales que

SMR Matricial[editar]

Establecer si una forma matricial F(x) es SOS consiste en resolver un problema de optimización convexa. De hecho, de modo parecido al caso escalar, cualquier F(x) puede ser escrita según el SMR como

donde es el producto de Kronecker de matrices, H es cualquier matriz simétrica tal que

y es un parameterización lineal del espacio lineal dado por

La dimensión del vector está dada por

Entonces, F(x) es SOS sí y sólo si existe un vector tal que la siguiente LMI se cumple:

La expresión fue introducida en[9]​ para establecer si una forma matricial es SOS vía un LMI.

Polinomio SOS no conmutativo[editar]

Consideremos el álgebra libre R⟨X⟩ generada por las n letras X = (X1, ..., Xn)) que no conmutan, y equipada con la involución T, tal que T fija R y X1, ..., Xn y reversa aquellas palabras formadas por X1, ..., Xn. Por analogía con el caso conmutativo, lospolinomios simétricos no conmutativos f son los polinomios no commutativos y de la forma f = fT. Cuando la evaluación de cualquier matriz real de cualquier dimensión r × r en el polinomio simétrico no conmutativo f resulta en una matriz positivo semidefinida, decimos que f es matricial-positivo.

Un polinomio no conmutativo es SOS si existen polinomios no conmutativos tales que

Sorprendentemente, en el escenario no conmutativo, un polinomio no conmutativo es SOS sí y sólo si éste es matricial-positivo.[10]​ Además, existen algoritmos capaces de descomponer polinomios matriciales-positivos en polinomios no conmutativos que son sumas de cuadrados.[11]

Referencias[editar]

  1. Hilbert, David (September 1888). «Ueber die Darstellung definiter Formen als Summe von Formenquadraten». Mathematische Annalen 32 (3): 342-350. doi:10.1007/bf01443605. 
  2. Choi, M. D.; Lam, T. Y. (1977). «An old question of Hilbert». Queen's Papers in Pure and Applied Mathematics 46: 385-405. 
  3. Goel, Charu; Kuhlmann, Salma; Reznick, Bruce (May 2016). «On the Choi–Lam analogue of Hilbert's 1888 theorem for symmetric forms». Linear Algebra and Its Applications 496: 114-120. arXiv:1505.08145. doi:10.1016/j.laa.2016.01.024. 
  4. Lasserre, Jean B. (2007). «Sufficient conditions for a real polynomial to be a sum of squares». Archiv der Mathematik 89 (5): 390-398. arXiv:math/0612358. doi:10.1007/s00013-007-2251-y. 
  5. Powers, Victoria; Wörmann, Thorsten (1998). «An algorithm for sums of squares of real polynomials». Journal of Pure and Applied Algebra 127 (1): 99-104. doi:10.1016/S0022-4049(97)83827-3. Archivado desde el original el 16 de junio de 2010. Consultado el 21 de enero de 2022. 
  6. Lasserre, Jean B. (2007). «A Sum of Squares Approximation of Nonnegative Polynomials». SIAM Review 49 (4): 651-669. Bibcode:2007SIAMR..49..651L. arXiv:math/0412398. doi:10.1137/070693709. 
  7. . 1999. pp. 1446-1451.  Falta el |título= (ayuda)
  8. . 1995. pp. 103-125.  Falta el |título= (ayuda)
  9. . 2003. pp. 4670-4675. doi:10.1109/CDC.2003.1272307.  Falta el |título= (ayuda)
  10. Helton, J. William (September 2002). «"Positive" Noncommutative Polynomials Are Sums of Squares». The Annals of Mathematics 156 (2): 675-694. doi:10.2307/3597203. 
  11. Burgdorf, Sabine; Cafuta, Kristijan; Klep, Igor; Povh, Janez (25 de octubre de 2012). «Algorithmic aspects of sums of Hermitian squares of noncommutative polynomials». Computational Optimization and Applications 55 (1): 137-153. doi:10.1007/s10589-012-9513-8. 

 

Véase también[editar]