Espacio vectorial

De Wikipedia, la enciclopedia libre
(Redirigido desde «Espacios vectoriales»)
Saltar a: navegación, búsqueda
Este artículo está orientado a proporcionar un tratamiento riguroso y abstracto del concepto de espacio vectorial. Para una introducción más accesible al concepto, véase Vector
Representación artística de un espacio vectorial.

En álgebra abstracta, un espacio vectorial es una estructura algebraica creada a partir de un conjunto no vacío, una operación interna (llamada suma, definida para los elementos del conjunto) y una operación externa (llamada producto por un escalar, definida entre dicho conjunto y otro conjunto, con estructura de cuerpo ), con 8 propiedades fundamentales.

A los elementos de un espacio vectorial se les llama vectores y a los elementos del cuerpo, escalares.

Historia[editar]

Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de ecuaciones lineales.

Los espacios vectoriales se derivan de la geometría afín, a través de la introducción de coordenadas en el plano o el espacio tridimensional. Alrededor de 1636, los matemáticos franceses Descartes y Fermat fundaron las bases de la geometría analítica mediante la vinculación de las soluciones de una ecuación con dos variables a la determinación de una curva plana.[nota 1] Para lograr una solución geométrica sin usar coordenadas, Bernhard Bolzano introdujo en 1804 ciertas operaciones sobre puntos, líneas y planos, que son predecesores de los vectores.[nota 2] Este trabajo hizo uso del concepto de coordenadas baricéntricas de August Ferdinand Möbius de 1827.[nota 3]

La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente de los espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y elaborada.

El origen de la definición de los vectores es la definición de Giusto Bellavitis de bipoint, que es un segmento orientado, uno de cuyos extremos es el origen y el otro un objetivo. Los vectores se reconsideraron con la presentación de los números complejos de Argand y Hamilton y la creación de los cuaterniones por este último (Hamilton fue además el que inventó el nombre de vector).[nota 4] Son elementos de R2 y R4; el tratamiento mediante combinaciones lineales se remonta a Laguerre en 1867, quien también definió los sistemas de ecuaciones lineales.

En 1857, Cayley introdujo la notación matricial, que permite una armonización y simplificación de las aplicaciones lineales. Casi al mismo tiempo, Grassmann estudió el cálculo baricéntrico iniciado por Möbius. Previó conjuntos de objetos abstractos dotados de operaciones.[nota 5] En su trabajo, los conceptos de independencia lineal y dimensión, así como de producto escalar están presentes. En realidad el trabajo de Grassmann de 1844 supera el marco de los espacios vectoriales, ya que teniendo en cuenta la multiplicación, también, lo llevó a lo que hoy en día se llaman álgebras. El matemático italiano Peano dio la primera definición moderna de espacios vectoriales y aplicaciones lineales en 1888.[nota 6]

Un desarrollo importante de los espacios vectoriales se debe a la construcción de los espacios de funciones por Henri Lebesgue. Esto más tarde fue formalizado por Banach en su tesis doctoral de 1920[nota 7] y por Hilbert. En este momento, el álgebra y el nuevo campo del análisis funcional empezaron a interactuar, en particular con conceptos clave tales como los espacios de funciones p-integrables y los espacios de Hilbert. También en este tiempo, los primeros estudios sobre espacios vectoriales de infinitas dimensiones se realizaron.

Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.

Notación[editar]

Dado un espacio vectorial  V \; sobre un cuerpo  K \;, se distinguen.

Los elementos de  V \; como:


   \mathbf{u}, \mathbf{v}, \mathbf{w}, \dots \; \in V
se llaman vectores.
Caligrafías de otras obras

   \bar{u}, \bar{v}, \bar{w}, \dots \; \in V
Si el texto es de física suelen representarse bajo una flecha:

   \vec{u}, \vec{v}, \vec{w}, \dots \; \in V

Los elementos de  K \; como:


   \mathit{a}, \mathit{b}, \mathit{c}, \dots \; \in K
se llaman escalares.

Definición de espacio vectorial[editar]

Un espacio vectorial sobre un cuerpo  K \; (como el cuerpo de los números reales o los números complejos) es un conjunto  V \; no vacío, dotado de dos operaciones para las cuales será cerrado:

 \begin{matrix}
      \mbox{Suma} & +: & {V \times{} V} & \longrightarrow{} & {V} \\
           &    & {(\mathbf{u},\mathbf{v})} & \mapsto           & {\mathbf{u}+\mathbf{v}}
   \end{matrix}

operación interna tal que:

1) tenga la propiedad conmutativa, es decir

 \mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u}, \qquad
\forall \mathbf{u}, \mathbf{v} \in V

2) tenga la propiedad asociativa, es decir

\mathbf{u} + (\mathbf{v} + \mathbf{w}) = (\mathbf{u} + \mathbf{v}) + \mathbf{w}, \qquad \forall \mathbf{u}, \mathbf{v}, \mathbf{w} \in V

3) tenga elemento neutro  \mathbf{0} , es decir

   \exists{}\mathbf{0} \in{} V : 
   \mathbf{u} + \mathbf{0} = \mathbf{u} , 
   \forall{} \mathbf{u} \in{} V
4) tenga elemento opuesto, es decir

   \forall{} \mathbf{u} \in{} V , \quad
   \exists{} \mathbf{-u} \in{} V : 
    \mathbf{u} + (\mathbf{-u}) = \mathbf{0}

y la operación producto por un escalar:


   \begin{matrix}
      \mbox{Producto} & \cdot{}: & {K \times{} V}            & \longrightarrow{} & {V} \\
               &          & {(\mathit{a},\mathbf{u})} & \mapsto           & {\mathit{a} \cdot \mathbf{u}}
   \end{matrix}

operación externa tal que:

5) tenga la propiedad asociativa:

   \mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=(\mathit{a} \cdot \mathit{b}) \cdot \mathbf{u} , 
   \forall{} \mathit{a} ,\mathit{b} \in{}K , 
   \forall{} \mathbf{u} \in{} V
6)  \mathit{1} \in{} K sea elemento neutro del producto:

   \mathit{1} \cdot \mathbf{u} = \mathbf{u} , 
   \forall{} \mathbf{u} \in{} V
7) tenga la propiedad distributiva del producto respecto la suma de vectores:

   \mathit{a} \cdot (\mathbf{u}+ \mathbf{v}) =
   \mathit{a} \cdot \mathbf{u}+ \mathit{a} \cdot \mathbf{v} , 
   \forall{} \mathit{a}\in{}K , 
   \forall{} \mathbf{u}, \mathbf{v} \in{} V
8) tenga la propiedad distributiva del producto respecto la suma de escalares:

   (\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
   \mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u} , 
   \forall{} \mathit{a}, \mathit{b} \in{} K , 
   \forall{} \mathbf{u} \in{} V


Observaciones[editar]

La denominación de las dos operaciones no condiciona la definición de espacio vectorial por lo que es habitual encontrar traducciones de obras en las que se utiliza multiplicación para el producto y adición para la suma, usando las distinciones propias de la aritmética.

Para demostrar que un conjunto V_{}^{} es un espacio vectorial:

  • Lo es si sus dos operaciones, por ejemplo \odot(V,V) y  \ast(V,K) , admiten una redefinición del tipo +(V,V)=\odot(V,V) y  \cdot(K,V)=\ast(V,K) cumpliendo las 8 condiciones exigidas.
  • Si supiésemos que V_{}^{} es un grupo conmutativo o abeliano respecto la suma ya tendríamos probados los apartados 1, 2, 3 y 4.
  • Si supiésemos que el producto es una acción por la izquierda de V_{}^{} tendríamos probados los apartados 5 y 6.
  • Si no se dice lo contrario:

    \mathit{a} \mathbf{v} \neq
    \mathbf{v} \mathit{a}
.

Propiedades[editar]

Unicidad del vector neutro de la propiedad 3:

supongamos que el neutro no es único, es decir, sean  \mathbf{0_1} y  \mathbf{0_2} dos vectores neutros, entonces:

   \left .
      \begin{array}{l}
         \mathbf{u} + \mathbf{0_1} = \mathbf{u} \\
         \mathbf{u} + \mathbf{0_2} = \mathbf{u}
      \end{array}
   \right \}
   \Rightarrow 
   \mathbf{u} + \mathbf{0_1} = \mathbf{u} + \mathbf{0_2}
   \Rightarrow 
   \mathbf{0_1} = \mathbf{0_2}
   \Rightarrow  
   \exists ! \; \mathbf{0} \in V

Unicidad del vector opuesto de la propiedad 4:

supongamos que el opuesto no es único, es decir, sean  \mathbf{-u_1} y  \mathbf{-u_2} dos vectores opuestos de  \mathbf{u}, entonces, como el neutro es único:

   \left .
      \begin{array}{l}
         \mathbf{u} - \mathbf{u_1} = \mathbf{0} \\
         \mathbf{u} - \mathbf{u_2} = \mathbf{0}
      \end{array}
   \right \}
   \Rightarrow 
   \mathbf{u} - \mathbf{u_1} = \mathbf{u} - \mathbf{u_2}
   \Rightarrow 
   - \mathbf{u_1} = - \mathbf{u_2}
   \Rightarrow 
   \exists ! - \mathbf{u} \in V

Unicidad del elemento  1_{}^{} en el cuerpo  K_{}^{} :

supongamos que 1 no es único, es decir, sean  \mathit{1_1} \; y  \mathit{1_2} \; dos unidades, entonces:

   \left .
      \begin{array}{l}
          \mathit{a} \cdot \mathit{1_1} = \mathit{a} \\
          \mathit{a} \cdot \mathit{1_2} = \mathit{a}
      \end{array}
   \right \}
   \Rightarrow 
   \mathit{a} \cdot \mathit{1_1} = \mathit{a} \cdot \mathit{1_2}
   \Rightarrow 
   \mathit{1_1} = \mathit{1_2}
   \Rightarrow 
   \exists ! \; \mathit{1} \in K

Unicidad del elemento inverso en el cuerpo K_{}^{}:

supongamos que el inverso a_{}^{-1} de a, no es único, es decir, sean a_1^{-1} y a_2^{-1} dos opuestos de a_{}^{}, entonces, como el neutro es único:

   \left .
      \begin{array}{l}
         \mathit{a} \cdot \mathit{a_1^{-1}} = \mathit{1} \\
         \mathit{a} \cdot \mathit{a_2^{-1}} = \mathit{1}
      \end{array}
   \right \}
   \Rightarrow 
   \mathit{a} \cdot \mathit{a_1^{-1}} = \mathit{a} \cdot \mathit{a_2^{-1}}
   \Rightarrow 
   \mathit{a_1^{-1}} = \mathit{a_2^{-1}}
   \Rightarrow 
   \exists ! \mathit{a^{-1}} \in K

Producto de un escalar por el vector neutro:


   \mathit{a} \cdot \mathbf{u} = 
   \mathit{a} \cdot (\mathbf{u} + \mathbf{0})= 
   \mathit{a} \cdot \mathbf{u} + \mathit{a} \cdot \mathbf{0}
   \Rightarrow 
   \mathit{a} \cdot \mathbf{0} = \mathbf{0}

Producto del escalar 0 por un vector:


   \mathbf{u} = 
   \mathit{1} \cdot \mathbf{u} = 
   (\mathit{1} + \mathit{0}) \cdot \mathbf{u} = 
   \mathit{1} \cdot \mathbf{u} + \mathit{0} \cdot \mathbf{u} = 
   \mathbf{u} + \mathit{0} \cdot \mathbf{u}
   \Rightarrow 
   \mathit{0} \cdot \mathbf{u} =  \mathbf{0}

Si 
   \mathit{a} \cdot \mathbf{u} =
   \mathbf{0}
   \Rightarrow 
   \mathit{a} = \mathit{0}
   \quad \or \quad
   \mathbf{u} =  \mathbf{0}
.

  • Si a_{}^{}=0, es cierto.
  • Si 
   a \neq 0 ,
entonces:

   \exists !  \; a^{-1} \in K :  a^{-1}a=1 
   \Rightarrow  
   u= 1u= (a^{-1}a)u= a^{-1}(au)= a^{-1}0=0
   \Rightarrow 
   u_{}^{}=0.

Notación

-au=-(au) \,.

Observación

 -au=(-a)u=a(-u) \,
  • Si  au+a(-u)=a(u-u)=a0=0 \Rightarrow  a(-u)=-au \,
  • Si  au+(-a)u=(a-a)u=0u=0 \Rightarrow  (-a)u=-au \,

Primer ejemplo con demostración al detalle[editar]

Se quiere probar que \mathbb{R}^2 es un espacio vectorial sobre \mathbb{R}

Si \mathbb{R}^2 juega el papel de V \; y \mathbb{R} el de  K \;:

Los elementos:


   \mathbf{u} \in V =
   \mathbb{R}^2 =
   \mathbb{R} \times{}\mathbb{R}

son, de forma genérica:


 \mathbf{u} =(u_x,u_y)

es decir, pares de números reales. Por claridad se conserva la denominación del vector, en este caso u, en sus coordenadas, añadiendo el subíndice x o y para denominar su componente en el eje x o y respectivamente

En  V \; se define la operación suma:


   \begin{array}{ccll}
      +: & {V \times{} V}          & \longrightarrow{} & {V} \\
         & (\mathbf{u},\mathbf{v}) & \mapsto           & \mathbf{w}= \mathbf{u} + \mathbf{v}
   \end{array}

donde:


   \mathbf{u} = (u_x, u_y)

   \mathbf{v} = (v_x, v_y)

   \mathbf{w} = (w_x, w_y)

y la suma de u y v sería:


   \mathbf{u} +  \mathbf{v} =
   (u_x, u_y) + (v_x, v_y) =
   (u_x + v_x, u_y + v_y) =
   (w_x, w_y) =
   \mathbf{w}

donde:


   \begin{array}{l}
      w_x = u_x + v_x \\
      w_y = u_y + v_y
   \end{array}

esto implica que la suma de vectores es interna y bien definida.

La operación interna suma tiene las propiedades:

1) La propiedad conmutativa, es decir:


   \mathbf{u} + \mathbf{v} = \mathbf{v} + \mathbf{u} , \quad
   \forall{} \mathbf{u}, \mathbf{v} \in{} V

   \mathbf{u} + \mathbf{v} =
   \mathbf{v} + \mathbf{u}

   (u_x, u_y) + (v_x, v_y) =
   \mathbf{v} + \mathbf{u}

   (u_x + v_x, u_y + v_y) =
   \mathbf{v} + \mathbf{u}

   (v_x + u_x, v_y + u_y) =
   \mathbf{v} + \mathbf{u}

   (v_x, v_y) + (u_x, u_y) =
   \mathbf{v} + \mathbf{u}

   \mathbf{v} + \mathbf{u} =
   \mathbf{v} + \mathbf{u}

2) La propiedad asociativa:


   (\mathbf{u} + \mathbf{v}) + \mathbf{w}=
   \mathbf{u} + (\mathbf{v} + \mathbf{w})

   \Big( (u_x, u_y) + (v_x, v_y) \Big) + (w_x, w_y) =
   (u_x, u_y) + \Big( (v_x, v_y) + (w_x, w_y) \Big)

   (u_x + v_x, u_y + v_y) + (w_x, w_y)=
   (u_x, u_y) + (v_x + w_x, v_y + w_y) \;

   (u_x + v_x + w_x, u_y + v_y + w_y) =
   (u_x + v_x + w_x, u_y + v_y + w_y) \;

3) tiene elemento neutro  \mathbf{0} :


   \mathbf{u} + \mathbf{0} = \mathbf{u}

   (u_x, u_y) + (0, 0) =
   (u_x + 0, u_y + 0) =
   (u_x, u_y) \;

4) tenga elemento opuesto:


   \mathbf{u} = (u_x, u_y)

   \mathbf{-u} = (-u_x, -u_y)

   \mathbf{u} + ( \mathbf{-u}) =
   (u_x, u_y) + (-u_x, -u_y) =
   (u_x - u_x, u_y - u_y) =
   (0, 0) = \mathbf{0}

La operación producto por un escalar:


   \begin{array}{ccll}
      \cdot : & K \times V                   & \longrightarrow & V \\
              &  (\mathit{a}, \mathbf{u})    & \mapsto         & \mathbf{v}= \mathit{a} \cdot \mathbf{u}
   \end{array}

El producto de a y u será:


   \mathit{a} \cdot \mathbf{u} =
   a \cdot (u_x, u_y) =
   (a \cdot u_x, a \cdot u_y) =
   (v_x, v_y) =
   \mathbf{v}

donde:


   \begin{array}{l}
      v_x = a \cdot u_x \\
      v_y = a \cdot u_y
   \end{array}

esto implica que la multiplicación de vector por escalar es externa y aún así está bien definida.

5) tenga la propiedad asociativa:


   \mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=(\mathit{a} \cdot \mathit{b}) \cdot \mathbf{u} , \quad
   \forall{} \mathit{a} ,\mathit{b} \in{}K , \quad
   \forall{} \mathbf{u} \in{} V

Esto es:


   \mathit{a} \cdot (\mathit{b} \cdot \mathbf{u})=
   (\mathit{a} \cdot \mathit{b}) \cdot \mathbf{u}

   \mathit{a} \cdot (\mathit{b} \cdot (u_x, u_y))=
   (\mathit{a} \cdot \mathit{b}) \cdot (u_x, u_y)

   \mathit{a} \cdot (\mathit{b} \cdot u_x, \mathit{b} \cdot u_y)=
   (\mathit{a} \cdot \mathit{b}) \cdot (u_x, u_y)

   (\mathit{a} \cdot \mathit{b} \cdot u_x, \mathit{a} \cdot \mathit{b} \cdot u_y)=
   (\mathit{a} \cdot \mathit{b} \cdot u_x, \mathit{a} \cdot \mathit{b} \cdot u_y)

6) \mathit{1} \in{} R sea elemento neutro en el producto:


   \mathit{1} \cdot \mathbf{u} = \mathbf{u} , \quad
   \forall{} \mathbf{u} \in{} V

Que resulta:


   \mathit{1} \cdot \mathbf{u} = \mathbf{u}

   \mathit{1} \cdot (u_x, u_y) = \mathbf{u}

   (\mathit{1} \cdot u_x, \mathit{1} \cdot u_y) = \mathbf{u}

   (u_x, u_y) = \mathbf{u}

Que tiene la propiedad distributiva:

7) distributiva por la izquierda:


   \mathit{a} \cdot (\mathbf{u} + \mathbf{v}) =
   \mathit{a} \cdot \mathbf{u} + \mathit{a} \cdot \mathbf{v} , \quad
   \forall{} \mathit{a}\in{}R , \quad
   \forall{} \mathbf{u}, \mathbf{v} \in{} V

En este caso tenemos:


   \mathit{a} \cdot (\mathbf{u}+ \mathbf{v}) =
   \mathit{a} \cdot \mathbf{u}+ \mathit{a} \cdot \mathbf{v}

   \mathit{a} \cdot ((u_x, u_y) + (v_x, v_y)) =
   \mathit{a} \cdot (u_x, u_y) + \mathit{a} \cdot (v_x, v_y)

   \mathit{a} \cdot (u_x + v_x, u_y + v_y) =
   (\mathit{a} \cdot u_x, \mathit{a} \cdot u_y) + (\mathit{a} \cdot v_x, \mathit{a} \cdot v_y)

   \mathit{a} \cdot (u_x + v_x, u_y + v_y) =
   (\mathit{a} \cdot u_x + \mathit{a} \cdot v_x, \mathit{a} \cdot u_y + \mathit{a} \cdot v_y)

   (\mathit{a} \cdot (u_x + v_x), \mathit{a} \cdot (u_y + v_y)) =
   (\mathit{a} \cdot (u_x + v_x), \mathit{a} \cdot (u_y + v_y))

8) distributiva por la derecha:


   (\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
   \mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u} , \quad
   \forall{} \mathit{a}, \mathit{b} \in{} R , \quad
   \forall{} \mathbf{u} \in{} V

Que en este caso tenemos:


   (\mathit{a} + \mathit{b}) \cdot \mathbf{u} =
   \mathit{a} \cdot \mathbf{u} + \mathit{b} \cdot \mathbf{u}

   (\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
   \mathit{a} \cdot (u_x, u_y) + \mathit{b} \cdot (u_x, u_y)

   (\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
   (\mathit{a} \cdot u_x, \mathit{a} \cdot u_y) + (\mathit{b} \cdot u_x, \mathit{b} \cdot u_y)

   (\mathit{a} + \mathit{b}) \cdot (u_x, u_y) =
   (\mathit{a} \cdot u_x + \mathit{b} \cdot u_x, \mathit{a} \cdot u_y + \mathit{b} \cdot u_y)

   ((\mathit{a} + \mathit{b}) \cdot u_x, (\mathit{a} + \mathit{b}) \cdot u_y) =
   ((\mathit{a} + \mathit{b}) \cdot u_x, (\mathit{a} + \mathit{b}) \cdot u_y)

Queda demostrado que es espacio vectorial.

Ejemplos de espacios vectoriales[editar]

Los cuerpos[editar]

Todo cuerpo es un espacio vectorial sobre él mismo, usando como producto por escalar el producto del cuerpo.

  •  \mathbb{C} es un espacio vectorial de dimensión uno sobre  \mathbb{C}.

Todo cuerpo es un espacio vectorial sobre su subcuerpo, usando como producto por escalar el producto del cuerpo.

  •  \mathbb{C} es un espacio vectorial de dimensión 2 sobre  \mathbb{R}.
  •  \mathbb{C} es un espacio vectorial de dimensión infinita sobre  \mathbb{Q}.

Sucesiones sobre un cuerpo K_{}^{}[editar]

El espacio vectorial más conocido notado como  K_{}^n, donde n>0 es un entero, tiene como elementos n-tuplas, es decir, sucesiones finitas de K_{}^{} de longitud n con las operaciones:

(u1, u2, ..., un)+(v1, v2, ..., vn)=(u1+v1, u2+v2, ..., un+vn).
a(u1, u2, ..., un)=(au1, au2, ..., aun).

Las sucesiones infinitas de K^{} son espacios vectoriales con las operaciones:

(u1, u2, ..., un, ...)+(v1, v2, ..., vn, ...)=(u1+v1, u2+v2, ..., un+vn, ...).
a(u1, u2, ..., un, ...)=(au1, au2, ..., aun, ...).

El espacio de las matrices n \times m, M_{n \times m}(K), sobre K^{}, con las operaciones:

 \begin{pmatrix} x_{1,1} & \cdots & x_{1,m} \\ \vdots & & \vdots \\ x_{n,1} & \cdots & x_{n,m} \end{pmatrix} + \begin{pmatrix} y_{1,1} & \cdots & y_{1,m} \\ \vdots & & \vdots \\ y_{n,1} & \cdots & y_{n,m} \end{pmatrix} = \begin{pmatrix} x_{1,1}+y_{1,1} & \cdots & x_{1,m}+y_{1,m} \\ \vdots & & \vdots \\ x_{n,1}+y_{n,1} & \cdots & x_{n,m}+y_{n,m} \end{pmatrix}
 a \begin{pmatrix} x_{1,1} & \cdots & x_{1,m} \\ \vdots & & \vdots \\ x_{n,1} & \cdots & x_{n,m} \end{pmatrix} = \begin{pmatrix} ax_{1,1} & \cdots & ax_{1,m} \\ \vdots & & \vdots \\ ax_{n,1} & \cdots & ax_{n,m} \end{pmatrix}

También son espacios vectoriales cualquier agrupación de elementos de K_{}^{} en las cuales se defina las operaciones suma y producto entre estas agrupaciones, elemento a elemento, similar al de matrices n \times m, así por ejemplo tenemos las cajas n \times m \times r sobre K_{}^{} que aparecen en el desarrollo de Taylor de orden 3 de una función genérica.

Espacios de aplicaciones sobre un cuerpo[editar]

El conjunto F_{}^{} de las aplicaciones  f : M \rightarrow K, K^{} un cuerpo y M_{}^{} un conjunto, también forman espacios vectoriales mediante la suma y la multiplicación habitual:

\forall f,g \in F,\; \forall a \in K
\begin{matrix}
(f + g)(w) &:= f(w) + g(w)_{}^{},\\
\;\;\;\;(af)(w) &:= a(f)(w)_{}^{}.\;\;\;\;\;\;\;
\end{matrix}

Los polinomios[editar]

Suma de f(x)=x+x2 y g(x)=-x2.

El espacio vectorial K[x] formado por funciones polinómicas, veámoslo:

Expresión general:  p(x) = r_n x^n+ r_{n-1} x_{}^{n-1}+ ... + r_1 x + r_0 ,donde los coeficientes r_n, \; ..., r_0 \in K, considérese \forall i>n \; r_i=0.
 p(x)+q(x)=(r_n x^n+r_{n-1}x^{n-1}+ ... +r_1 x+r_0^{}) +(s_m x^m+ s_{m-1} x^{m-1}+ ... +s_1 x+s_0^{}) =..._{}^{} =(t_M x^M+t_{M-1} x^{M-1}+...+t_1 x+s_0^{})=(p+q)(x), donde M= \max \{ m, \; n \}_{}^{} y  t_i=r_i+s_i^{},
a(p(x))=a(r_n x^n+ r_{n-1}x^{n-1}+ ... +r_1 x+r_0^{}) =( a r_n x^n+ a r_{n-1}x^{n-1}+ ... +a r_1 x + a r_0^{}) = t_n x^n+ t_{n-1}x^{n-1}+ ... + t_1 x + t_0^{}=(ap)(x).

Las series de potencias son similares, salvo que se permiten infinitos términos distintos de cero.

Funciones trigonométricas[editar]

Las funciones trigonométricas forman espacios vectoriales, con las siguientes operaciones:

Expresión general: f(x)= a_f^{} \sum_{i=1}^n ( b_{f,i} \mbox{sen} (i x) + c_{f,i} \cos (i x) ) \in L^2
(f+g)(x):=f(x)+g(x)_{}^{} = a_f  \sum_{i=1}^n ( b_{f,i} \mbox{sen} (i x) + c_{f,i} \cos (i x) ) + a_g \sum_{i=1}^n ( b_{g,i} \mbox{sen} (i x) + c_{g,i} \cos(i x) ) = ( a_f + a_g ) \sum_{i=1}^n ( (b_{f,i} + b_{g,i}) \mbox{sen} (i x) + ( c_{f,i} + c_{g,i} ) \cos(i x) ) \in L^2,
(af)(x):=a f(x)_{}^{} = a ( a_f  \sum_{i=1}^n ( b_{f,i} \mbox{sen} (i x) + c_{f,i} \cos (i x) ) ) = aa_f  \sum_{i=1}^n ( ab_{f,i} \mbox{sen} (i x) + ac_{f,i} \cos(i x) ) \in L^2.

Los sistemas de ecuaciones lineales homogéneas[editar]

Sistema de 2 ecuaciones y 3 variables


\begin{cases}
\begin{matrix} 
a_{1,1}x_1 & + \dots & + a_{1,n}x_n & =0 \\
\vdots & & \vdots & \vdots \\
a_{m,1}x_1 & + \dots & + a_{m,n}x_n & =0 
\end{matrix}
\end{cases}
\;\; o equivalentemente 
\begin{pmatrix} 
a_{1,1} & + \dots & + a_{1,n} \\
\vdots & & \vdots &  \\
a_{m,1} & + \dots & + a_{m,n} 
\end{pmatrix}
\begin{pmatrix} x_1 \\ \vdots \\ x_n  \end{pmatrix}
=\begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix}
simplificado como A_{}^{}x=0

Un sistema de ecuaciones lineales homogéneas( ecuaciones lineales en las que x=0_{}^{} es siempre una solución, es decir, (x_1,\; \dots ,\; x_n)=(0,\; \dots ,\; 0)) posee soluciones que forman un espacio vectorial, se puede ver en sus dos operaciones:

Si Ax=0,Ay=0 \Rightarrow Ax+Ay=0 \Rightarrow  A(x+y)=0_{}^{}
Si Ax=0,a \in K \Rightarrow a(Ax)=0 \Rightarrow  A(ax)=0_{}^{}.

También que las ecuaciones en sí, filas de la matriz A_{}^{} notadas como una matriz 1\times n , es decir,  E_i=(a_{i,1}, \; \dots , \; a_{i,n}), son un espacio vectorial, como se puede ver en sus dos operaciones:

Si  E_ix=0,\; E_jx=0 \Rightarrow  E_i^{}x+E_jx=0 \Rightarrow (E_i+E_j)x=0
Si  E_ix=0,\; a \in K \Rightarrow  a(E_i^{}x)=0 \Rightarrow (aE_i)x=0.

Definición de subespacio vectorial[editar]

Sea V_{}^{} un espacio vectorial sobre K_{}^{} y  U \subset V no vacío, U_{}^{} es un subespacio vectorial de V_{}^{} si:

i)\;\; \forall u,v \in U, u+v \in U
ii)\; \forall u \in U, \forall k \in K, ku \in U

Consecuencias[editar]

U_{}^{} hereda las operaciones de V_{}^{} como aplicaciones bien definidas, es decir que no escapan de U_{}^{}, y como consecuencia tenemos que U_{}^{} es un espacio vectorial sobre K_{}^{}.

Con cualquier subconjunto de elementos seleccionados en los espacios vectoriales anteriores, no vacío, se pueden generar subespacios vectoriales, para ello seria útil introducir nuevos conceptos que facilitarán el trabajo sobre estos nuevos espacios vectoriales.

Resultados internos[editar]

Para detallar el comportamiento interno de todos los espacios vectoriales de modo general es necesario exponer una serie de herramientas cronológicamente vinculadas entre ellas, con las cuales es posible construir resultados válidos en cualquier estructura que sea espacio vectorial.

Combinación lineal[editar]

Cada vector u es combinación lineal de forma única

Dado un espacio vectorial E_{}^{}, diremos que un vector u es combinación lineal de los vectores de S=\{v_1, \; \dots , \; v_n \} \subset E si existen escalares a_1, \; \dots , \; a_n tales que

 u=a_1v_1+ \cdots + a_nv_n

Notaremos como  \langle S_{}^{} \rangle_E el conjunto resultante de todas las combinaciones lineales de los vectores de  S_{}^{} \subset E.

Proposición 1[editar]

Dado E_{}^{} un espacio vectorial y S \subset E_{}^{} un conjunto de vectores, el conjunto F=\langle S_{}^{} \rangle_E es el subespacio vectorial más pequeño contenido en E_{}^{} y que contiene a S_{}^{}.

Demostración

Si se supone lo contrario, que existe uno más pequeño G_{}^{} \varsubsetneq F \Rightarrow  \exists u \in F : u \notin G contradicción, ya que u está generado por elementos de S \subset F \Rightarrow u \in G a causa de la buena definición de las dos operaciones, por tanto F=G_{}^{}.

Nota. En este caso se dice que  S_{}^{} es un sistema de generadores que genera a F_{}^{}.

Independencia lineal[editar]

Diremos que un conjunto S_{}^{}=\{ v_1, \; \dots , \; v_n \} de vectores es linealmente independiente si el vector 0 no se puede expresar como combinación lineal no nula de los vectores de S_{}^{}, es decir:

Si 0=a_1v_1+ \cdots + a_nv_n \Rightarrow a_1= \cdots = a_n = 0.

Diremos que un conjunto S_{}^{} de vectores es linealmente dependiente si no es linealmente independiente.

Proposición 2[editar]

v_1,\; \dots, \; v_n son linealmente dependientes  \Leftrightarrow \exists v_i \neq 0 : v_i= \sum_{ i \neq j \geq 1}^n a_jv_j

Demostración

 \Rightarrow ) Linealmente dependientes  \Rightarrow 0=b_1v_1+ \cdots + b_nv_n : \exists b_i \neq 0 \Rightarrow b_iv_i= - \sum_{ i \neq j \geq 1}^n b_jv_j \Rightarrow  v_i= \sum_{ i \neq j \geq 1}^n (-b_j b_i^{-1}) v_j=\sum_{ i \neq j \geq 1}^n a_jv_j tomando a_j= -b_j b_i^{-1} .

 \Leftarrow ) Si  v_i= \sum_{ i \neq j \geq 1}^n a_jv_j \Rightarrow  0=a_1v_1+ \cdots + a_nv_n donde a_i:=-1 \neq 0 y por tanto linealmente dependientes.

Base de un espacio vectorial[editar]

Las bases revelan la estructura de los espacios vectoriales de una manera concisa. Una base es el menor conjunto (finito o infinito) B = {vi}iI de vectores que generan todo el espacio. Esto significa que cualquier vector v puede ser expresado como una suma (llamada combinación lineal) de elementos de la base

a1vi1 + a2vi2 + ... + anvin,

donde los ak son escalares y vik (k = 1, ..., n) elementos de la base B. La minimalidad, por otro lado, se hace formal por el concepto de independencia lineal. Un conjunto de vectores se dice que es linealmente independiente si ninguno de sus elementos puede ser expresado como una combinación lineal de los restantes. Equivalentemente, una ecuación

a1vi1 + ai2v2 + ... + anvin = 0

sólo se consigue si todos los escalares a1, ..., an son iguales a cero. Por definición de la base cada vector puede ser expresado como una suma finita de los elementos de la base. Debido a la independencia lineal este tipo de representación es única. Los espacios vectoriales a veces se introducen desde este punto de vista.

Base formalmente[editar]

v1 y v2 son base de un plano, si hubiese dependencia lineal(alineados) la cuadrícula no podría generarse

Dado un sistema de generadores, diremos que es una base si son linealmente independientes.

Proposición 3. Dado un espacio vectorial  E, \; \{ v_1, \; \dots , v_n \} = F \subset E es una base   \Leftrightarrow  \forall u \in E, \; \exists ! a_i \in K ,\;i \in {1,\; \dots , n} :  u=\sum_{i=1}^n a_iv_i.
Proposición 4. Dado un espacio vectorial  E, \; S= \{v_1,\; \dots , \; v_n \} linealmente independiente y u \notin \langle S \rangle \Rightarrow  \{ u \} \cup S = \{ u, \; v_1, \; \dots , \; v_n \} son linealmente independiente.

Teorema de la base de generadores[editar]

Todo sistema de generadores tiene una base.

Teorema Steinitz[editar]

Toda base de un espacio vectorial puede ser cambiada parcialmente por vectores linealmente independientes.

Corolario. Si un espacio vectorial E_{}^{} tiene una base de n_{}^{} vectores \Rightarrow cualquier otra base posee n_{}^{} vectores.

Observación[editar]

Todo espacio vectorial tiene una base. Este hecho se basa en el lema de Zorn, una formulación equivalente del axioma de elección. Habida cuenta de los otros axiomas de la teoría de conjuntos de Zermelo-Fraenkel, la existencia de bases es equivalente al axioma de elección. El ultrafilter lemma, que es más débil que el axioma de elección, implica que todas las bases de un espacio vectorial tienen el mismo "tamaño", es decir, cardinalidad. Si el espacio es generado por un número finito de vectores, todo lo anterior puede demostrarse sin necesidad de acudir a la teoría de conjuntos.

Dimensión[editar]

Dado un espacio vectorial sobre  K_{}^{} :

  • Si tiene base finita, diremos dimensión al número de elementos de dicha base.
  • Si tiene base no finita, diremos que es de dimensión infinita.

Notación[editar]

Dado un espacio vectorial E_{}^{} y un subespacio F_{}^{} \subset E, tenemos que:

  • Si E_{}^{} tiene dimensión  n_{}^{} lo indicaremos como  \dim(E)=n_{}^{}.
  • Si F_{}^{} tiene dimensión  m_{}^{} como subespacio de E_{}^{} lo indicaremos como  \dim_E(F)=m_{}^{}.

Intersección de subespacios vectoriales[editar]

Dado dos subespacios vectoriales  F, G \subset E, la intersección es subespacio vectorial contenido en estos y lo notaremos como:

 F \cap G:= \{ u : \; u \in F , \; u \in G \}.
Observaciones. Para la intersección sucesiva de espacios vectoriales se procede, inductivamente, de dos en dos.

La unión de subespacios vectoriales no es en general un subespacio vectorial.

Suma de subespacios vectoriales[editar]

Dado dos subespacios vectoriales F, G \subset E, la suma es un subespacio vectorial que contiene a estos y la notaremos como:

 F+G:= \{ u=v_1+v_2 : \; v_1 \in F, \; v_2 \in G \} .

Si F y G son subespacios vectoriales de E, su suma F+G es el subespacio vectorial de E más pequeño que contiene a F y a G.

Observación. Para la suma sucesiva de espacios vectoriales se procede, inductivamente, de dos en dos.

Teorema Fórmula de Grassmann[editar]

Dado dos subespacios vectoriales F, G \subset E de dimensión finita, tenemos el resultado siguiente:

  \dim_E(F+G) = \dim_E(F) + \dim_E(G) - \dim_E(F \cap G) .

Suma directa de subespacios vectoriales[editar]

Dados dos subespacios vectoriales F, G \subset E, diremos que F+G_{}^{} es una suma directa si  F \cap G = {0} y lo notaremos como:

 F \oplus G .

Cuando F y G están en suma directa, cada vector de F+G se expresa de forma única como suma de un vector de F y otro vector de G.

Cociente de espacios vectoriales[editar]

Dado un espacio vectorial E\, y un subespacio vectorial F \subset E .

Dados u,v \in E diremos que están relacionados modulo F\, si  u-v \in F.

Se nota por  [u] =u+F: = \{u+v : v \in F \} = \{ w : w=u+v , \; v \in F \} a la clase de u\, modulo F\,.

Llamaremos conjunto cociente o espacio cociente al conjunto de las clases de equivalencia anterior:

Se nota por  E/F_{}^{} a dicho espacio cociente.

El espacio  E/F_{}^{} es un espacio vectorial con las operaciones siguientes:

\begin{matrix} [u]+ [v] & := & [u+v] \\ \;\;\;\;\;\;\;\lambda [u] & := & [ \lambda u]\;\;\;\; \end{matrix}

Construcciones básicas[editar]

Además de lo expuesto en los ejemplos anteriores, hay una serie de construcciones que nos proporcionan espacios vectoriales a partir de otros. Además de las definiciones concretas que figuran a continuación, también se caracterizan por propiedades universales, que determina un objeto X especificando las aplicaciones lineales de X a cualquier otro espacio vectorial.

Suma directa de espacios vectoriales[editar]

Dado dos espacios vectoriales E,\; F_{}^{} sobre un mismo cuerpo K_{}^{}, llamaremos suma directa al espacio vectorial E \times F = \{ u:=(u_1,\; u_2) : u_1 \in E,\; u_2 \in F \} , veamos que están bien definidas las dos operaciones:

u+v=(u_1,\;u_2)+(v_1,\;v_2)=(u_1+v_1,\; u_2+v_2),
a u =a(u_1,\;u_2)=(au_1,\;au_2).

Espacios vectoriales con estructura adicional[editar]

Desde el punto de vista del álgebra lineal, los espacios vectoriales se comprenden completamente en la medida en que cualquier espacio vectorial se caracteriza, salvo isomorfismos, por su dimensión. Sin embargo, los espacios vectoriales ad hoc no ofrecen un marco para hacer frente a la cuestión fundamental para el análisis de si una sucesión de funciones converge a otra función. Asimismo, el álgebra lineal no está adaptada per se para hacer frente a series infinitas, ya que la suma solo permite un número finito de términos para sumar. Las necesidades del análisis funcional requieren considerar nuevas estructuras.

Espacios normados[editar]

Un espacio vectorial es normado si está dotado de una norma.

Espacio métrico[editar]

Un espacio normado es un espacio métrico, donde la distancia viene dada por:

 d(x,y)=\|x-y\|

Toda distancia inducida por la norma es una distancia.

Espacios vectoriales topológicos[editar]

Dada una topología  \tau_{}^{} sobre un espacio vectorial X_{}^{} donde los puntos sean cerrados y las dos operaciones del espacio vectorial sean continuas respecto dichas topología, diremos que:

  •  \tau_{}^{} es una topología vectorial sobre  X_{}^{},
  •  X_{}^{} es un espacio vectorial topológico.
Proposición 6.. Todo espacio vectorial topológico dotado de una métrica es espacio normado.
Proposición 7.. Todo espacio normado es un espacio vectorial topológico.

Espacios de Banach[editar]

Un espacio de Banach es un espacio normado y completo.

Espacios prehilbertianos[editar]

Un espacio prehilbertiano es un par (E_{}^{},\langle \cdot | \cdot \rangle), donde E_{}^{} es un espacio vectorial y  \langle \cdot | \cdot \rangle es un producto a escalar.

Espacios de Hilbert[editar]

Un espacio de Hilbert es un espacio prehilbertiano completo por la norma definida por el producto escalar.

Morfismos entre espacios vectoriales[editar]

Son aplicaciones entre espacios vectoriales que mantienen la estructura de los espacios vectoriales, es decir, conservan las dos operaciones y las propiedades de éstas de uno a otro de dichos espacios.

Aplicaciones lineales[editar]

Dado dos espacios vectoriales E_{}^{} y F_{}^{}, sobre un mismo cuerpo, diremos que una aplicación f:E \rightarrow F es lineal si:

f(u+_E v)=f(u)+_F f(v)_{}^{},
f(a \cdot_E u)=a \cdot_F f(u).

Véase también[editar]

Wikilibros

Referencias[editar]

Notas[editar]

  1. Bourbaki, 1969, ch. "Álgabre linéaire et álgebre multilinéaire", pp. 78–91.
  2. Bolzano, 1804.
  3. Möbius, 1827.
  4. Hamilton, 1853.
  5. Grassmann, 1844.
  6. Peano, 1888, ch. IX.
  7. Banach, 1922.

Referencias históricas[editar]

Bibliografía[editar]

  • Castellet, M.; Llerena, I. (1988). «IV espais vectorials» (en catalán). Àlgebra lineal i geometría. Publ. UAB. 
  • Lang, S. (1976). Álgebra Lineal. Fondo Educativo Interamericano. 
  • Queysanne, M., Álgebra Básica, Vicens-Vives. 1973.
  • Rudin, w., Análisis Funcional (Definición axiomática de espacios vectoriales topológicos introductivamente), Reverté.

Enlaces externos[editar]