|
Etiquetas: Edición desde móvil Edición vía web móvil |
Línea 1: |
Línea 1: |
|
La '''regla de Cramer''' es un [[teorema]] del [[álgebra lineal]] que da la solución de un [[sistema lineal de ecuaciones]] en términos de [[determinante (matemáticas)|determinantes]]. Recibe este nombre en honor a [[Gabriel Cramer]] (1704-1752), quien publicó la regla en su ''Introduction à l'analyse des lignes courbes algébriques'' de 1750, aunque [[Colin Maclaurin]] también publicó el método en su ''Treatise of Geometry'' de 1748 (y probablemente sabía del método desde 1729).<ref>Boyer, Carl B. ''A History of Mathematics'', 2nd edition (Wiley, 1968), p. 431.</ref> |
|
La '''regla de Cramer-Sarrus'' by Moran' es un [[teorema]] del [[álgebra lineal]] que da la solución de un [[sistema lineal de ecuaciones]] en términos de [[determinante (matemáticas)|determinantes]]. Recibe este nombre en honor a [[Gabriel Cramer]] (1704-1752), quien publicó la regla en su ''Introduction à l'analyse des lignes courbes algébriques'' de 1750, aunque [[Colin Maclaurin]] también publicó el método en su ''Treatise of Geometry'' de 1748 (y probablemente sabía del método desde 1729).<ref>Boyer, Carl B. ''A History of Mathematics'', 2nd edition (Wiley, 1968), p. 431.</ref> |
|
|
|
|
|
La regla de Cramer es de importancia teórica porque da una expresión explícita para la solución del sistema. Sin embargo, para sistemas de ecuaciones lineales de más de tres ecuaciones su aplicación para la resolución del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es usado en aplicaciones prácticas que pueden implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es más eficiente que la [[eliminación gaussiana]] para matrices pequeñas, particularmente cuando son usadas operaciones [[SIMD]]. |
|
La regla de Cramer es de importancia teórica porque da una expresión explícita para la solución del sistema. Sin embargo, para sistemas de ecuaciones lineales de más de tres ecuaciones su aplicación para la resolución del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es usado en aplicaciones prácticas que pueden implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es más eficiente que la [[eliminación gaussiana]] para matrices pequeñas, particularmente cuando son usadas operaciones [[SIMD]]. |
La 'regla de Cramer-Sarrus by Moran' es un teorema del álgebra lineal que da la solución de un sistema lineal de ecuaciones en términos de determinantes. Recibe este nombre en honor a Gabriel Cramer (1704-1752), quien publicó la regla en su Introduction à l'analyse des lignes courbes algébriques de 1750, aunque Colin Maclaurin también publicó el método en su Treatise of Geometry de 1748 (y probablemente sabía del método desde 1729).[1]
La regla de Cramer es de importancia teórica porque da una expresión explícita para la solución del sistema. Sin embargo, para sistemas de ecuaciones lineales de más de tres ecuaciones su aplicación para la resolución del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es usado en aplicaciones prácticas que pueden implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es más eficiente que la eliminación gaussiana para matrices pequeñas, particularmente cuando son usadas operaciones SIMD.
Si
es un sistema de ecuaciones,
es la matriz de coeficientes del sistema,
es el vector columna de las incógnitas, y
es el vector columna de los términos independientes, entonces la solución al sistema se presenta así:
![{\displaystyle x_{j}={\cfrac {\det(\mathbf {A} _{j})}{\det(\mathbf {A} )}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/55dcf50570722f8ef49cd22159a8c929ba687342)
donde
es la matriz resultante de reemplazar la j-ésima columna de
por el vector columna
.
Hágase notar que para que el sistema sea compatible determinado, el determinante de la matriz
ha de ser no nulo.
Sistema de 2x2
Para la resolución de un sistema de dos ecuaciones con dos incógnitas, de la forma. Dado el sistema de ecuaciones:
![{\displaystyle a{\color {blue}x}+b{\color {blue}y}={\color {red}e}\,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/60e622dd27848328575232e3eec75152670e501c)
![{\displaystyle c{\color {blue}x}+d{\color {blue}y}={\color {red}f}\,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cbce51d8a12f1e3f81214a18a1f8e2c9cbab248b)
Se representa matricialmente :
![{\displaystyle {\begin{bmatrix}a&b\\c&d\end{bmatrix}}{\begin{bmatrix}{\color {blue}x}\\{\color {blue}y}\end{bmatrix}}={\begin{bmatrix}{\color {red}e}\\{\color {red}f}\end{bmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1ae914203ee895b4248f73814aa8945e5d8db2b1)
Entonces,
e
pueden ser encontradas con la regla de Cramer, con una división de determinantes, de la siguiente manera:
![{\displaystyle x={\frac {\begin{vmatrix}\color {red}{e}&b\\\color {red}{f}&d\end{vmatrix}}{\begin{vmatrix}a&b\\c&d\end{vmatrix}}}={\frac {{\color {red}e}d-b{\color {red}f}}{ad-bc}};\quad y={\frac {\begin{vmatrix}a&\color {red}{e}\\c&\color {red}{f}\end{vmatrix}}{\begin{vmatrix}a&b\\c&d\end{vmatrix}}}={\frac {a{\color {red}f}-{\color {red}e}c}{ad-bc}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/67d579de275c4b54bdb38d384bc16c99bf2105f9)
Ejemplo
Ejemplo de la resolución de un sistema de 2x2:
Dado
![{\displaystyle 3x+1y=9\,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac445451176428eae7e584d6626b169af95820ec)
![{\displaystyle 2x+3y=13\,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4e7c749fe72dab7c8bb2db06cd30e926a8964674)
que matricialmente es:
![{\displaystyle {\begin{bmatrix}3&1\\2&3\end{bmatrix}}{\begin{bmatrix}x\\y\end{bmatrix}}={\begin{bmatrix}9\\13\end{bmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/51edb3b7f576076bee7d56212041b9b55636e358)
x e y pueden ser resueltos usando la regla de Cramer
![{\displaystyle x={\frac {\begin{vmatrix}9&1\\13&3\end{vmatrix}}{\begin{vmatrix}3&1\\2&3\end{vmatrix}}}={9\cdot 3-1\cdot 13 \over 3\cdot 3-1\cdot 2}=2}](https://wikimedia.org/api/rest_v1/media/math/render/svg/29773b809b7b26f2a502f2501c77893b94143662)
![{\displaystyle y={\frac {\begin{vmatrix}3&9\\2&13\end{vmatrix}}{\begin{vmatrix}3&1\\2&3\end{vmatrix}}}={3\cdot 13-9\cdot 2 \over 3\cdot 3-1\cdot 2}=3}](https://wikimedia.org/api/rest_v1/media/math/render/svg/41246a5280a6afb3eaeb1e5fa798eed2d8ae5e7d)
Sistema de 3x3
La regla para un sistema de 3x3, con una división de determinantes:
![{\displaystyle {\begin{cases}a{\color {blue}x}+b{\color {blue}y}+c{\color {blue}z}={\color {black}j}\\d{\color {blue}x}+e{\color {blue}y}+f{\color {blue}z}={\color {black}k}\\g{\color {blue}x}+h{\color {blue}y}+i{\color {blue}z}={\color {black}l}\end{cases}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3782142d55f27677094320d908a5f6f3d094e544)
Que representadas en forma de matriz es:
![{\displaystyle {\begin{bmatrix}a&b&c\\d&e&f\\g&h&i\end{bmatrix}}{\begin{bmatrix}{\color {blue}x}\\{\color {blue}y}\\{\color {blue}z}\end{bmatrix}}={\begin{bmatrix}{\color {red}j}\\{\color {red}k}\\{\color {red}l}\end{bmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0123297c20b71a64ce8bdce1d15d0c6ffa17fc7f)
,
,
pueden ser encontradas como sigue:
![{\displaystyle x={\frac {\begin{vmatrix}{\color {red}j}&b&c\\{\color {red}k}&e&f\\{\color {red}l}&h&i\end{vmatrix}}{\begin{vmatrix}a&b&c\\d&e&f\\g&h&i\end{vmatrix}}};\quad y={\frac {\begin{vmatrix}a&{\color {red}j}&c\\d&{\color {red}k}&f\\g&{\color {red}l}&i\end{vmatrix}}{\begin{vmatrix}a&b&c\\d&e&f\\g&h&i\end{vmatrix}}},\quad z={\frac {\begin{vmatrix}a&b&{\color {red}j}\\d&e&{\color {red}k}\\g&h&{\color {red}l}\end{vmatrix}}{\begin{vmatrix}a&b&c\\d&e&f\\g&h&i\end{vmatrix}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2a79c2e467337a4a9c5b35254c7ab7f56b3d8edd)
Ejemplo
Dado el sistema de ecuaciones lineales:
expresado en forma matricial:
Los valores de
,
y
serían:
![{\displaystyle x={\frac {\begin{vmatrix}1&2&1\\2&0&1\\4&1&2\end{vmatrix}}{\begin{vmatrix}\,\,\,\,3&2&1\\\,\,\,\,2&0&1\\-1&1&2\end{vmatrix}}};\quad y={\frac {\begin{vmatrix}\,\,\,\,3&1&1\\\,\,\,\,2&2&1\\-1&4&2\end{vmatrix}}{\begin{vmatrix}\,\,\,\,3&2&1\\\,\,\,\,2&0&1\\-1&1&2\end{vmatrix}}};\quad z={\frac {\begin{vmatrix}\,\,\,\,3&2&1\\\,\,\,\,2&0&2\\-1&1&4\end{vmatrix}}{\begin{vmatrix}\,\,\,\,3&2&1\\\,\,\,\,2&0&1\\-1&1&2\end{vmatrix}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1045108c93e644f5486dfcb5746e432630a51f13)
Demostración
Sean:
![{\displaystyle {\boldsymbol {x}}={\begin{pmatrix}x_{1}\\\vdots \\x_{n}\end{pmatrix}}\quad {\boldsymbol {b}}={\begin{pmatrix}b_{1}\\\vdots \\b_{n}\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/01d387710ce2ef9c0e6b9978cfb99e39d1af4583)
![{\displaystyle {\boldsymbol {A}}_{j}=\left[{\begin{array}{llllllll}a_{1,1}&\cdots &a_{1,j-1}&b_{1}&a_{1,j+1}&\cdots &a_{1,n}\\a_{2,1}&\cdots &a_{2,j-1}&b_{2}&a_{2,j+1}&\cdots &a_{2,n}\\\\\vdots &&&\ddots &&&\vdots \\\\a_{n-1,1}&\cdots &a_{n-1,j-1}&b_{n-1}&a_{n-1,j+1}&\cdots &a_{n-1,n}\\a_{n,1}&\cdots &a_{n,j-1}&b_{n}&a_{n,j+1}&\cdots &a_{n,n}\end{array}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/28d37de7ec5ed3042127590754d7bf02a4c0d35f)
Usando las propiedades de la multiplicación de matrices:
![{\displaystyle {\boldsymbol {A}}{\boldsymbol {x}}={\boldsymbol {b}}\Leftrightarrow {\boldsymbol {A}}^{-1}{\boldsymbol {A}}{\boldsymbol {x}}={\boldsymbol {A}}^{-1}{\boldsymbol {b}}\Leftrightarrow {\boldsymbol {Ix}}={\boldsymbol {A}}^{-1}{\boldsymbol {b}}\Leftrightarrow {\boldsymbol {x}}={\boldsymbol {A}}^{-1}{\boldsymbol {b}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/10e3daed4303b4f5ce3113a521f2ed20c9ec9885)
entonces:
![{\displaystyle {\boldsymbol {x}}={\boldsymbol {A}}^{-1}{\boldsymbol {b}}={\frac {(\operatorname {Adj} {\boldsymbol {A}})^{t}}{\left|{\boldsymbol {A}}\right|}}\;{\boldsymbol {b}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/02f9470592b81a09822f91671176fd1dec19b08d)
![{\displaystyle (\operatorname {Adj} {\boldsymbol {A}})^{t}={\frac {{\boldsymbol {A}}_{pl}^{\prime }}{{\boldsymbol {A}}_{pl}^{\prime }}}={\boldsymbol {A}}_{lp}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/be7a42e860baaf544a66b05ea9d56028409b19bb)
Por lo tanto:
![{\displaystyle {\boldsymbol {A}}^{-1}{\boldsymbol {b}}=\sum _{i=1}^{n}{\frac {{\boldsymbol {A}}_{ji}^{\prime }}{\left|{\boldsymbol {A}}\right|}}b_{ik}={\frac {\sum _{i=1}^{n}{\boldsymbol {A}}_{ij}b_{i}}{\left|{\boldsymbol {A}}\right|}}={\cfrac {\left|{\boldsymbol {A}}_{j}\right|}{\left|{\boldsymbol {A}}\right|}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a9a63df03a22b25a36111e51ebc5b93e874a89e8)
Aparte, recordando la definición de determinante, la suma definida acumula la multiplicación del elemento adjunto o cofactor de la posición
, con el elemento i-ésimo del vector
(que es precisamente el elemento i-èsimo de la columna
, en la matriz
).
Referencias
- ↑ Boyer, Carl B. A History of Mathematics, 2nd edition (Wiley, 1968), p. 431.
Véase también
Enlaces externos
- Ejemplos y ejercicios de la Regla de Cramer en: Matesfacil