Cálculo diferencial

De Wikipedia, la enciclopedia libre
(Redirigido desde «Calculo diferencial»)
Saltar a: navegación, búsqueda

El cálculo diferencial es una parte del análisis matemático que consiste en el estudio de cómo cambian las funciones cuando sus variables cambian. El principal objeto de estudio en el cálculo diferencial es la derivada. Una noción estrechamente relacionada es la de diferencial de una función.

El estudio del cambio de una función es de especial interés para el cálculo diferencial, en concreto el caso en el que el cambio de las variables es infinitesimal, esto es, cuando dicho cambio tiende a cero (se hace tan pequeño como se desee). Y es que el cálculo diferencial se apoya constantemente en el concepto básico del límite. El paso al límite es la principal herramienta que permite desarrollar la teoría del cálculo diferencial y la que lo diferencia claramente del álgebra.

Desde el punto de vista matemático de las funciones y la geometría, la derivada de una función en un cierto punto es una medida de la tasa en la cual una función cambia conforme un argumento se modifica. Esto es, una derivada involucra, en términos matemáticos, una tasa de cambio. Una derivada es el cálculo de las pendientes instantáneas de f(x) en cada punto x. Esto se corresponde a las pendientes de las tangentes de la gráfica de dicha función en sus puntos (una tangente por punto); Las derivadas pueden ser utilizadas para conocer la concavidad de una función, sus intervalos de crecimiento, sus máximos y mínimos.

La inversa de una derivada se llama primitiva, antiderivada o integral indefinida.

Diferenciación y diferenciabilidad[editar]

Una función de una variable es diferenciable en un punto x si su derivada existe en ese punto; una función es diferenciable en un intervalo si lo es en cada punto x perteneciente al intervalo. Si una función no es continua en c, entonces no puede ser diferenciable en c; sin embargo, aunque una función sea continua en c, puede no ser diferenciable. Es decir, toda función diferenciable en un punto c es continua en c, pero no toda función continua en c es diferenciable en c (como f(x) = |x| es continua pero no diferenciable en x = 0).

Noción de derivada[editar]

Recta secante entre los puntos f(x+h) y f(x).

Las derivadas se definen tomando el límite de la pendiente de las rectas secantes conforme se van aproximando a la recta tangente.

Es difícil hallar directamente la pendiente de la recta tangente de una función porque sólo conocemos un punto de ésta, el punto donde ha de ser tangente a la función. Por ello, aproximaremos la recta tangente por rectas secantes. Cuando tomemos el límite de las pendientes de las secantes próximas, obtendremos la pendiente de la recta tangente.

Para obtener estas pendientes, tomemos un número arbitrariamente pequeño que llamaremos h. h representa una pequeña variación en x, y puede ser tanto positivo como negativo. La pendiente de la recta entre los puntos \scriptstyle (x, f(x))\, y \scriptstyle (x+h, f(x+h))\, es

f(x+h)-f(x)\over h

Esta expresión es un cociente diferencial de Newton. La derivada de f en x es el límite del valor del cociente diferencial conforme las líneas secantes se acercan más a la tangente:

f'(x)=\lim_{h\to 0}{f(x+h)-f(x)\over h}

Si la derivada de f existe en cada punto x, podemos definir la derivada de f como la función cuyo valor en el punto x es la derivada de f en x.

Puesto que la inmediata sustitución de h por 0 da como resultado una división por cero, calcular la derivada directamente puede ser poco intuitivo. Una técnica es simplificar el numerador de modo que la h del denominador pueda ser cancelada. Esto resulta muy sencillo con funciones polinómicas, pero para la mayoría de las funciones resulta demasiado complicado. Afortunadamente, hay reglas generales que facilitan la diferenciación de la mayoría de las funciones descritas.

El cociente diferencial alternativo[editar]

La derivada de f(x) (tal como la definió Newton) se describió como el límite, conforme h se aproxima a cero. Una explicación alternativa de la derivada puede ser interpretada a partir del cociente de Newton. Si se utiliza la fórmula anterior, la derivada en c es igual al límite conforme h se aproxima a cero de [f(c + h) - f(c)] / h. Si se deja que h = x - c (por ende c + h = x), entonces x se aproxima a c (conforme h tiende a cero). Así, la derivada es igual al límite conforme x se aproxima a c, de [f(x) - f(c)] / (x - c). Esta definición se utiliza para una demostración parcial de la regla de la cadena.

Funciones de varias variables[editar]

Para funciones de varias variables f:\mathbb{R}^m \to \mathbb{R}^n las condiciones de diferenciabilidad son más estrictas y requieren más condiciones a parte de la existencia de derivadas parciales. En concreto se requiere la existencia de una aproximación lineal a la función en el entorno de un punto. Dada una base vectorial esta aproximación lineal viene dada por la matriz jacobiana:

\lim_{\| \mathbf{h} \|\to \mathbf{0}} \frac{\mathbf{f}(\mathbf{x_0}+\mathbf{h}) - \mathbf{f}(\mathbf{x_0}) - \mathbf{J}(\mathbf{x_0})\mathbf{h}}{\| \mathbf{h} \|} = \mathbf{0}

Historia[editar]

Los problemas típicos que dieron origen al cálculo infinitesimal, comenzaron a plantearse en la época clásica de la antigua Grecia (siglo III a.c), con conceptos de tipo geométrico como el problema de la tangente a una curva de Apolonio de Perge, pero no se encontraron métodos sistemáticos de resolución hasta el siglo XVII por la obra de Isaac Newton y Gottfried Leibniz.

Ellos sintetizaron dos conceptos y métodos usados por sus predecesores en lo que hoy llamamos «diferenciación» e «integración». Desarrollaron reglas para manipular las derivadas (reglas de derivación) y mostraron que ambos conceptos eran inversos (teorema fundamental del cálculo).

Desde el siglo XVII, muchos matemáticos han contribuido al cálculo diferencial. En el siglo XIX, el cálculo tomó un estilo más riguroso, debido a matemáticos como Augustin Louis Cauchy (1789–1857), Bernhard Riemann (1826–1866), y Karl Weierstrass (1815–1897). Fue también durante este periodo que el cálculo diferencial fue generalizado al espacio euclídeo y el plano complejo.

Aplicaciones importantes del cálculo diferencial[editar]

Recta tangente a una función en un punto[editar]

La recta tangente a una función f(x) es como se ha visto el límite de las rectas secantes cuando uno de los puntos de corte de la secante con la función se hace tender hacia el otro punto de corte. También puede definirse a la recta tangente como la mejor aproximación lineal a la función en su punto de tangencia, esto es, la recta tangente es la función polinómica de primer grado que mejor aproxima a la función localmente en el punto de tangencia que consideremos.

Si conocemos la ecuación de la recta tangente Ta(x) a la función f(x) en el punto a podemos tomar Ta(x) como una aproximación razonablemente buena de f(x) en las proximidades del punto a. Esto quiere decir que si tomamos un punto a + h y lo evaluamos tanto en la función como en la recta tangente, la diferencia f(a+h) - T(a+h) será despreciable frente a h en valor absoluto si h tiende a cero. Cuanto más cerca estemos del punto a tanto más precisa será nuestra aproximación de f(x).

Para una función f(x) derivable localmente en el punto a, la recta tangente a f(x) por el punto a es:

Ta(x)= f(a) + f '(a)(x-a).

Uso de las derivadas para realizar gráficos de funciones[editar]

Las derivadas son una útil herramienta para examinar las gráficas de funciones. En particular, los puntos en el interior de un dominio de una función de valores reales que llevan a dicha función a un extremo local tendrán una primera derivada de cero. Sin embargo, no todos los puntos críticos son extremos locales. Por ejemplo, f(x)=x³ tiene un punto crítico en x=0, pero en ese punto no hay un máximo ni un mínimo. El criterio de la primera derivada y el criterio de la segunda derivada permiten determinar si los puntos críticos son máximos, mínimos o ninguno.

En el caso de dominios multidimensionales, la función tendrá una derivada parcial de cero con respecto a cada dimensión en un extremo local. En este caso, la prueba de la segunda derivada se puede seguir utilizando para caracterizar a los puntos críticos, considerando el eigenvalor de la matriz Hessiana de las segundas derivadas parciales de la función en el punto crítico. Si todos los eigenvalores son positivos, entonces el punto es un mínimo local; si todos son negativos es un máximo local. Si hay algunos eigenvalores positivos y algunos negativos, entonces el punto crítico es un punto silla, y si no se cumple ninguno de estos casos, la prueba es no concluyente (e.g., los engeivalores son 0 y 3).

Una vez que se encuentran los extremos locales, es mucho más fácil hacerse de una burda idea de la gráfica general de la función, ya que (en el caso del dominio mono dimensional) se incrementará o decrementará uniformemente excepto en los puntos críticos, y por ello (suponiendo su continuidad) tendrá valores intermedios entre los valores en los puntos críticos de cada lado.

Aproximación local de Taylor[editar]

Hemos visto que podemos aproximar mediante su recta tangente a una función derivable localmente en un punto. Si se cumple que la función es suficientemente suave en el punto o dominio de estudio (esto es, la función es de clase \scriptstyle C^n) se puede aproximar la función no por polinomios de grado uno, sino por polinomios de grado dos, tres, cuatro y sucesivamente. Esta aproximación recibe el nombre de «desarrollo polinómico de Taylor» y se define de la siguiente manera:

P(x) = f(a)+\frac{f'(a)}{1!}(x-a)+\frac{f''(a)}{2!}(x-a)^2+\frac{f'''(a)}{3!}(x-a)^3+\cdots + \frac{f^{n}(a)}{n!}(x-a)^n

Donde P(x) es el polinomio de grado n que mejor aproxima a la función en el punto x=a. Nótese que si evaluamos P(x) en x=a todos los términos salvo el f(a) se anulan, luego P(a) = f(a). Nótese también que la ecuación de la recta tangente del apartado anterior corresponde al caso en el que n=1.

Cuando a=0 el desarrollo se denomina desarrollo de MacLaurin. En la práctica la mayoría de las veces se emplean desarrollos de MacLaurin. Ejemplos de desarrollos importantes de MacLaurin son:

e^x \approx 1 + \frac{x}{1!} + \frac{x^2}{2!} + \frac{x^3}{3!} + \frac{x^4}{4!} + \frac{x^5}{5!}+ \cdots
\sin\left( x \right) \approx x - \frac{x^3}{3!} + \frac{x^5}{5!} - \frac{x^7}{7!} + \cdots
\ln(1+x)\approx x -\frac{x^2}2+\frac{x^3}3-\frac{x^4}4+\cdots

Nótese el símbolo \approx que denota aproximación que no igualdad. Si la función a aproximar es infinitamente derivable (\scriptstyle C^\infty) y agregamos infinitos términos al desarrollo entonces el \approx se convierte en un = y el desarrollo anterior se convierte en una serie de Taylor. Las funciones que son igual a su serie de Taylor se denominan funciones analíticas.

Cálculo de puntos[editar]

Puntos singulares[editar]

Se denominan puntos singulares ó estacionarios a los valores de la variable en los que se anula la derivada f '(x) de una función f(x), es decir, si f ´(x)=0 en x1, x2, x3, . . . , xn, entonces x1, x2, x3, . . . , xn son puntos singulares de f(x). Los valores f(x1), f(x2), f(x3), . . . , f(xn), se llaman valores singulares.

Puntos críticos[editar]

Por punto crítico se entiende: un punto singular, un punto donde no exista la derivada o un punto extremo a o b del dominio [a,b] de definición de la función.

Si la segunda derivada es positiva en un punto crítico, se dice que el punto es un mínimo local; si es negativa, se dice que el punto es un máximo local; si vale cero, puede ser tanto un mínimo, como un máximo o un punto de inflexión. Derivar y resolver en los puntos críticos es a menudo una forma simple de encontrar máximos y mínimos locales, que pueden ser empleados en optimización. Aunque nunca hay que despreciar los extremos en dichos problemas

Generalización del cálculo diferencial[editar]

Cuando una función depende de más de una variable, se utiliza el concepto de derivada parcial. Las derivadas parciales se pueden pensar informalmente como tomar la derivada de una función con respecto a una de ellas, manteniendo las demás variables constantes. Las derivadas parciales se representan como \frac{\partial}{\partial x} (en donde \partial; es una 'd' redondeada conocida como 'símbolo de la derivada parcial').

El concepto de derivada puede ser extendido de forma más general. El hilo común es que la derivada en un punto sirve como una aproximación lineal a la función en dicho punto. Quizá la situación más natural es que las funciones sean diferenciables en las variedades. La derivada en un cierto punto entonces se convierte en una transformación lineal entre los correspondientes espacios tangentes y la derivada de la función se convierte en un mapeo entre los grupos tangentes.

Para diferenciar todas las funciones continuas y mucho más, se puede definir el concepto de distribución.

Para las funciones complejas de una variable compleja, la diferenciabilidad es una condición mucho más fuerte que la simple parte real e imaginaria de la función diferenciada con respecto a la parte real e imaginaria del argumento. Por ejemplo, la función f(x+{\mathrm i}y)=x+2{\mathrm i}y satisface lo segundo, pero no lo primero. Vea también Función holomórfica.

Vea también: diferintegral. óptimo de una función real de dos variables sujeta a restricciones

Dadas las funciones, de valor real, y ambas con dominio, el problema consiste en hallar los valores máximos o mínimos (valores extremos) de cuando se restringe a tomar valores en el conjunto.

Véase también[editar]

Referencias[editar]

  • Calculus of a Single Variable: Early Transcendental Functions (3a edición) por Bruce H Edwards, Robert P. Hostetler, y Ron Larson (2003).
  • Calculus (2a edición) por Michael Spivak.
  • Calculus Early Trascendentals (6a edición) por James Stewart.
  • Principios de Análisis Matemático por Enrique Linés Escardo.

Enlaces externos[editar]

Wikilibros

Videotutoriales[editar]