¿Dydxdydx \ frac {\ textrm {d} y} {\ textrm {d} x} no es una razón?

En el libro Thomas's Calculus (11a edición) se menciona (Sección 3.8 pg 225) que la derivada d y / d x Dy/ dX no es una proporción. ¿No podría interpretarse como una razón, porque según la fórmula d y = f ( x ) d x Dy=F( x ) dX podemos insertar valores para d x DX y calcular un d y Dy (diferencial). Entonces, si reorganizamos obtenemos d y / d x Dy/ dX que podría verse como una proporción.

Me pregunto si el autor dice esto porque d x DX es una variable independiente, y d y Dy es una variable dependiente, para d y / d x Dy/ dX para ser una razón, ambas variables deben ser independientes ... ¿tal vez?

Puede ser de interés registrar los puntos de vista de Russell sobre el asunto: "Ahora se sabe que la creencia de Leibniz de que el cálculo tenía importancia filosófica es errónea: no hay infinitesimales en él, y $ dx $ y $ dy $ no son numerador ni denominador de Una fracción." (Bertrand Russell, OBRA RECIENTE SOBRE LA FILOSOFÍA DE LEIBNIZ. Mind, 1903).
Entonces, otro error más cometido por Russell, ¿es lo que estás diciendo?
Sí, un error de hecho, y uno que elaboró ​​con vergonzoso detalle en sus Principios de Matemáticas . @TobyBartels
Puede interpretarse a grandes rasgos como una tasa de cambio de $ y $ en función de $ x $. Sin embargo, esta declaración tiene muchas deficiencias.
dy en comparación con dx es cómo lo veo.
Consulte también la pregunta relacionada en MathOverflow, mathoverflow.net/questions/73492/…
Siempre es una razón, ya que los infinitesimales nunca alcanzan el valor cero. El resultado puede no verse afectado por la (s) variable (s) (en) dependencia - 'primer pensamiento'.
Creo que no debe interpretarse como cociente, como lo señaló Arturo en su respuesta. No obstante, me gustaría agregar mi punto. Cuando resolvemos un DE como $ dy / dx = x $, normalmente lo escribimos como $ dy = x \ dx $ e integramos lo que parece ser un cociente, ¡aunque no lo es!

Respuestas (24)

Históricamente, cuando Leibniz concibió la notación, d yd x DyDX se suponía que era un cociente: era el cociente del "cambio infinitesimal en y y producido por el cambio en x X "dividido por el" cambio infinitesimal en x X ".

Sin embargo, la formulación del cálculo con infinitesimales en la configuración habitual de los números reales conduce a muchos problemas. Por un lado, ¡los infinitesimales no pueden existir en la configuración habitual de los números reales! Debido a que los números reales satisfacen una propiedad importante, llamada propiedad de Arquímedes: dado cualquier número real positivo ϵ > 0 ϵ > 0 , no importa cuán pequeño sea, y dado cualquier número real positivo M > 0 METRO> 0 , no importa cuán grande, existe un número natural n norte tal que n ϵ > M n ϵ > M . Pero un "infinitesimal" ξ ξ se supone que es tan pequeño que no importa cuántas veces lo agregue a sí mismo, nunca llega a 1 1 , contradiciendo la Propiedad de Arquímedes . Otros problemas: Leibniz definió la tangente a la gráfica de y = f ( x ) y= f( x ) en x = a x = a diciendo "Toma el punto ( a , f ( a ) ) ( a , f( a ) ) ; luego agregue una cantidad infinitesimal a un a , a + d x a + dX , y toma el punto ( a + d x , f ( a + d x ) ) ( a + dx , f( a + dx ) ) , y dibuje la línea a través de esos dos puntos ". Pero si son dos puntos diferentes en el gráfico, entonces no es una tangente, y si es solo un punto, entonces no puede definir la línea porque solo tiene un punto. Esos son solo dos de los problemas con los infinitesimales (sin embargo , vea más abajo donde dice " Sin embargo ... ").

Entonces, Calculus fue esencialmente reescrito desde cero en los siguientes 200 años para evitar estos problemas, y están viendo los resultados de esa reescritura (de ahí provienen los límites, por ejemplo). Debido a esa reescritura, la derivada ya no es un cociente , ahora es un límite : lim h 0 f ( x + h ) - f ( x )h .

limh 0F( x + h ) - f( x )h.
Y debido a que no podemos expresar este límite de un cociente como un cociente de los límites (tanto el numerador como el denominador van a cero), entonces la derivada no es un cociente.

Sin embargo, la notación de Leibniz es muy sugerente y muy útil; aunque las derivadas no son realmente cocientes, en muchos sentidos se comportan como si fueran cocientes. Entonces tenemos la regla de la cadena: d yd x =dyd ud ud x

DyDX=DyDtuDtuDX
lo que parece muy natural si piensa en las derivadas como "fracciones". Tienes el teorema de la función inversa, que te dice que d xd y =1d yd x,
DXDy=1DyDX,
lo cual es nuevamente casi "obvio" si piensa en las derivadas como fracciones. Entonces, debido a que la notación es tan agradable y tan sugerente, mantenemos la notación aunque la notación ya no representa un cociente real , ahora representa un límite único. De hecho, la notación de Leibniz es tan buena, tan superior a la notación prima y a la notación de Newton, que Inglaterra se quedó atrás de toda Europa durante siglos. en matemáticas y ciencias porque, debido a la pelea entre Newton y el bando de Leibniz sobre quién había inventado el cálculo y quién se lo robó a quién (el consenso es que cada uno lo descubrió de forma independiente), el establecimiento científico de Inglaterra decidió ignorar lo que se estaba haciendo en Europa con Notación de Leibniz y se apegó a la de Newton ... y se quedó atascado en el barro en gran parte debido a eso.

(Los diferenciales son parte de este mismo problema: originalmente, d y Dy y d x DX Realmente hizo significar lo mismo que esos símbolos pueden hacer en D yd x DyDX , pero eso conduce a todo tipo de problemas lógicos, por lo que ya no significan lo mismo, aunque se comporten como si lo hicieran).

Entonces, aunque escribimos d yd x DyDX como si fuera una fracción, y muchos cálculos parecen estar trabajando con ella como una fracción, no es realmente una fracción (solo reproduce uno en la televisión).

Sin embargo ... Hay una forma de sortear las dificultades lógicas con los infinitesimales; esto se llama análisis no estándar . Es bastante difícil explicar cómo se configura, pero puede pensar en ello como la creación de dos clases de números reales: aquellos con los que está familiarizado, que satisfacen cosas como la propiedad de Arquímedes, la propiedad superior, etc., y luego agrega otra clase separada de números reales que incluye infinitesimales y un montón de otras cosas. Si hace eso, puede , si tiene cuidado, definir derivadas exactamente como Leibniz, en términos de infinitesimales y cocientes reales; si haces eso, entonces todas las reglas del cálculo que hacen uso de d yd x DyDX como si fuera una fracción se justifican porque, en ese escenario , es una fracción. Aún así, hay que tener cuidado porque hay que mantener los infinitesimales y los números reales regulares separados y no dejar que se confundan, o puede encontrarse con algunos problemas serios.

Como físico, prefiero la notación de Leibniz simplemente porque es dimensionalmente correcta independientemente de si se deriva del límite o de un análisis no estándar. Con la notación newtoniana, no puede saber automáticamente cuáles son las unidades de $ y '$.
¿Tiene alguna prueba de su afirmación de que "Inglaterra se quedó atrás de Europa durante siglos"?
@Kevin: Mira la historia de las matemáticas. Poco después de Newton y sus estudiantes (Maclaurin, Taylor), todos los desarrollos en matemáticas vinieron del continente. Fueron los Bernoullis, Euler, quienes desarrollaron el cálculo, no los británicos. No fue hasta Hamilton que comenzaron a regresar, y cuando reformaron la enseñanza de las matemáticas en Oxford y Cambridge, adoptaron las ideas y la notación continental.
Realmente, las matemáticas no tenían un firme arraigo en Inglaterra. Fue la Física de Newton la que fue admirada. A diferencia de otras partes del continente, las matemáticas no se consideraban una vocación seria. Así que la "mejor" gente hizo otras cosas.
Hay un libro de texto de cálculo gratuito para estudiantes principiantes de cálculo basado en el enfoque de análisis no estándar aquí . También hay una monografía sobre cálculo infinitesimal dirigida a matemáticos e instructores que puedan estar utilizando el libro mencionado.
Esta es una gran publicación, muy informativa y bien escrita, pero en realidad no responde a la pregunta. Es decir, no muestra cómo $ dy $ y $ dx $ pueden interpretarse como cantidades fijas cuando se trabaja con diferenciales.
@Brendan: Correcto; Me estoy refiriendo a la pregunta en el título y la idea principal: ¿$ \ frac {dy} {dx} $ representa un cociente o no? No lo hace (en el entorno habitual). Para una discusión de los diferenciales, vea aquí .
También hay otro enfoque de los infinitesimales que también es geométrico y se acerca a la intuición que usaron Newton y Leibniz: la geometría sintética suave. Básicamente, rigieron la idea de una tangente / número infinitamente pequeño dx, que cuando se eleva al cuadrado llega a cero.
Gracias, esto me ayudó a ordenar mis pensamientos inmensamente. Como ingeniero, tengo que admitir que he estado trabajando pesadamente con un sentimiento muy parecido al de Leibniz para el cálculo. No es que la interpretación del límite no tenga sentido, simplemente es difícil pensar en los límites y apretar el teorema cada vez que intentas tener una idea de las cantidades físicas que estás manipulando.
Prefiero $ \ frac {\ Delta y} {\ Delta x} $ en lugar de $ \ frac {dy} {dx} $. Después de todo, la expresión $ dx $ proviene de la abreviatura de "delta $ x $" . El uso de $ \ Delta $ en cambio deja más claro que significa "el cambio de $ y $ con respecto a $ x $" en lugar de parecer lo que no debería ser una proporción a primera vista.
@ColeJohnson: La derivada es el límite de $ \ frac {\ Delta y} {\ Delta x} $ cuando $ \ Delta x $ llega a cero. (La diferencia entre $ \ Delta x $ y $ dx $ es que el primero es finito mientras que el segundo, en la medida en que es significativo, es infinitesimal).
Hasta que introduzcas los operadores diferenciales @colejohnson. Entonces, ¿qué es $ \ Delta y $, un cambio o un laplaciano? :)
Siendo totalmente pedante, Inglaterra dejó de producir nuevas matemáticas y ciencias útiles durante menos de 150 años; demasiado tiempo para justificarlo y una horrible edad oscura, pero los siglos en plural son exagerados.
Publicación antigua, pero .... Creo que el hecho de que el límite de una razón no sea una razón (la derivada) se parece mucho al hecho de que el límite de una secuencia racional no necesita ser racional. De hecho, la analogía es perfecta, pero en lugar de números racionales es el límite de las funciones racionales.
Gracias por la asombrosa respuesta. Soy muy malo en matemáticas y quería aclarar una cosa y espero que alguien pueda ayudar. Dices And because we cannot express this limit-of-a-quotient as a-quotient-of-the-limits (both numerator and denominator go to zero), then the derivative is not a quotient.¿Por qué necesitamos expresar el límite como un cociente de los límites para establecer si es un cociente o no?
Para corregir uno de los comentarios anteriores, (William Rowan) Hamilton era irlandés, no inglés.
Cuando se habla de análisis no estándar; ¿Estás hablando del uso de números duales?
@ user2662833: No sé qué es el "uso de números duales". Estoy hablando del, ejem, significado estándar de "análisis no estándar", que es análisis con infinitesimales. Ver Wikipedia .
Así que estoy hablando de estas bestias que definitivamente vale la pena leer: D Pero es curioso lo similares que son estas ideas.
@ user2662833: No, no lo son. Esos números duales son para tener en cuenta elementos nilpotentes, para formalizar algunas ideas de la geometría algebraica y para otras nociones algebraicas. No juegan el papel de infinitesimales en el análisis no estándar, ni nada parecido.
Quise decir que eran similares en el sentido de que ambos están tratando de extender los números reales para incluir una cantidad infinitesimal que sigue un conjunto diferente de reglas (aunque estoy de acuerdo en que las reglas son diferentes). No sé lo suficiente sobre análisis no estándar para decir que los números duales deberían aparecer allí: P Ese no era mi punto
+1 Gran publicación. ¡Feliz de dar este voto a favor número 1200!
Como nota al margen (que casi nadie leerá aquí abajo) en el último siglo más o menos, la situación se ha invertido. Las escuelas secundarias de varios países europeos (por ejemplo, Italia) han estado enseñando cálculo utilizando exclusivamente la notación prima / Newton, ni siquiera introduciendo la notación Leibniz. Esto está haciendo que generaciones de nosotros luchemos mucho más de lo que deberíamos, ya que la notación de Newton es más engorrosa y menos intuitiva para trabajar, y que no podemos leer sitios web matemáticos y artículos científicos recién salidos de la escuela secundaria, como lo hacen universalmente. utilice la notación de Leibniz.
¿En qué tipo de cálculos (si alguien pudiera dar un ejemplo) se encontrarían ambigüedades si se las usara como fracciones y no como límite de los cocientes?
¿Puede aclarar esa afirmación "Pero si son dos puntos diferentes en el gráfico, entonces no es una tangente, y si es solo un punto, entonces no puede definir la línea porque solo tiene un punto"?
@Nick: Lo siento, pero ¿qué hay que aclarar? La tangente no puede intersecar el gráfico en diferentes puntos como ese, y si solo tiene un punto, no puede definir una línea: necesita dos puntos o necesita un punto y una pendiente. Un punto por sí solo no describe una línea.
Creo que estoy confundido con la definición de la tangente que estás usando. En Wiki, la tangente se define como una línea entre puntos infinitamente cercanos. Dices "Pero si son dos puntos diferentes en el gráfico, entonces no es una tangente". ¿Puedes aclarar? Estoy tratando de entender el problema con la teoría de Leibniz y la tangente.
@Nick: La tangente es la línea que ofrece la mejor aproximación lineal cerca del punto; ver aquí y en otros lugares. Para funciones bastante razonables, la línea que pasa por dos puntos cercanos distintos (cuando el gráfico no es una línea recta) no es la tangente, porque la línea que pasa por el punto $ a $ y el punto que está a medio camino entre $ a $ y ese segundo punto será una mejor aproximación. (cont)
@Nick: Te desaconsejo enfáticamente y te recomiendo enfáticamente que no tomes definiciones informales de “wiki” y te ciñas a una sola fuente. El tipo de enfoque de mezclar y combinar que está utilizando solo generará más confusión, porque está buscando diferentes enfoques con diferentes definiciones y diferentes nociones y tratando de combinarlos en una sola narrativa coherente; no funcionará. Sería como intentar crear una novela seleccionando páginas de diferentes libros y uniéndolas.
Un buen ejemplo de por qué no puede tratarse como una razón se da aquí: arxiv.org/pdf/1801.09553.pdf Según los autores, los problemas ocurren principalmente cuando se extiende a la segunda derivada. Dan como ejemplo el caso de $ y $ dependiendo de $ x $, él mismo dependiendo de $ t $, y calculando por la regla de la cadena la segunda derivada de $ y $ según $ t $, lo que da $$ \ frac { d ^ 2 y} {dt ^ 2} = \ frac {d ^ 2 y} {dx ^ 2} (\ frac {dx} {dt}) ^ 2+ \ frac {dy} {dx} \ frac {d ^ 2 x} {dt ^ 2} $$ y no $$ \ frac {d ^ 2 y} {dt ^ 2} = \ frac {d ^ 2y} {dx ^ 2} (\ frac {dx ^ 2} {dt ^ 2}) = \ frac {d ^ 2 y} {dx ^ 2} (\ frac {dx} {dt}) ^ 2. $$

Solo para agregar algo de variedad a la lista de respuestas, voy a ir en contra de la corriente aquí y decir que puedes, de una manera tonta, interpretar d y / d x Dy/ dX como una razón de números reales.

Para cada función (diferenciable) f F , podemos definir una función d f ( x ; d x ) DF( x ; dx ) de dos variables reales x X y d x DX vía d f ( x ; d x ) = f ( x )d x .

DF( x ; dx ) =F( x )Dx .
Aquí, d x DX es solo un número real, y nada más. (En particular, no es una forma diferencial 1, ni un infinitesimal). Entonces, cuando d x 0 Dx 0 , podemos escribir: d f ( x ; d x )d x =f(x).
DF( x ; dx )DX=F( x ) .


Todo esto, sin embargo, debería venir acompañado de algunas observaciones.

Está claro que estas notaciones anteriores no constituyen una definición de la derivada de f F . De hecho, necesitábamos saber cuál es la derivada f F significa antes de definir la función d f DF . Entonces, en cierto sentido, es solo una inteligente elección de notación.

Pero si es solo un truco de notación, ¿por qué lo menciono? La razón es que en dimensiones superiores, la función d f ( x ; d x ) DF( x ; dx ) en realidad se convierte en el foco de estudio, en parte porque contiene información sobre todas las derivadas parciales.

Para ser más concretos, para funciones multivariables f : R nR F:RnorteR , podemos definir una función d f ( x ; d x ) DF( x ; dx ) de dos variables n-dimensionales x , d x R n x , dx Rnorte vía d f ( x ; d x ) = d f ( x 1 , , x n ; d x 1 , , d x n ) = fx 1 dx1++fx n dxn.

DF( x ; dx ) = dF(X1, ,Xnorte; DX1, , DXnorte) =FX1DX1+ +FXnorteDXnorte.

Observe que este mapa d f DF es lineal en la variable d x DX . Es decir, podemos escribir: d f ( x ; d x ) = ( fx 1 ,,fx n )( d x 1d x n )=A(dx),

DF( x ; dx ) = (FX1, ,FXnorte)DX1DXnorte= A ( dx ) ,
donde A A es el 1 × n 1 × n matriz de filas de derivadas parciales.

En otras palabras, la función d f ( x ; d x ) DF( x ; dx ) se puede pensar como una función lineal de d x DX , cuya matriz tiene coeficientes variables (dependiendo de x X ).

Entonces para el 1 1 -En caso de dimensión, lo que realmente está sucediendo es un truco de dimensión . Es decir, tenemos la variable 1 × 1 1 × 1 matriz ( f ( x )) actuando sobre el vector d x R 1- y da la casualidad de que los vectores en R 1 pueden identificarse con escalares y, por lo tanto, pueden dividirse.

Finalmente, debo mencionar que, siempre que estemos pensando en d xcomo un número real, los matemáticos multiplican y dividen por d xtodo el tiempo, es solo que usualmente usarán otra notación. La letra " h"se usa a menudo en este contexto, por lo que generalmente escribimos f ( x ) = lim h 0 f ( x + h ) - f ( x )h ,

en lugar de, digamos, f ( x ) = lim d x 0 f ( x + d x ) - f ( x )d x .
Supongo que la principal aversión a escribir d x es que entra en conflicto con nuestra notación para diferencial 1 -formas.

EDITAR: Solo para ser aún más técnico, y a riesgo de ser confuso para algunos, realmente ni siquiera deberíamos estar con respecto a d xcomo un elemento de R n, sino como un elemento del espacio tangente T x R n. Nuevamente, sucede que tenemos una identificación canónica entre T x R ny R nlo que hace que todo lo anterior esté bien, pero me gusta la distinción entre espacio tangente y espacio euclidiano porque resalta los diferentes roles desempeñados por x R ny d x T x R n.

Espacio cotangente. Además, en el caso de múltiples variables, si fija $ dx ^ 2, \ ldots, dx ^ n = 0 $, aún puede dividir por $ dx ^ 1 $ y obtener la derivada. Y nada le impide definir primero el diferencial y luego definir las derivadas como sus coeficientes.
@Alexei Averchenko: Ah, no había pensado en configurar $ dx ^ 2 = \ ldots = dx ^ n = 0 $, eso es interesante.
@Alexei: Sin embargo, creo que me refiero al espacio tangente y no al cotangente. Estoy haciendo referencia al mapa pushforward $ f _ * \ colon T_xR ^ n \ to T_ {f (x)} R $. En otras palabras, existe un conflicto adicional de notación entre los vectores tangentes y las formas 1 diferenciales.
Bueno, canónicamente los diferenciales son miembros de un paquete contagente, y $ dx $ es en este caso su base.
Tal vez te esté entendiendo mal, pero nunca hice ninguna referencia a los diferenciales en mi publicación. Mi punto es que $ df (x; dx) $ se puede comparar con el mapa pushforward $ f _ * $. Por supuesto, también se puede hacer una analogía con la forma 1 diferencial real $ df $, pero eso es algo aparte.
Mi punto es que cuando la gente habla de una linealización de un mapa de $ R ^ n \ a R $, la entrada de este mapa lineal son vectores tangentes, aunque la notación es a menudo (desafortunadamente) $ dx $.
Seguro que la entrada es un vector, por eso estas linealizaciones se llaman covectores, que son miembros del espacio cotangente. No veo por qué mencionas los avances cuando hay una descripción mejor allí.
Veo. Normalmente, cuando pienso en la linealización de un mapa suave $ f \ colon M \ a N $ entre múltiples, pienso en el empuje hacia adelante $ f _ * $. También creo que esto generaliza muy bien la noción de la llamada "derivada total" de los mapas $ R ^ m \ a R ^ n $. Supongo que también se pueden usar formas diferenciales con valores vectoriales para este propósito ... tal vez sea solo una cuestión de gusto personal.
Simplemente no creo que pushforward sea la mejor manera de ver el diferencial de una función con el codominio $ \ mathbb {R} $ (aunque es perfectamente correcto), es una idea demasiado compleja que tiene un tratamiento más natural.
Por curiosidad, y sé que esta es una publicación antigua, pero ¿en qué se diferencia de tomar la derivada exterior de $ f $, en cuyo caso las $ dx_i $ son en realidad formas diferenciales de uno?

Mi "contraejemplo" favorito de la derivada que actúa como una razón: la fórmula de diferenciación implícita para dos variables. Tenemos d yd x =-F/xF /y

La fórmula es casi lo que cabría esperar, excepto por ese molesto signo menos.

Consulte http://en.wikipedia.org/wiki/Implicit_differentiation#Formula_for_two_variables para obtener una definición rigurosa de esta fórmula.

Sí, pero hay una prueba falsa de esto que proviene de ese tipo de razonamiento. Si $ f (x, y) $ es una función de dos variables, entonces $ df = \ frac {\ part f} {\ partid x} dx + \ frac {\ partid f} {\ partid y} $. Ahora, si elegimos una curva de nivel $ f (x, y) = 0 $, entonces $ df = 0 $, por lo que resolver para $ \ frac {dy} {dx} $ nos da la expresión anterior.
Disculpe, pero ¿cómo es esto una "prueba falsa"?
@Lurco: Quiso decir $ df = \ frac {∂f} {∂x} dx + \ frac {∂f} {∂y} dy $, donde esos 'infinitesimales' no son números propios y por lo tanto es incorrecto simplemente sustituir $ df = 0 $, porque de hecho si somos consistentes en nuestra interpretación $ df = 0 $ implicaría $ dx = dy = 0 $ y por lo tanto no podemos obtener $ \ frac {dy} {dx} $ de todos modos. Pero si somos inconsistentes , podemos ignorar eso y proceder a obtener la expresión deseada. Respuesta correcta pero prueba falsa.
Estoy de acuerdo en que este es un buen ejemplo para mostrar por qué dicha notación no es tan simple como uno podría pensar, pero en este caso podría decir que $ dx $ no es lo mismo que $ ∂x $. ¿Tiene un ejemplo en el que los términos realmente se cancelen para dar una respuesta incorrecta?
No sé. ¿Suponga dependencia de una tercera variable ficticia con respecto a la cual todo es constante de modo que lhs sea realmente parcial?
-1 Lo siento, pero esto se basa en un malentendido. El dy / dx es para las entidades goemétricas que son las curvas de nivel, las derivadas parciales son para la función de la que estamos tomando las curvas de nivel. Esto no demuestra lo que se dice, ya que estamos usando una entidad diferente a la izquierda que a la derecha.
@JohnRobertson, por supuesto que lo es. Ese es el punto aquí, que este tipo de pensamiento de "prueba falsa" conduce a resultados incorrectos aquí. Ignoro descaradamente el hecho de que $ d \ neq \ partial $ (esencialmente), y también ignoro por completo lo que realmente es $ F $. Mi único punto aquí es que si intentas usar esto como un mnemónico (o peor, un método de "prueba"), obtendrás resultados completamente incorrectos.
Pero da una idea equivocada, porque dx y dy son formas 1 perfectamente bien definidas (actúan sobre vectores tangentes, no puntos). Y su relación es constante en las fibras (es decir, depende solo del punto base del vector) y, por lo tanto, desciende a una función bien definida que es exactamente f '(x).
¡Hola de nuevo! He pensado en este tema recientemente, así que cuando me encontré con su respuesta nuevamente, veo que es simplemente un buen ejemplo de que hacer las cosas a ciegas conducirá a tonterías (¡con suerte un hecho bien conocido!) Pero un mal contraejemplo de ser capaz de tratar $ \ frac {dy} {dx} $ como una notación para la aproximación de $ \ frac {Δy} {Δx} $. La razón es que esto realmente funciona bien y se puede hacer riguroso a través de una interfaz intuitiva de comportamiento asintótico que en realidad no invoca definiciones épsilon-delta. Por supuesto, si uno quiere probar esa interfaz, todavía necesitamos las definiciones modernas.
Solo quería agregar que la interpretación correcta del teorema de la función implícita anterior es que, manteniendo la función constante en cero, la derivada muestra cuánto cambia y cuando x cambia una cantidad infinitamente pequeña. Se puede leer como "¿Qué cantidad de X reemplazaría a Y?". Por lo tanto, la prueba anterior se basa en una suposición y no es una prueba en absoluto. La fórmula completa es en realidad: $$ \ frac {dy} {dx} = - \ frac {\ delta F / \ delta x} {\ delta F / \ delta y} + \ frac {dF} {dx} \ frac { \ delta y} {\ delta F} $$
Solo como una nota, el enlace a continuación tiene una discusión que muestra cómo esto es el resultado de una notación defectuosa, no porque no sea una proporción. En resumen, los dos $ \ F $ parciales en $ \ frac {\ F} parcial {\ x} parcial $ y $ \ frac {\ F $ parcial} {\ y} parcial $ no se refieren a la misma cosa. Si los separa, dándoles un subíndice o algo así, entonces el álgebra funciona perfectamente. Sin embargo, $ \ parcial x $ y $ \ parcial y $ tampoco son iguales a $ dx $ y $ dy $ en todas las circunstancias (aunque lo son aquí). journalnals.blythinstitute.org/ojs/index.php/cbi/article/view/47/…

Es mejor pensar en dd xcomo un operador que toma la derivada, con respecto ax, de cualquier expresión que siga.

Esta es una opinión ofrecida sin ninguna justificación.
¿Qué tipo de justificación quieres? ¡Es un muy buen argumento para decir que $ \ frac {dy} {dx} $ no es una fracción! Esto nos dice que $ \ frac {dy} {dx} $ debe verse como $ \ frac {d} {dx} (y) $ donde $ \ frac {d} {dx} $ es un operador.
Sobre los hiperrealistas, $ \ frac {dy} {dx} $ es una proporción y uno puede ver $ \ frac {d} {dx} $ como un operador. Por lo tanto, la respuesta de Tobin no es un buen argumento para "decir que dy / dx no es una fracción".
Esto no responde a la pregunta. $ \ frac {y} {x} $ es claramente una razón, pero también se puede pensar como el operador $ \ frac {1} {x} $ que actúa sobre $ y $ por multiplicación, por lo que "operador" y "razón" no son exclusivos.
Gracias por los comentarios, creo que todas estas críticas a mi respuesta son válidas.
sí, d no se multiplica por y, pero cuando toma $ d (y) $ obtiene $ dy $, que a su vez es proporcional a $ y ^ {\ prime} $ y $ dx $. Si pudieras "multiplicar" $ d $ por $ y $ para obtener $ dy $, podrías hacer lo mismo con $ x $ y obtener $ \ frac {dy} {dx} = \ frac {y} {x } $ que es por eso que d (y) ≠ d⋅y. Lo que dije antes es cómo se traduce $ \ frac {d} {dx} (y) = \ frac {dy} {dx} $ donde ambos están de acuerdo. Lo que dijo @MikhailKatz.
@TobinFricke mi profesor se refiere a operadores como máquinas de café; sin los granos de café (y por ejemplo), no tendríamos café (derivada de y con respecto a x)
Me gustaría pensar en $ \ frac {d} {dx} $ como un operador. Pero entonces, ¿qué pasa cuando encuentro un $ dy $ solo en la naturaleza? ("En la naturaleza" significa "En alguna prueba / papel / sitio web / fórmula ...")

En las matemáticas de Leibniz, si y = x 2entonces d yd xsería "igual" a 2 x, pero el significado de "igualdad" para Leibniz no era el mismo que para nosotros. Enfatizó repetidamente (por ejemplo, en su respuesta de 1695 a Nieuwentijt) que estaba trabajando con una noción generalizada de igualdad "hasta" un término insignificante. Además, Leibniz usó varias piezas diferentes de notación para "igualdad". Uno de ellos era el símbolo "". Para enfatizar el punto, se podría escribir y = x 2d yd x2 x

donde d yd x es literalmente una proporción. Cuando uno expresa la intuición de Leibniz de esta manera, uno se siente menos tentado a cometer un error ahistórico al acusarlo de haber cometido una inexactitud lógica.

Con más detalle, d yd xes una razón verdadera en el siguiente sentido. Elegimos un infinitesimal Δ x, y considere la correspondiente y-incremento Δ y = f ( x + Δ x ) - f ( x ). La relación Δ yΔ xentonces está infinitamente cerca de la derivada f ( x ). Luego establecemos d x = Δ xy d y = f ( x ) d xde modo que f ( x ) = d yd xpor definición. Una de las ventajas de este enfoque es que se obtiene una elegante prueba de la regla de la cadena d yd x =dyd u dud xaplicando la función de parte estándar a la igualdad Δ yΔ x =ΔyΔ u ΔuΔ x.

En el enfoque del cálculo basado en lo real, no hay infinitesimales y, por lo tanto, es imposible interpretar d yd xcomo una verdadera proporción. Por lo tanto, las afirmaciones en ese sentido tienen que ser relativizadas en módulos de compromisos fundacionales anti-infinitesimales.

Nota 1. Recientemente noté que Leibniz's La notación aparece varias veces en el libro de Margaret Baron Los orígenes del cálculo infinitesimal , a partir de la página 282. Vale la pena echarle un vistazo.

Nota 2. Debe quedar claro que Leibniz hizo vista d yd xcomo una proporción. (Algunas de las otras respuestas parecen estar redactadas de manera ambigua con respecto a este punto).

Esto no viene al caso, pero no creo que aplicar la función de parte estándar para probar la regla de la cadena sea particularmente más (o menos) elegante que aplicar el límite como $ \ Delta {x} \ a 0 $. Ambos intentos tuvieron un inconveniente ya que $ \ Delta {u} $ podría ser $ 0 $ cuando $ \ Delta {x} $ no lo es (independientemente de si uno está pensando en $ \ Delta {x} $ como una cantidad infinitesimal o como un estándar variable cercana a $ 0 $), como por ejemplo cuando $ u = x \ sin (1 / x) $.
Este inconveniente existe en la configuración épsilon-delta, pero no existe en la configuración infinitesimal porque si la derivada es distinta de cero, entonces uno necesariamente tiene $ \ Delta u \ not = 0 $, y si la derivada es cero, entonces no hay nada. probar. @TobyBartels
Tenga en cuenta que la función que mencionó no está definida (o no es diferenciable si la define) en cero, por lo que la regla de la cadena no se aplica en este caso de todos modos. @TobyBartels
Lo siento, eso debería ser $ u = x ^ 2 \ sin (1 / x) $ (extendido por continuidad a $ x = 0 $, que es el argumento en cuestión). Si el $ \ Delta {x} $ infinitesimal es $ 1 / (n \ pi) $ para algún hiperinteger (necesariamente infinito) $ n $, entonces $ \ Delta {u} $ es $ 0 $. Es cierto que en este caso, la derivada $ \ mathrm {d} u / \ mathrm {d} x $ también es $ 0 $, pero no veo por qué eso importa; ¿Por qué no hay nada que probar en ese caso? (Por el contrario, si no hay nada que probar en ese caso, ¿eso no guarda también la prueba épsilontic? Esa es la única forma en que $ \ Delta {u} $ puede estar $ 0 $ arbitrariamente cerca del argumento).
Si $ \ Delta u $ es cero, entonces obviamente $ \ Delta y $ también es cero y, por lo tanto, ambos lados de la fórmula para la regla de la cadena son cero. Por otro lado, si la derivada de $ u = g (x) $ es distinta de cero, entonces $ \ Delta u $ es necesariamente distinta de cero. Este no es necesariamente el caso cuando se trabaja con diferencias finitas. @TobyBartels
OK, creo que lo veo ahora! Dado un valor infinitesimal distinto de cero de $ \ Delta {x} $ (y calculando $ \ Delta {u} $ y $ \ Delta {y} $ a partir de él), necesitamos demostrar que $ \ Delta {y} / Delta {x } $ está infinitamente cerca de $ f '(u) g' (x) $. Está diciendo, trate $ \ Delta {u} = 0 $ y $ \ Delta {u} \ ne 0 $ por separado: en el último caso, aplique partes estándar a $ \ Delta {y} / \ Delta {x} = \ Delta {y} / \ Delta {u} \ cdot \ Delta {u} / \ Delta {x} $; en el primer caso, $ g '(u) = 0 $, $ \ Delta {y} = 0 $ también y $ \ operatorname {st} (0) = 0 $ por lo que es trivial. Este argumento sería difícil de adaptar a la épsiloncia.
Acabo de pasar la última media hora buscando una revisión que estaba seguro de haber visto del libro de texto no estándar de Cálculo de Keisler (había pensado que estaba en MathSciNet pero no parece estarlo), en la que el revisor dijo que el libro probaba fácilmente la regla de la cadena cancelando factores; pero cuando miré en el libro (y en el compañero del instructor), la demostración involucraba el Teorema del Incremento, muy parecido a la demostración estándar en algunos libros de texto estándar. Entonces, cuando dijiste que era fácil, pensé que debías estar cometiendo el mismo error.
@TobyBartels, la demostración a través del teorema del incremento en Keisler es más simple porque la última etapa es simplemente aplicar st . Además, esto se puede probar a través de $ \ Delta u $ considerando dos casos: cuando $ \ Delta u $ es cero y distinto de cero.

Típicamente, la d yd xla notación se usa para denotar la derivada, que se define como el límite que todos conocemos y amamos (ver la respuesta de Arturo Magidin). Sin embargo, cuando se trabaja con diferenciales, se puede interpretar d yd x como una verdadera relación de dos cantidades fijas.

Dibuja una gráfica de alguna función suave fy su recta tangente en x = a. Comenzando desde el punto ( a , f ( a ) ), mover d xunidades a lo largo de la recta tangente (no a lo largo de la gráfica de f). Deja d yser el cambio correspondiente en y.

Entonces, movimos d xunidades a la derecha, d yunidades hacia arriba y permaneció en la línea tangente. Por lo tanto, la pendiente de la recta tangente es exactamente d yd x. Sin embargo, la pendiente de la tangente en x = atambién viene dado por f ( a ), de ahí la ecuación

d yd x =f(a)

se mantiene cuando d yy d xse interpretan como cambios fijos y finitos en las dos variables xy y. En este contexto, no estamos tomando un límite en el lado izquierdo de esta ecuación, y d yd xes una relación real de dos cantidades fijas. Es por eso que podemos escribir d y = f ( a ) d x.

Esto se parece mucho a la explicación de los diferenciales que recuerdo haber escuchado de mi instructor de Cálculo I (un analista destacado, un experto en integrales de Wiener): " d y y d x son dos números cualesquiera cuya razón es la derivada. . . son útiles para las personas interesadas en (oler) aproximaciones ".
@bof: Pero no podemos describir casi todos los números reales en el mundo real, así que supongo que tener aproximaciones es bastante bueno. =)
@ user21820 cualquier cosa que podamos aproximar con precisión arbitraria que podamos definir ... Es el resultado de ese algoritmo.
@k_g: Sí, por supuesto. Mi comentario fue el año pasado, así que ya no recuerdo lo que quise decir en ese momento, pero probablemente estaba tratando de decir que dado que ya estamos limitados a muchos reales definibles numerables, es mucho peor si nos limitamos aún más a formas cerradas. de algún tipo y evite las aproximaciones. Más aún, en el mundo real rara vez tenemos valores exactos, sino solo intervalos de confianza de todos modos, por lo que las aproximaciones son suficientes para casi todos los propósitos prácticos.

Por supuesto que es una proporción.

d yy d xson diferenciales. Por tanto, actúan sobre vectores tangentes, no sobre puntos. Es decir, son funciones en la variedad tangente que son lineales en cada fibra. En la variedad tangente, la relación de los dos diferenciales d yd xes solo una relación de dos funciones y es constante en cada fibra (excepto que está mal definida en la sección cero) Por lo tanto, desciende a una función bien definida en el colector base. Nos referimos a esa función como derivada.

Como se señaló en la pregunta original, muchos libros de cálculo uno en estos días incluso intentan definir los diferenciales de manera vaga y al menos señalan informalmente que para los diferenciales d y = f ( x ) d x(Tenga en cuenta que ambos lados de esta ecuación actúan sobre vectores, no sobre puntos). Ambos d yy d xson funciones perfectamente bien definidas sobre vectores y, por tanto, su relación es una función perfectamente significativa sobre vectores. Dado que es constante en las fibras (menos la sección cero), entonces esa relación bien definida desciende a una función en el espacio original.

En el peor de los casos, uno podría objetar que la relación d yd x no está definido en la sección cero.

¿Se puede hacer algo significativo a partir de derivados de orden superior de la misma manera?
Simplemente puede imitar el procedimiento para obtener una segunda o tercera derivada. Como recuerdo cuando resolví eso, las mismas derivadas parciales superiores se realizan de múltiples maneras, lo cual es incómodo. El enfoque estándar es más directo. Se llama Jets y actualmente hay un artículo de Wikipedia sobre Jet (matemáticas).
@JohnRobertson ¿Qué significa que "$ \ frac {dy} {dx} $ desciende a una función bien definida"? La variedad tangente es el paquete tangente, ¿verdad? No estoy muy familiarizado con esta terminología, por lo que si pudiera dirigirme a un artículo que establezca estos conceptos, le agradecería mucho.
La variedad tangente es el paquete tangente. Y lo que significa es que dy y dx son funciones perfectamente bien definidas en la variedad tangente, por lo que podemos dividir una por la otra dando dy / dx. Resulta que el valor de dy / dx en un vector tangente dado solo depende del punto base de ese vector. Como su valor solo depende del punto base, podemos considerar que dy / dx realmente define una función en el espacio original. A modo de analogía, si f (u, v) = 3 * u + sin (u) + 7, aunque f es una función tanto de u como de v, dado que v no afecta la salida, también podemos considerar f ser una función de ti solo.
¡Tu respuesta está en la oposición con muchas otras respuestas aquí! :) ¡Estoy confundido! Entonces, ¿es una proporción o no o ambas?
@HR Es una proporción. Es una relación de diferenciales. dy es algo real. Es un diferencial en la variedad tangente. También lo es dx. Si divido dy por dx obtengo una función, que es f '(x). De hecho, dy es el operador diferencial d aplicado a la función y y dx es el operador diferencial d aplicado a la función x. Si aplico el operador diferencial d a una función f (x), entonces el resultado es f '(x) dx, que es la función f' (x) multiplicada por el diferencial dx.
¡Ah! ¡Gracias por responder a mi antiguo comentario! :) ¿Entonces no tenemos que entrar en un análisis no estándar o algo para hacer que $ dy $ y $ dx $ sean significativos? Entonces, ¿de qué trata la última parte de la respuesta de Arturo Magidin ? Creo que leer su respuesta puede poner a los futuros lectores en este dilema, por lo que será útil abordarlo en su respuesta. :)
De su respuesta, es una proporción.
¿Cómo simplifica todo esto al nivel de caso más especial del cálculo básico donde todos los espacios son euclidianos? Las invocaciones de la teoría múltiple sugieren que este es un enfoque diseñado para geometrías no euclidianas.
@HR tal vez "dentro" del tema del cálculo o incluso del análisis, no son significativos. Pero quizás dentro de la asignatura de geometría existen definiciones y teoremas para los que funcionan estas ideas. Y las ideas de todo esto están tan conectadas que todo parece lo mismo. Pero eso es solo una suposición de mi parte. ¿Qué opinas, ahora dos años después?

La notación d y / d x- en cálculo elemental - es simplemente eso: notación para denotar la derivada de, en este caso, ywrt x. (En este caso f ( x )es otra notación para expresar esencialmente lo mismo, es decir, d f ( x ) / d xdonde f ( x )significa la función fwrt la variable dependiente x. Según lo que ha escrito anteriormente, f ( x )es la función que toma valores en el espacio objetivo y).

Además, por definición, d y / d x en un punto específico x 0dentro del dominio xes el número real L, si existiera. De lo contrario, si no existe tal número, entonces la función f ( x )no tiene una derivada en el punto en cuestión, (es decir, en nuestro caso x 0).

Para más información puede leer el artículo de Wikipedia: http://en.wikipedia.org/wiki/Derivative

Me alegro de que wikipedia finalmente agregó una entrada para el derivado ...

No es una razón, al igual que d x no es un producto.

Me pregunto qué motivó el voto negativo. Me parece extraño que los estudiantes tiendan a confundir la notación de Leibniz con un cociente, y no $ dx $ (¡o incluso $ \ log $!) Con un producto: ambas son notaciones indivisibles ... Mi respuesta anterior solo hace este punto.
Creo que la razón por la que surge esta confusión en algunos estudiantes puede estar relacionada con la forma en que se usa esta notación, por ejemplo, al calcular integrales. Aunque, como usted dice, son indivisibles, se separan "formalmente" en cualquier curso de cálculo para ayudar en el cálculo de integrales. Supongo que si las letras en $ \ log $ estuvieran separadas de manera similar, los estudiantes probablemente cometerían el mismo error al asumir que es un producto.
Una vez escuché la historia de un aspirante a la universidad, a quien le pidieron en la entrevista que buscara $ dy / dx $, no entendía la pregunta, sin importar cómo la formulara el entrevistador. Fue solo después de que la entrevista lo escribió que el estudiante informó de inmediato al entrevistador que los dos $ d $ se cancelaron y que, de hecho, estaba equivocado.
¿Es esta una respuesta ??? ¿O simplemente una imposición?
@ AndréCaldas, es una afirmación de un hecho. Puede optar por no «imponerse», al igual que puede negarse a aceptar que le «impongan» el hecho de que si salta de una ventana del décimo piso morirá por el choque en el suelo.
Tenía la impresión de que se suponía que las respuestas eran útiles. Una declaración de un hecho puede ser útil para el OP u otras personas que visiten la página. No tengo que "elegir" ser o no imponerme ... de hecho hay otra opción: no escribir respuestas inútiles. Recuerde que la razón principal por la que estamos aquí no es que se sienta tan superior y lleno de sí mismo. ¡¡¡Sé útil!!! Salud...
La pregunta que se hizo aquí es: «¿$ dy / dx $ no es una proporción?» Si lee mi respuesta, notará que responde muy sucintamente a la pregunta, e incluso incluye un ejemplo de una notación similar que posiblemente también podría causar el mismo tipo de confusión. Si cree que puede responder de manera más útil a esta pregunta, entonces agregue otra respuesta: lo que sea que esté haciendo aquí, no le está siendo útil a nadie.
Le agradecería que evitara conjeturar sobre mis motivaciones para responder de una forma u otra: al menos, no lo haga aquí, donde constituye ruido .
Encuentro la afirmación de que "los estudiantes tienden a confundir la notación de Leibniz con un cociente" un poco problemática. La razón de esto es que Leibniz ciertamente pensó en $ \ frac {dy} {dx} $ como un cociente. Dado que se comporta como una razón en muchos contextos (como la regla de la cadena), puede ser más útil para el estudiante señalar que, de hecho, se puede decir que la derivada es "igual" a la razón $ \ frac {dy} {dx} $ si "igualdad" se interpreta como una relación más general de igualdad "hasta un término infinitesimal", que es lo que pensaba Leibniz. No creo que esto sea comparable a pensar en "dx" como un producto
user72694: sí, y $ \ frac {dx} {dy} $ se vuelve realmente confuso, por ejemplo, cuando el estudiante aprende acerca de las EDO con variables separables: $ y \; \ frac {dy} {dx} = g (x) $ <así que "multiplica ambos lados por dx" y obtienes $ ydy = g (x) dx $, por lo que solo necesitas - esa parte es realmente confusa - "integrar", como en "formalmente poner el signo integral" en ambos lados. Y muchos estudiantes que hacen esto generalmente no piensan en $ dx $ o $ dy $ como un diferencial. Lo hacen automáticamente, sin pensar en lo que son $ dx $ y $ dy $.
"... así como $ dx $ no es un producto". Puede obtener $ dx $ aplicando el operador $ d $ en la forma diferencial $ x $ y, como tal, $ dx $ es una operación de grupo, por lo que creo que tiene derecho a llamarlo producto.
dy / dx es una relación. Es una relación de diferenciales. Un diferencial es una función de vectores, no una función de puntos.
No creo que la confusión provenga de la línea entre dy y dx.

d yd xdefinitivamente no es una razón, es el límite (si existe) de una razón. Esta es la notación de Leibniz de la derivada (c. 1670) que prevaleció a la de Newton ˙ y ( x ).

Aún así, la mayoría de los ingenieros e incluso muchos matemáticos aplicados lo tratan como una proporción. Un caso muy común es al resolver EDO separables, es decir, ecuaciones de la forma d yd x =f(x)g(y),

escribiendo lo anterior como f ( x )d x = d yg ( y ) ,
y luego integrando.

Aparentemente esto no es Matemática, es un cálculo simbólico.

¿Por qué se nos permite integrar el lado izquierdo con respecto axy el lado derecho con respecto ay? ¿Cuál es el significado de eso?

Este procedimiento a menudo conduce a la solución correcta, pero no siempre. Por ejemplo, aplicando este método al IVP d yd x =y+1,y ( 0 ) = - 1 ,( )

obtenemos, por alguna constante c, en( y + 1 ) = d yy + 1 =dx=x+c,
equivalentemente y ( x ) = e x + c - 1.
Tenga en cuenta que es imposible incorporar la condición inicial y ( 0 ) = - 1, como e x + cnunca desaparece. Por cierto, la solución de ( )es y ( x ) - 1.

Peor aún, consideremos el caso del IVP y ' = 3 y 1 / 32 ,y ( 0 ) = 0.

Este IVP no goza de unicidad. Posee infinitas soluciones. Sin embargo, el uso de este cálculo simbólico, obtenemos que y 2 / 3 = x, que es una de las infinitas soluciones de ( ). Otro es y 0.

En mi opinión, el cálculo debe enseñarse rigurosamente, con δ'sy ε's. Una vez que se entienden bien, entonces uno puede usar dicho cálculo simbólico, siempre que esté convencido bajo qué restricciones está realmente permitido.

No estaría de acuerdo con esto hasta cierto punto con su ejemplo, ya que muchos escribirían la solución como $ y (x) = e ^ {x + c} \ rightarrow y (x) = e ^ Ce ^ x \ rightarrow y (x) = Ce ^ x $ para el $ C $ 'apropiado'. Entonces tenemos $ y (0) = Ce-1 = -1 $, lo que implica que $ C = 0 $ evitando el problema que es cuántos estudiantes de introducción a DE responderían la pregunta para que el problema nunca se note. Pero sí, $ \ frac {dy} {dx} $ ciertamente no es una razón.
Su ejemplo funciona si $ dy / dx $ se maneja ingenuamente como un cociente. Dado $ dy / dx = y + 1 $, podemos deducir $ dx = dy / (y + 1) $, pero como incluso los estudiantes universitarios saben, no se puede dividir por cero, por lo que esto es cierto solo mientras $ y +1 \ ne 0 $. Por lo tanto, concluimos correctamente que $ (\ star) $ no tiene una solución tal que $ y + 1 \ ne 0 $. Resolviendo para $ y + 1 = 0 $, tenemos $ dy / dx = 0 $, entonces $ y = \ int 0 dx = 0 + C $, y $ y (0) = - 1 $ restricciones $ C = -1 PS
Ya que menciona a Leibniz, puede ser útil aclarar que Leibniz sí vio $ \ frac {dy} {dx} $ como una proporción, en aras de la precisión histórica.
+1 para el interesante ejemplo de IVP, nunca he notado esa sutileza.
Obtuviste la respuesta incorrecta porque dividiste entre cero, no porque haya algo de malo en tratar la derivada como una razón.
¿Y qué hay exactamente de malo en el nuevo ejemplo "aún peor"?

En la mayoría de las formulaciones, d xd yno se puede interpretar como una razón, ya que d xy d yno existen realmente en ellos. En este libro se muestra una excepción a esto . Cómo funciona, como dijo Arturo, es que permitimos infinitesimales (usando el sistema numérico hiperreal). Está bien formulado y lo prefiero para limitar las nociones, ya que así se inventó. Es solo que no pudieron formularlo correctamente en ese entonces. Daré un ejemplo ligeramente simplificado. Digamos que está diferenciando y = x 2. Ahora vamos a d xser infinitesimales misceláneos (es lo mismo sin importar cuál elijas si tu función es diferenciable en ese punto). d y = ( x + d x ) 2 - x 2

d y = 2 x × d x + d x 2
Ahora, cuando tomamos la razón, es: d yd x =2x+dx

(Nota: en realidad, Δ yΔ xes lo que encontramos al principio, y d yse define de modo que d yd xes Δ yΔ x redondeado al número real más cercano.)

Entonces, su ejemplo aún está incompleto. Para completarlo, debe tomar el límite de d x 0 , o tomar parte estándar de la RHS si trata d x como infinitesimal en lugar de como ε .
@Ruslan d x es un valor, no una variable ficticia en un límite.

d yd x no es una proporción, es un símbolo que se utiliza para representar un límite.

Esta es una posible vista sobre d yd x , relacionado con el hecho de que el sistema numérico común no contiene infinitesimales, lo que hace imposible justificar este símbolo como una razón en ese marco en particular. Sin embargo, Leibniz ciertamente quiso que fuera una proporción. Además, se puede justificar como una proporción en las teorías infinitesimales modernas, como se menciona en algunas de las otras respuestas.

Comprendo que esto es una entrada antigua, pero creo que vale la pena, mientras que señalar que en el llamado Quantum Cálculo D yd x yo suna proporción. El sujeto s t a r t s Desconecte inmediatamente diciendo que esto es una razón, definiendo diferenciales y luego llamando a las derivadas una razón de diferenciales:

El q -diferencial se define como

d q f ( x ) = f ( q x ) - f ( x )

y el h -diferencial como d h f ( x ) = f ( x + h ) - f ( x )

De ello se deduce que d q x = ( q - 1 ) xy d h x = h.

A partir de aquí, pasamos a definir la q -derivada y h -derivado, respectivamente:

D q f ( x ) = d q f ( x )d q x =f(qx)-f(x)( q - 1 ) x

D h f ( x ) = d h f ( x )d q x =f(x+h)-f(x)h

Darse cuenta de

lim q 1 D q f(x)= lim h 0 D h f(x)= d f ( x )xuna razón

Solo quiero señalar que @Yiorgos S. Smyrlis ya indicó que dy / dx no es una proporción, sino un límite de una proporción (si existe). Solo incluí mi respuesta porque este tema parece interesante (no creo que muchos hayan oído hablar de él) y en este tema trabajamos en los confines de ser una proporción ... pero ciertamente el límite no es realmente una proporción.
Empiezas diciendo que es una razón y luego terminas diciendo que no es una razón. Es interesante que pueda definirlo como un límite de proporciones de dos formas diferentes, pero aún así solo lo ha dado como un límite de proporciones, no como una proporción directamente.
Supongo que quiere decir que la derivada q y la derivada h son proporciones; que la derivada habitual puede recuperarse ya que los límites de estos son secundarios a su punto.
Sí, ese es precisamente mi punto.

Para preguntar "Is d yd xuna proporción o no? "es como preguntar" ¿Es 2¿Un número o no? "La respuesta depende de lo que quieras decir con" número ". 2no es un número entero o racional, por lo que si eso es lo que quiere decir con "número", la respuesta es "No, 2 no es un número ".

Sin embargo, los números reales son una extensión de los números racionales que incluyen números irracionales como 2, y así, en este conjunto de números, 2 es un número.

De la misma forma, un diferencial como d xno es un número real, pero es posible extender los números reales para incluir infinitesimales y, si lo hace, entonces d yd x es verdaderamente una proporción.

Cuando un profesor te dice que d xpor sí mismo no tiene sentido, o que d yd xno es una razón, son correctos, en términos de sistemas numéricos "normales" como los sistemas Real o Complejo, que son los sistemas numéricos que se usan típicamente en ciencia, ingeniería e incluso matemáticas. Los infinitesimales se pueden colocar sobre una base rigurosa, pero a veces a costa de renunciar a algunas propiedades importantes de los números en los que confiamos para la ciencia cotidiana.

Consulte https://en.wikipedia.org/wiki/Infinitesimal#Number_systems_that_include_infinitesimals para una discusión de los sistemas numéricos que incluyen infinitesimales.

Todo lo que se pueda decir en matemáticas se puede decir al menos de 3 formas diferentes ... todo lo relacionado con la derivación / derivadas depende del significado que se le atribuya a la palabra: TANGENTE. Se acuerda que la derivada es la "función de gradiente" para las tangentes (en un punto); y espacialmente (geométricamente) el gradiente de una tangente es la "relación" ("fracción" sería mejor) de la distancia y a la distancia x. Oscuridades similares se producen cuando "espacial y algebraico" se confunden en notación ... ¡algunas personas toman la palabra "vector" en el sentido de una pista!

Según John Robinson (hace 2 días) vectores ... elementos (puntos) de espacios vectoriales son diferentes de puntos

Suponiendo que está satisfecho con d y / d x, cuando se convierte en ... d yy ... d xsignifica que se sigue que lo que precede a d yen términos de yes igual a lo que precede d xen términos de x.

"en términos de" = "con referencia a".

Es decir, si " a d yd x =b", se sigue que" uncon referencia ay= bcon referencia ax". Si la ecuación tiene todos los términos con ya la izquierda y todo con x a la derecha, entonces tienes un buen lugar para continuar.

La frase "sigue eso" significa que realmente no se ha movido d xcomo en álgebra. Ahora tiene un significado diferente que también es cierto.

Aquí hay muchas respuestas, pero parece que falta la más simple. Asi que aqui esta:

Sí, es una proporción, exactamente por la razón que dijo en su pregunta.

Algunas otras personas ya han dado más o menos esta respuesta, pero luego entran en más detalles sobre cómo encaja en espacios tangentes en dimensiones más altas y todo eso. Todo esto es muy interesante, por supuesto, pero puede dar la impresión de que el desarrollo de la derivada como una proporción que aparece en la pregunta original no es suficiente por sí solo. Pero es suficiente.
El análisis no estándar, si bien proporciona una perspectiva interesante y está más cerca de lo que pensaba el propio Leibniz, tampoco es necesario para ello. La definición de diferencial que se cita en la pregunta no es infinitesimal, pero aún convierte la derivada en una razón de diferenciales.

Voy a unirse a @Jesse Madnick aquí, y tratar de interpretar D yd xcomo una proporción. La idea es: interpretemos d xy d ycomo funciones en T R 2, como si fueran formas diferenciales. Para cada vector tangente v, establezca d x ( v ) : = v ( x ). Si identificamos T R 2con R 4, obtenemos que ( x , y , d x , d y )es solo el sistema de coordenadas canónico para R 4. Si excluimos los puntos donde d x = 0, luego d yd x =2xes una ecuación perfectamente sana, sus soluciones forman un subconjunto de R 4.

Veamos si tiene algún sentido. Si arreglamos xy y, las soluciones forman una línea recta a través del origen del espacio tangente en ( x , y ), su pendiente es 2 x. Entonces, el conjunto de todas las soluciones es una distribución, y las variedades integrales resultan ser las parábolas y = x 2 + c. Exactamente las soluciones de la ecuación diferencial que escribiríamos como d yd x =2x. Por supuesto, podemos escribirlo como d y = 2 x d xasí como. Creo que esto es al menos un poco interesante. ¿Alguna idea?

La derivada d yd xno es una razón, sino más bien una representación de una razón dentro de un límite .

Del mismo modo, d xes una representación de Δ x dentro de un límite con la interacción . Esta interacción puede ser en forma de multiplicación, división, etc. con otras cosas dentro del mismo límite.

Esta interacción dentro del límite es lo que marca la diferencia. Verá, un límite de una razón no es necesariamente la razón de los límites, y ese es un ejemplo de por qué se considera que la interacción está dentro del límite . Este límite está oculto o dejado de lado en la notación abreviada que inventó Liebniz.

El simple hecho es que la mayor parte del cálculo es una representación abreviada de otra cosa . Esta notación abreviada nos permite calcular las cosas más rápidamente y se ve mejor de lo que realmente representa. El problema surge cuando la gente espera que esta notación actúe como matemáticas reales , lo que no puede porque es solo una representación de las matemáticas reales.

Entonces, para ver las propiedades subyacentes del cálculo , siempre tenemos que convertirlo a la forma matemática real y luego analizarlo desde allí. Luego, mediante la memorización de propiedades básicas y combinaciones de estas diferentes propiedades, podemos derivar aún más propiedades.

d y / d xes posiblemente la pieza de notación más versátil en matemáticas. Puede interpretarse como

  1. Abreviatura del límite de un cociente: d yd x =limΔx0ΔyΔ x.
  2. El resultado de aplicar el operador derivado, d / d x, en una expresión dada y.
  3. La razón de dos infinitesimales d yy d x(con esta interpretación hecha rigurosa utilizando análisis no estándar ).
  4. La razón de dos diferenciales d yy d x actuando a lo largo de la línea tangente a una curva dada.

Todas estas interpretaciones son igualmente válidas y útiles a su manera. En las interpretaciones (1) y (2), que son las más comunes, d y / d xno se ve como una proporción, a pesar de que a menudo se comporta como una. Las interpretaciones (3) y (4) ofrecen alternativas viables. Dado que Mikhail Katz ya ha dado una buena exposición de infinitesimales, permítanme enfocar el resto de esta respuesta en la interpretación (4).

Dada una curva y = f ( x ), la ecuación de la recta tangente al punto ( a , f ( a ) )está dado por g ( x ) = f ( a ) ( x - a ) + f ( a ).

Esta recta tangente nos proporciona una aproximación lineal de una función alrededor de un punto dado. Para pequeñas h, el valor de f ( a + h )es aproximadamente igual ag ( a + h ). Por lo tanto, f ( a + h ) f ( a ) + f ( a ) h
La fórmula de aproximación lineal tiene un significado geométrico muy claro, donde imagina permanecer en la línea tangente en lugar de la curva en sí:

Permanecer en la línea tangente

Entonces podemos definir d x = hy d y = g ( a + h ) - g ( a ):

Diferenciales

Dado que la recta tangente tiene un gradiente constante, tenemos d yd x =g(a+h)-g(a)h =g(a)=f(a),

siempre que d xno es cero. Aquí, d yy d xson cantidades genuinas que actúan a lo largo de la línea tangente a la curva y pueden manipularse como números porque son números.

Esta noción de d y / d xse vuelve muy útil cuando te das cuenta de que, en un sentido muy significativo, la recta tangente es la mejor aproximación lineal de una función alrededor de un punto dado. Podemos convertir la fórmula de aproximación lineal en una igualdad exacta dejando r ( h )ser el término restante: f ( a + h ) = g ( a + h ) + r ( h ) = f ( a ) + f ( a ) h + r ( h ).

Como h 0, r ( h ) 0. De hecho, el término restante satisface una condición más fuerte: lím h 0 r ( h )h =0.
El hecho de que el límite anterior sea igual a 0demuestra cuán buena es la línea tangente para aproximar el comportamiento local de una función. No es tan impresionante que cuando hes pequeño, r ( h )también es muy pequeño (cualquier buena aproximación debería tener esta propiedad). Lo que hace que la recta tangente sea única es que cuando hes pequeño, r ( h )es órdenes de magnitud más pequeñas, lo que significa que el "error relativo" es pequeño. Este error relativo se muestra en la siguiente animación, donde la longitud de la línea verde es h, mientras que la longitud de la línea azul es r ( h ):

Término restante

Visto bajo esta luz, la declaración d yd x =f(a)

es una expresión de igualdad entre el cociente de dos números d yy d x, y la derivada f ( a ). Tiene mucho sentido multiplicar ambos lados por d x, para obtener d y = f ( a ) d x,
Tenga en cuenta que d y + r ( h ) = f ( a + h ) - f ( a ), y entonces f ( a + h ) - f ( a ) - r ( h )= f ( a ) h f ( a + h )= f ( a ) + f ( a ) h + r ( h ),
lo que nos da otra noción de derivada, a través del objetivo de la aproximación lineal.

La mejor forma de entender d es la de ser operador, con una simple regla

d f ( x ) = f ( x ) d x

Si toma esta definición, entonces d y / d xes de hecho una relación, ya que se está quitando f ( x ) d xde d x

d yd x =ydxd x =y

Esto se hace de la misma manera como 12 / 3está pelando 12 = 4 3de 3

En cierto contexto , d yd x es una razón.

d yd x =s medio:

Cálculo estándar

ϵ δ d x  

Si 0 < | d x | δ

Si ( x , y ) = ( x 0 , y 0 ), pero ( x , y )también podría haber sido ( x 0 + d x , y 0 + Δ y )

Si d y = s d x

Entonces | Δ yd x -dyd x | ϵ

Cálculo no estándar

d xdonde d x es un infinitesimal distinto de cero

ϵdonde ϵ es infinitesimal

Si ( x , y ) = ( x 0 , y 0 ), pero ( x , y )también podría haber sido ( x 0 + d x , y 0 + Δ y )

Si d y = s d x

Entonces Δ yd x -dyd x =ϵ


En cualquier caso, d xobtiene su significado de la restricción que se le impone (que se describe mediante cuantificadores), y d yobtiene su significado del valor de sy la restricción puesta en d x.

Por lo tanto, tiene sentido hacer una afirmación sobre d yd xcomo una razón si el enunciado se cuantifica adecuadamente y d x está debidamente restringido.

Menos formalmente, d xse entiende como "la cantidad por la cual xes empujado ", d xse entiende como "la cantidad por la cual yse empuja en la línea tangente ", y Δ yse entiende como "la cantidad por la cual y es empujado en la curva ". Esta es una forma perfectamente sensata de hablar sobre una intuición aproximada.

Por supuesto , es una fracción en la definición apropiada.

Permítanme agregar mi vista de la respuesta, que es un texto actualizado de alguna otra pregunta.

En consecuencia, por ejemplo, Murray H. Protter, Charles B. Jr. Morrey - Intermediate Calculus- (2012) página 231 diferencial para la función f : RRse define como función de dos variables seleccionadas de manera especial por la fórmula: d f ( x ) ( h ) = f ( x ) h

por lo que es una función lineal con respecto a haproximando fen el punto x. También se puede llamar 1-forma.

Esta es una definición completamente rigurosa, que no requiere nada, luego definición / existencia de derivada. Pero aquí hay más: si definimos diferencial como existencia de aproximación lineal en el punto x = x 0para lo cual se cumple f ( x ) - f ( x 0 ) = A ( x - x 0 ) + o ( x - x 0 ) , x x 0

entonces de esto obtenemos, que ftienen derivada en el punto x = x 0y A = f ( x 0 ). Por tanto, la existencia de derivada y la existencia de diferencial son requisitos de equivalencia. Rudin W. - Principios de análisis matemático- (1976) página 213.

Si usamos esta definición para la función de identidad g ( x ) = x, entonces obtenemos d g ( x ) ( h ) = d x ( h ) = g ( x ) h = h

Esto da la posibilidad de comprender el registro d yd x =dfd xexactamente como la fracción habitual de diferenciales y mantiene la igualdad d f ( x )d x =f(x). El registro exacto es d f ( x ) ( h )d x ( h ) =f(x)hh =f(x).

Permítanme señalar que estamos hablando de un enfoque de variable única, no multivariable.

No puedo explicar por qué alguien afirma que d yd xno se puede entender como fracción - ¿puede ser falta de conocimiento sobre la definición diferencial? En cualquier caso, traigo, además de la fuente anterior, una lista de libros donde hay una definición de diferencial que da la posibilidad de comprender la fracción en cuestión:

  1. James R. Munkres - Análisis de variedades- (1997) 252-253 p.
  2. Vladimir A. Zorich - Análisis matemático I- (2016) 176 p.
  3. Loring W. Tu (auth.) - Una introducción a los múltiples- (2011) 34 p.
  4. Herbert Amann, Joachim Escher - Análisis II (v. 2) - (2008) 38 p.
  5. Robert Creighton Buck, Ellen F. Buck - Cálculo avanzado- (1978) 343 p.
  6. Rudin W. - Principios del análisis matemático- (1976) 213 p.
  7. Fichtenholz Gr. M - Curso de Cálculo Diferencial e Integral vol. 1 2003 240-241 pág.
  8. Richard Courant - Cálculo diferencial e integral, vol. I, 2da edición -Interscience Publishers (1937), página 107
  9. John MH Olmsted - Cálculo avanzado-Prentice Hall (1961), página 90.
  10. David Guichard - Cálculo simple y multivariable_ Early Trascendentals (2017), página 144
  11. Stewart, James - Aprendizaje de cálculo-cengage (2016), página 190
  12. Diferencial en cálculo

En aras de la justicia, menciono a Michael Spivak - Calculus (2008) 155 p. donde el autor está en contra de la comprensión de las fracciones, pero el argumento es del tipo "no lo es, porque no puede ser". Spivak uno de mis autores más respetados y favoritos, pero " Amicus Plato, sed magis amica veritas ".

Si doy mi respuesta desde un ojo de físico, entonces puede pensar en seguir-

Para una partícula que se mueve a lo largo de x-eje con velocidad variable, definimos la velocidad instantánea vde un objeto como la tasa de cambio de la coordenada x de la partícula en ese instante y dado que definimos "tasa de cambio", por lo tanto, debe ser igual al cambio total dividido por el tiempo necesario para producir ese cambio. ya que tenemos que calcular la velocidad instantánea. asumimos que instant significa "un intervalo de tiempo infinitesimalmente corto durante el cual se puede suponer que la partícula se mueve con velocidad constante y denotamos este intervalo de tiempo infinitesimal por d t. Ahora la partícula no puede recorrer más de una distancia infinitesimal d xen un tiempo infinitesimalmente pequeño. por lo tanto, definimos la velocidad instantánea como

v = d xd t es decir, como razón de dos cambios infinitesimales.

Esto también nos ayuda a obtener las unidades correctas de velocidad, ya que para el cambio de posición será my por cambio en el tiempo será s.

Al definir la presión en un punto, la aceleración, el momento, la corriente eléctrica a través de una sección transversal, etc., asumimos una relación de dos cantidades infinitesimales.

Entonces, creo que, para fines prácticos, puede asumir que es una proporción, pero lo que realmente es se ha aclarado bien en otras respuestas.

También por mi conocimiento de las matemáticas, cuando aprendí a diferenciar una función que también proporciona la pendiente de la tangente, me dijeron que Leibniz asumió que la curva suave de alguna función estaba formada por un número infinito de líneas infinitesimalmente pequeñas unidas, extendiendo cualquiera de ellas da tangente a la curva y la pendiente de esa línea infinitesimalmente pequeña = d yd x = pendiente de la tangente que obtenemos al extender esa recta.

Incluso yo aprendí que necesitaríamos una lupa de "zoom infinito en potencia" para ver esas líneas que pueden no ser posibles en la realidad.