Tratando de entender la diferencia entre ΔtΔt\Delta t y dtdtdt [duplicado]

Estoy tratando de obtener una comprensión más conceptual de los derivados y agradecería sus comentarios al respecto.

Digamos que tengo una cantidad, X , en el momento t . Ahora X se muda a una ubicación diferente X a tiempo t = t + Δ t .

Donde me confundo es cuando empezamos a hablar de encoger Δ t hasta cero. Sigo viendo que la gente dice que representa una cantidad infinitesimal, lo que me confunde aún más. Del mismo modo, la gente dirá que "simplemente" representa una cantidad muy pequeña.

Entiendo tanto, pero donde me pierdo es en lo pequeño que es. Δ t tiene que ser antes de que empecemos a tratarlo como d t y no Δ t ?

En otras palabras, ¿es correcto simplemente sustituir números en una cantidad como d t ? ¿Podría decir que en un cierto instante en el tiempo, d t = 4 segundos?

He visto esto hecho antes en algunos libros y bueno, francamente me irrita porque estoy viendo el d operador utilizado en muchos contextos diferentes. Algunos dicen que puedes sustituir números por algo como d t y otros dicen que no.

Bajo un aumento suficiente, las curvas aparecen como líneas rectas. Puedes empezar a tratar Δ t como d t cuando todo a su alrededor se vuelve lineal. En otras palabras, cuando ( Δ t ) 2 se vuelve lo suficientemente pequeño como para ser despreciado en comparación con Δ t .

Respuestas (1)

Δ t se usa al tomar el límite para llegar a la derivada (o la integral).

Por ejemplo:

d F ( X ) d t = yo i metro ( F ( X + Δ t ) F ( X ) ) Δ t como Δ t tiende a cero

entonces d t se usa después de que se ha tomado el límite, mientras que Δ t se utiliza antes o durante el proceso de limitación. Así que realmente no es una cuestión de qué tan pequeño Δ t tiene que ser antes de que se convierta d t siempre que se pueda encontrar un límite cuando se acerque a cero. Entonces el sugerente símbolo d F ( X ) d t se puede utilizar para ese límite. En ese sentido, el numerador y el denominador no son cantidades .

Δ t a veces se usa en otros contextos donde es solo un pequeño incremento de algo: el usuario define la pequeñez requerida. Por ejemplo en la cuantización digital.

Creo que el término 'infinitesimal' es considerado algo controvertido por los matemáticos donde el énfasis está en el proceso de limitación sin entrar en lo que es un infinitesimal. Se han inventado el análisis no estándar (Abraham Robinson) y el análisis infinitesimal suave (JL Bell) para tratar con ellos.