Encontrar el límite a partir del ejemplo de su definición épsilon-delta

Digamos que tenemos una función F definido en un intervalo centrado a R , y X R .

si sabemos que

| X a | < d | F ( X ) L | < ε
dónde L R y d , ε > 0 son solo dos números aleatorios (no una definición completa).

Creo que no podemos deducir razonablemente que

límite X a F ( X ) = L
porque la definición de límite dice que para cada épsilon existe un delta, donde aquí solo estamos tomando el caso de épsilon mayor o igual que el valor de épsilon que elegimos.

Pero, ¿qué podemos decir acerca de L con respecto al real límite X a F ( X ) ?

EDITAR : Olvidé agregar que sabemos que límite X a F ( X ) existe

A primera vista, parece que el límite real podría ser cualquier cosa dentro del rango [ L ε , L + ε ] , pero matemáticamente no puedo concluir eso.

Respuestas (2)

El límite no tiene por qué existir en absoluto. Por ejemplo

F ( X ) = { pecado 1 X , X 0 0 , X = 0
Entonces escoge L = 0 , a = 0 , ε = 1.1 y d = 1 .

Editar : si existe el límite, tenemos | límite X a F ( X ) L | ε . Déjame enseñarte como. Elige una secuencia X norte tal que X norte a . Entonces encontramos un norte 0 tal que para todos norte norte 0 tenemos | X norte a | < d . Por lo tanto estos X norte satisfacer | F ( X norte ) L | < ε . Desde | | es continua el resultado sigue.

Oh lo siento. Olvidé agregar que sabemos que el límite realmente existe. No estoy seguro de cómo pude olvidar mencionar un detalle tan importante.
Edité mi respuesta en consecuencia.

Esta es una simple consecuencia de las leyes límite con respecto a las desigualdades. Su condición dada implica que

L ϵ < F ( X ) < L + ϵ
en un barrio de a . Tomar el límite simplemente debilita las desigualdades (debe construir un ejemplo que muestre que la desigualdad estricta no se puede garantizar después de tomar el límite) y obtiene
L ϵ límite X a F ( X ) L + ϵ
de modo que
| límite X a F ( X ) L | ϵ