Il teorema dell'unicita' del limite dice che il limite, quando esiste, e' unico, cioe' una funzione non puo' assumere al limite due valori diversi.(in pratica significa che stringendo l'intervallo l'intervallo stesso non si suddivide ma resta tutto unito anche quando diventa piccolissimo; cosa d'altra parte necessaria se vogliamo sostituire il concetto di intervallo al concetto di punto) Per dimostrarlo basta ragionare per assurdo: supponiamo che non sia vero il risultato e mostriamo che non e' vero il teorema. se non fosse vero che abbiamo un solo valore ne avremmo due diversi, ma allora questi due valori sarebbero due punti ad una certa distanza, allora se prendiamo epsilon minore di quella distanza l'intervallo non potra' contenere entrambe i limiti e quindi non vale il concetto di limite. In termini matematici sembra un po' piu' complicato, ma e' la stessa cosa Supponiamo esistano due limiti e dimostriamo che in tal caso non puo' esistere nessun limite. I due limiti siano limx->x0 f(x)=l1 limx->x0 f(x)=l2 con l1<l2 Essendo i due limiti diversi la loro differenza in modulo sara' la distanza distanza=|l1-l2 | ora pongo ![]() cioe' scelgo ![]() Ora e' impossibile avere contemporaneamente |f(x)-l 1 |< ![]() |f(x)-l 2 |< ![]() Perche' l'intervallo ![]() ![]() |
![]() |
![]() |
![]() |
![]() |