johnmath ha scritto:
> L'argomento è:
> sistemi ingresso-uscita lineari e invarianti rispetto al tempo.
> ...
> (*) Infine si dimostrava in modo piuttosto intuitivo che per
> una generica funzione in ingresso, la risposta in uscita dal
> sistema può essere calcolata con l'integrale di convoluzione
> della funzione di ingresso con la risposta impulsiva del sistema.
Come sempre, arrivo tardi.
Sarà perché sono vecchio, o perché penso di più, oentrambe le cose.
Infatti è da ieri che penso a come impostare la risposta...
Spero di essere utile ugualmente, ma in caso contrario basta buttar via
il mio post :-)
Come al solito, hai dimenticato di dirci che cosa studi, ma nel tuo
caso è pressoché ovvio.
Ingegneria, e suppongo teoria dei segnali, o qualcosa del genere.
Proverò a proporre un approccio autonomo, cambiando anche notazioni,
perché mi sembra di guadagnare in chiarezza.
Cominciamo dalla definizione di sistema lineare.
Il sistema ha un ingresso funzione del tempo, che indico con E(t).
(preferisco usare le maiuscole per le funzioni, lascindo le minuscole
per variabili e costanti).
Ha anche un'uscita U(t), che ovviamente dipende dall'ingresso.
Quand'è che la dipendenza si chiama lineare?
I requisiti sono i seguenti:
1) se con ingresso E1(t) l'uscita è U1(t), e con ingresso E2(t)
l'uscita è U2(t), allora con ingresso E1+E2 l'uscita è U1+U2
2) se con ingresso E(t) l'uscita è U(t), e se k è una qualsiasi
costante reale, allora l'ingresso k*E(t) produce uscita k*U(t).
Abbiamo un teorema (che enuncio tralasciando le precise ipotesi
matematiche):
*******************************
Per qualunque sistema lineare la relazione ingresso-uscita si può
porre nella forma
U(t) = int K(t,t')*E(t') dt'
dove l'integrale va da -inf a + inf.
*******************************
La funzione K(t,t') si chiama in vari modi: hai già sentito "funzione
di Green", ma anche "funzione di trasferimento", e ce ne sono altri a
seconda del campo.
(Sai di certo che la teoria dei sistemi lineari ha applicazioni
vastissime, nell'ingegneria e nella fisica.)
Provo a dare una dimostrazione del teorema, che non merita a rigore
il nome di dim., ma può dare l'idea di che cosa ci sta sotto.
Supponiamo di discretizzare il sistema. Questo significa che
campioniamo i segnali a certi tempi t_k, intervallati da un certo h.
Allora l'ingresso sarà dato da un insieme di numeri:
a_k = E(t_k)
e l'uscita da un'altra successione
b_k = U(t_k).
Per ipotesi, i b_k dipendono linearmente dagli a_k, e la forma più
generale di questa dipendenza è
b_k = sum_m c_{k,m}*a_m
che è il prodotto della matrice (infinita) c_{k,m} per il vettore a_m.
Cambiamo notazione:
U(t_k) = sum_m K(t_k,t_m)*E(t_m) (1)
dove K è una funzione di due variabili che ai valori t_k,t_m delle var.
indipendenti vale c_{k,m}.
"Passando al limite" (ecco il punto poco pulito ...) per h-->0 la (1)
si scrive
U(t) = int K(t,t')*E(t') dt
cvd.
Passiamo ora al caso particolre dei sistemi invarianti per traslazioni
temporali (l'espressione "tempo-invariante" non mi piace, come tutte
la traduzioni maccheroniche dall'inglese). Per brevità scriverò ITT.
la definizione è questa:
Dico che un sistema è ITT se, essendo U(t) l'uscita per un ingresso
E(t), accade che per ogni a reale l'ingresso E(t-a) produce l'uscita
U(t-a).
Vogliamo ora caratterizzare la f. di trasferimento K di un sistema
ITT.
Teorema:
******************************
Per un sistema ITT, K(t,t') dipende solo da t-t':
K(t,t') = K(t-t')
*******************************
Dimostrazione.
Per ipotesi
U(t-a) = int K(t,t')*E(t'-a) dt'.
Poniamo s = t-a, s' = t'-a:
U(s) = int K(s+a,s'+a)*E(s') ds'.
ossia, cambiando soltanto i nomi:
U(t) = int K(t+a,t'+a)*E(t') dt'.
Questo può accadere solo se K(t+a,t'+a) = K(t,t') per ogni a.
Scegliamo a = -t':
K(t-t',0) = K(t,t')
che dimostra la tesi, in quanto a primo membro è rimasto un solo
argomento t-t' (l'altro è fisso a 0).
Dunque per un sistema ITT (ipotesi che darò sottintesa d'ora in poi)
U(t) = int K(t-t')*E(t') dt'. (2)
E ora la risposta impulsiva.
La definizione della Delta di Dirac che hai trovata fa piuttosto
schifo, anche se è la stessa che venne insegnata a me. Lo stsso Dirac,
nel suo classico testo "The Principles of Quantum Mechanics" dà quella
definizione, risparmiandosi solo l'abominio Delta(0) = infinito :-)
Anche se sono più che sicuro che lui conoscesse il modo coretto di
definirla (come distribuzione) preferì farne grazia ai suoi lettori
del tempo.
Ma sono passati tanti anni, e oggi ci si potrebbe attendere che anche
agli studenti d'ingegneria, che del resto studiano parecchia
matematica complicata, si dicessero cose un po' più pulite.
Ma non temere: non lo farò qui.
Mi limito a dare un definizione alternativa, anch'essa scarretta, ma
che potrebbe essere resa pulita senza troppo sforzo.
(Nel seguito abbrevierò Delta con D.)
Considera le funzione "rettangolo". Anche questa viene indicata in vari
modi: per es. rect(a,b,t) per intendere la funzione che vale 1 se t
sta ell'intervallo [a,b] e vale 0 altrimenti.
Posso allora definire D(t) come "limite":
D(t) = lim eps-->0 (1/eps)*rect(-eps,eps,t).
Nota: al posto della funzione rettangolo se ne ossono usare diverse altre.
E' comune trovare una sinc (se hai studiato trasf. di Fourier la
conosci di certo) oppure una gaussiana.
Fine nota.
Se allora F(t) è una qualunque funzione (diciamo continua) si ha
int F(t)*D(t) dt =
lim eps-->0 (1/eps) int(-eps,eps) F(t) dt = F(0).
E ovviamente
int F(tau)*D(t-tau) dtau =
lim eps-->0 (1/eps) int(t-eps,t+eps) F(tau) dtau = F(t).
Supponiamo ora che sia E(t) = D(t) (ingresso impulsivo).
Allora, per la (2)
U(t) = int K(t-t')*D(t') dt' = K(t)
cioè la risposta impuliva coincide con la f. di trasferimento.
E questo dimostra ciò che desideravi.
--
Elio Fabri