Mi sono imbattuto in una struttura algebrica strana. O forse mi sono
imbattuto solamente in un'altra delle mie voragini di ignoranza in fatto di
cultura matematica.
GLI ANTEFATTI
In ogni caso, la questione e' questa: mentre giocherellavo oziosamente con
gli intervalli di Excel, mi e' venuto in mente che in fondo questi
intervalli-3D altro non sarebbero che matrici, se le matrici avessero tre
dimensioni.
Non e' difficile pensare a matrici con 3,4,N dimensioni, tanto e' vero che i
linguaggi di programmazione gia' le prevedono (come gli Array del Pascal).
Ma non mi e' mai capitato di incontrare un libro che si preoccupi di
costruire un' algebra con queste matrici tridimensionali, cioe' che
definisca una loro somma ed un prodotto e che studi cosa ne vien fuori.
I PRIMI GUAI
ho pensato che potevo mettermi li' a inventare qualche definizione e tirar
fuori qualche teorema (tanto alla televisione non fanno mai niente di
decente...). Per la somma e' facile: basta definire la somma di due
matrici3D elemento per elemento. Per il prodotto mi viene spontaneo
immaginare di coinvolgere TRE matrici3D, infatti (volendo seguire l'ordine
di idee adottato nel prodotto di due matrici normali) mi sembra naturale
andare a prendere una riga da una prima matrice3D, una colonna da una
seconda matrice3D, ma anche una "fila" da una terza matrice3D.
(N.B. non sapendo che nome dargli, ho chiamato "fila" una riga di valori
disposti secondo la direzione della profondita' della matrice, per esempio
in una matrice 3x3x3 la prima fila sarebbe formata dagli elementi a(1,1,1),
a(1,1,2) e a(1,1,3) ).
insomma la mia conclusione e' che una matrice3D che sia il "prodotto" di tre
matrici3D avrebbe nel suo posto (i,j,k) il prodotto degli elementi della
riga i (matrice 1), colonna j (matrice 2) e fila k (matrice 3) (e' una
spiegazione "alla buona" perche' ci vorrebbero tutti gli indici al posto
giusto).
Con matrici arbitrarie bisogna mettere un po' di condizioni sulle dimensioni
affinche' siano compatibili per il prodotto, mentre ovviamente se le matrici
sono cubiche (nxnxn) si puo' sempre moltiplicare, ed il risultato e' ancora
dello stesso tipo.
GUAI ANCORA PEGGIORI
fin qui magari ho annoiato tutti, e poi qualcuno puo' sempre tirar fuori un
prodotto di matrici cubiche che coinvolge solo due matrici anziche' tre come
nel mio caso.
Ma il mio vero cruccio e' che, considerando come esempio l'insieme delle
matrici cubiche, caso particolare di matrici multidimensionali, mi trovo fra
le mani una struttura algebrica in cui sono definite due operazioni: una
somma binaria ed un prodotto ternario.
Sul piano puramente algebrico, che razza di struttura e' mai questa? Fin
dalla mia infanzia (matematica) mi sono abituato a vivere in un mondo
comodo, popolato solo da pacifiche strutture con operazioni binarie: gruppi,
anelli, corpi, campi e cosi' via, e i miei dieci comandamenti (a volte di
piu', a volte di meno) sono sempre stati chiari: "verifica la legge
commutativa, verifica la legge associativa, cerca l'elemento neutro ecc.
ecc.". Lo sapevo che ci sono operazioni ternarie e oltre, ma e' una cosa di
cui i libri perbene non parlano, "non ragioniam di lor...".
Ecco allora i miei crucci: in una struttura con operazioni binarie e
ternarie come ci possiamo muovere? ha ancora senso cercare di definire leggi
commutative, associative, distributive, parlare di elementi neutri, inversi,
sottostrutture e cosi' via? e anche riuscendovi, come faccio a sapere se in
tale struttura queste leggi sono davvero le piu' importanti, quelle che
caratterizzano la struttura stessa? non ci saranno nuove leggi,
impronunciabili in un mondo di operazioni binarie, che invece qui diventano
leggi fondamentali?
E dopo, immaginando matrici a quattro, cinque, enne dimensioni, e quindi
prodotti di arieta' 4,5,...N, che leggi saltano fuori? che strutture? Non ci
saranno forse delle "leggi universali" che governano tutte queste
operazioni, indipendentemente dalla loro arieta'?
TORNIAMO A NOI
ovviamente adesso sono nei guai, dal momento che sono stato scacciato dal
paradiso delle operazioni binarie.
Ma sicuramente da qualche parte ci sono libri che hanno gia' sistemato tutte
queste questioni (mal che vada, lo dovrei trovare nella biblioteca di Babele
:-) ) ma io non li ho mai visti ne' sentiti nominare.
qualcuno ne sa qualcosa ?
inoltre, restando nel caso delle matrici cubiche, qualcuno vuol proporre
come ridefinire le varie leggi commutative ecc. nel caso del prodotto
ternario?
ciao
Roberto.
> Non e' difficile pensare a matrici con 3,4,N dimensioni, tanto e' vero che i
> linguaggi di programmazione gia' le prevedono (come gli Array del Pascal).
> Ma non mi e' mai capitato di incontrare un libro che si preoccupi di
> costruire un' algebra con queste matrici tridimensionali, cioe' che
> definisca una loro somma ed un prodotto e che studi cosa ne vien fuori.
>
Le matrici con piu' di due dimensioni vengono chiamate solitamente
tensori.Semplificando un po' le cose un tensore 3-dimensionale M di dimensioni
IxJxK e' determinato dalle sue componenti Mijk dove i=1,...,I ; j=1,...,J ,
k=1,...K.
Il prodotto tra tensori puo' essere fatto in vari modi. Se Nijk e' un altro
tensore puoi fare il prodotto tra M e N sommando su un indice a scelta, ad
esempio sul primo indice, ottenendo un tensore R di dimensione 4 (4 e' il
numero di indici su cui non sommi:
Rjklm = Somma_i Mijk * Nilm
Mijk Nilm
Oppure puoi sommare su 2 indici contemporanemente ottenendo una matrice
bidimensionale
Rkl= Somma_i,j Mijk NijlNon e' importante che i due tensori che vengono
moltiplicati tra loro abbiano lo stesso numero di dimensioni, l'importante e'
che gli indici su cui si sommano abbiano lo stesso numero di elemento in
entrambi i tensori. Ad esempio se M ha 3 dimensioni e N e' un vettore con una
sola dimensione, posso fare il prodotto sul primo indice di M ottenendo una
matrice R
Rjk= Somma_i Mijk * Ni
Comunque e' vero che puoi moltiplicare 3 o piu' tensori tra loro, facendo
successive moltiplicazioni tensoriali su vari indici. In questo esempio fai il
prodotto tra due tensori 3-dimensionali e un tensore bidimensionale (matrice)
sommando su 3 indici. Il risultato e' una matrice con 2 indici.
Rkm= Somma_i,j,l Mijk Nilm Ojl
> I PRIMI GUAI
> ho pensato che potevo mettermi li' a inventare qualche definizione e tirar
> fuori qualche teorema (tanto alla televisione non fanno mai niente di
> decente...). Per la somma e' facile: basta definire la somma di due
> matrici3D elemento per elemento. Per il prodotto mi viene spontaneo
> immaginare di coinvolgere TRE matrici3D, infatti (volendo seguire l'ordine
> di idee adottato nel prodotto di due matrici normali) mi sembra naturale
> andare a prendere una riga da una prima matrice3D, una colonna da una
> seconda matrice3D, ma anche una "fila" da una terza matrice3D.
>
Stai attento che le righe le colonne e le file di una matrice3D sono
individuate da due indici
> (N.B. non sapendo che nome dargli, ho chiamato "fila" una riga di valori
> disposti secondo la direzione della profondita' della matrice, per esempio
> in una matrice 3x3x3 la prima fila sarebbe formata dagli elementi a(1,1,1),
> a(1,1,2) e a(1,1,3) ).
questa fila ad esempio e' la fila 1,1
> insomma la mia conclusione e' che una matrice3D che sia il "prodotto" di tre
> matrici3D avrebbe nel suo posto (i,j,k) il prodotto degli elementi della
> riga i (matrice 1), colonna j (matrice 2) e fila k (matrice 3) (e' una
> spiegazione "alla buona" perche' ci vorrebbero tutti gli indici al posto
> giusto).
>
qui salta fuori il problema: non puoi individuare una riga con il solo indice
i, ne' la colonna con un solo indice j ne la fila con il solo indice k.
Bye.
?manu*
Ciao a te. Effettivamente il tuo discorso sulle matrici cubiche e di
dimensioni superiori sembra interessante.
Prima di tutto, per definire un prodotto tra matrici cubiche, a me
verrebbe piu` spontaneo definire un'operazione binaria che moltiplichi un
"piano" di una per una "fetta" della'altra: queste sono oneste matrici
quadrate (se siamo partiti dal caso nxnxn, o rettangolari di dimensioni
compatibili se abbiamo scelto bene le dimensioni), e le sappiamo
moltiplicare. Cercherei, cioe`, di generalizzare quello che si fa passando
dai vettori (che si moltiplicano elemento per elemento e poi si somma, nel
prodotto scalare standard) alle matrici, che si moltiplicano righe per
colonne, e queste come fossero vettori. Cioe`, in qualche modo ci si
riporta ad un caso noto, di dimensione inferiore.
Quello che dico si potrebbe generalizzare induttivamente alle
dimensioni superiori.
Quanto poi alle operazioni ternarie, credo in effetti che emergano poco
nelle strutture algebriche piu` diffuse, ma qualcosa c'e`. Poi cerchero`
in giro, ma rispondendo a braccio mi vengono in mente un po' di cose:
Un'operazione ternaria puo` essere "piu` o meno" commutativa a seconda
di quante fra le possibili permutazioni dei suoi argomenti la lasciano
immutata: ad esempio, e` vero che per ogni x, y, z
(x,y,z) = (z,x,y),
dove indico l'operazione con le parentesi?
Questa e` una delle idee base del concetto di algebra simmetrica e di
algebra alternante. Semplificando un bel po', la prima e` "fatta in modo"
che tutte le permutazioni degli argomenti (anche piu` di 3) diano lo
stesso risultato. Nella seconda, le permutazioni di classe dispari lo
lasciano uguale, mentre quelle di classe pari lo cambiano di segno.
(Servono piu` lumi?)
Un altro contesto in cui emerge una specie di operazione ternaria e` il
seguente. Prendi una qualsiasi algebra, ad es. le matrici (quadrate) nxn
con la somma e il prodotto standard. Definisci un nuovo prodotto [,] con
[A,B] = AB-BA.
Questa e` ancora un'operazione binaria, ma spesso ha interesse vedere
che cosa succede facendo "parentesi di parentesi". Ad esempio, vale
l'identita` di Jacobi:
[[A,B],C] + [[B,C],A] + [[C,A],B] = 0.
Possiamo benissimo considerare [[.,.],.] come un'operazione ternaria
con certe proprieta` (tra cui, appunto, l'id. di Jacobi). E viceversa,
data un'operazione ternaria, vedere se soddisfa proprieta` simili.
Per inciso, l'algebra delle matrici con la somma standard e il prodotto
[,] e` un esempio classico di algebra di Lie.
Ho detto qualcosa di vagamente utile?
Ciao,
Daniele
>
> Le matrici con piu' di due dimensioni vengono chiamate solitamente
> tensori.
Solo un commento solo per critica costruttiva e per amore di precisione
:-).
Da quanto scrivi si potrebbe intendere che i tensori sono matrici.
Bhe, questo e' sbagliato e anche pericolosissimo in riferimento alla
confusione che genera in chi studia. Un tensore NON e' una matrice, ma
una cosa piu' complicata. Le matrici, sono *solo un modo di
rappresentare le COMPONENTI di un tensore in una precisa base dello
spazio vettoriale a cui il tensore appartiene*.
Le operazioni di cui parli sono operazioni multilineari tra tensori
espressi in componenti cartesiane ortogonali, sfruttando l'isomorfismo
canonico tra tensori covarianti e controvarianti indotto dal tensore
metrico (che ha la forma del delta di Kronecker nella base
considerata...)
Ciao, Valter Moretti
Dipartimento di Matematica
Universita' di Trento e INFN
> Prima di tutto, per definire un prodotto tra matrici cubiche, a me
In fondo possono essere viste come tensori.
> Quanto poi alle operazioni ternarie, credo in effetti che emergano poco
>nelle strutture algebriche piu` diffuse, ma qualcosa c'e`. Poi cerchero`
Dall'equazione della retta y=ax+b emerge l'operazione ternaria <a,x,b>
->y. In geometrie moderne (con meno assiomi) viene a volte utile, ma
e' subito abbastanza difficile.
> Ho detto qualcosa di vagamente utile?
Si.
BTW: si scrive beh, non bhe (per critica costruttiva e per amore di
precisione) :-)))
-------------------
Elio Fabri
Dip. di Fisica
Universita' di Pisa
> Adesso si' che avranno capito tutto :-))
Hai ragione, chiedo scusa a tutti, sono stato davvero incomprensibile
:-(((
Ecco quello che volevo dire: pensiamo le matrici cubiche come
rappresentazioni di tensori cartesiani in R^n, per esempio sulla base
canonica. Una legge che associa a tre matric cubiche (= tensori) una
matrice cubica (PENSATA COME RAPPRESENTAZIONE DI UN TENSORE NELLA STESSA
BASE DELLE PRECEDENTI) e che sia MULTILINEARE (per non snaturare la
struttura lineare nella quale lavoriamo) e' necessariamente un tensore e
quindi una matrice.
Questo e' un noto e banale teorema detto "Legge (del) quoziente".
In pratica ci sono infiniti prodotti ternari di matrici cubiche
che producono matrici cubiche e in pratica sono fatti cosi'.
Indico in componenti le tre matrici cubiche A B C come
Aijk, Blmn, Copq. Gli indici ijklmnopq variano tutti da 1 fino a
n dimensione dello spazio (matrici nXnXn).
Ogni prodotto ternario multilineari di matrici e' scrivibile in
componenti come:
(A,B,C)xyz = somma Exyz,ijklmnopq Aijk Blmn Copq
ijklmnopq
gli n^(12) numeri Exyz,ijklmnopq definiscono il prodotto ternario
considerato e si trasformano, cambiando base, come un tensore cartesiano
del 12 ordine. (ho tralasciato le questioni dell' identificazione
canonica tra tensori covarianti e controvarianti che
confonde le idee e non e' essenziale se si lavora con tensori
cartesiani...)
> Comunque io non direi che un tensore e' una cosa piu' complicata: se
> mai, una cosa piu' astratta... Ma forse piu' semplice ;-)
Credo che sia solo una questione di punti di vista, secondo me e' una
cosa piu' complicata perche', almeno per come vedono i fisici i tensori,
questi possono essere pensati come leggi che associano matrici (quadrate
cubiche ecc..) a basi di uno spazio vettoriale,
che soddisfano alcune "leggi di trasformazione". Questo e' senz'altro
piu' complesso di una matrice!!
>
> BTW: si scrive beh, non bhe (per critica costruttiva e per amore di
> precisione) :-)))
Hai ragione sono un *ANALFABETICO* :-))
Ciao a tutti, Valter Moretti
Avevo in mente questo.
Posso definire un tensore come una funzione lineare da Vx..xV (n-ma
potenza cartesiana) ai reali, dove V e' uno sp. vettoriale a dim. finita
(per un fisico, 3 o 4).
E' piu' astratto, perche' ragiono su spazi vett. astratti e non su una
particolare rappr. in componenti.
Piu' semplice, perche' la linearita' e' tutto quello che occorre per
capire un sacco di cose.
Alternativa e generalizzazione: funzione lineare da V a V, poi dalla
potenza cartesiana p-ma alla potenza q-ma. Ma questo lo sai assai meglio
di me, e hai detto che tralasciavi la distinzione fra tensori covarianti
e controvarianti.
La definizione V --> V e' tra l'altro l'origine storica del nome: il
tensore degli sforzi ti fa passare dal vettore unitario della normale a
un elem. di superficie alla forza che una parte di un sistema continuo
applica all'altra attravero quella superficie. E la linearita' e' una
*legge fisica*, di grande importanza, che tra parentesi oggi non
s'insegna quasi piu' :-(.
La questione della "legge di trasformazione" un tempo la insegnavo
anch'io, ma oggi quasi non riesco a capirla :-).
Sono pienamente d'accordo che identificare tensori e matrici e'
pericoloso: tra l'altro perche' fa perdere il significato fisico
intrinseco che dicevo sopra.