generalidades sobre espacios vectorialesjaviermontoliu.com/pdf/espacios vectoriales.pdf ·...

58
GENERALIDADES SOBRE ESPACIOS VECTORIALES Por Javier de Montoliu Siscar, Dr. Ing. Ind. 4ª Edición. Julio 2003.

Upload: nguyendat

Post on 20-Sep-2018

227 views

Category:

Documents


0 download

TRANSCRIPT

GENERALIDADES SOBRE ESPACIOS VECTORIALES Por Javier de Montoliu Siscar, Dr. Ing. Ind. 4ª Edición. Julio 2003.

i

PROLOGO

En este ensayo, se intenta hacer un resumen de las principales propiedades generales de los espacios vectoriales, así como de las relaciones que se pueden establecer entre ellos cuando se hallan estructurados sobre un mismo cuerpo.

Se habla concretamente de las aplicaciones lineales y multilineales, tanto en su expresión general como en la forma de productos entre vectores.

Entre los productos, consideraremos especialmente al producto tensorial que define a los tensores y a aquellos productos escalares que definen a los espacios duales. Para ello y para mayor facilidad, no prescindiremos de considerar espacios vectoriales complejos conjugados.

Los espacios vectoriales más importantes están sucintamente reseñados, y nos interesaremos particularmente en los de n dimensiones con n finito, aunque se mencionen algunas características propias de n infinito.

Finalmente se estudia el conjunto de tensores afines a un espacio euclidiano ó propiamente euclidiano de dimensión n finita, para el que se establece una estructura de álgebra cuya aplicación a espacios propiamente euclidianos es objeto de desarrollo en otra obra.

Este ensayo tiene por objeto, además de dar a conocer en forma elemental las propiedades generales de los espacios vectoriales, el facilitar la comprensión del álgebra establecida en el último capitulo y que estimamos de interés, pues no sólo nos permite representar tensorialmente cualquier operador lineal ó multilineal, sino también hallar el resultado de su aplicación sobre un tensor ó vector determinado mediante una simple operación algebraica, con carácter intrínseco.

I

TABLA DE CONTENIDO PROLOGO...................................................... i TABLA DE CONTENIDO........................................... I GENERALIDADES SOBRE ESPACIOS VECTORIALES..................... 1 A.- CONVENIOS PREVIOS. ..................................... 1 B.- ESPACIOS VECTORIALES. .................................. 3 1.- Definición de espacio vectorial. ..................... 3 2.- Subespacios vectoriales. ............................. 4 3.- Generadores. ......................................... 5 4.- Generadores y bases. Dimensiones. .................... 8 5.- Aplicaciones del cálculo matricial. ................. 10 6.- Espacios vectoriales fundamentales. ................. 12 7.- Aplicaciones entre espacios vectoriales. ............ 15 8.- Aplicaciones lineales conjugadas. ................... 17 9.- Formas lineales. .................................... 19

C.- APLICACIONES MULTILINEALES Y PRODUCTOS. TENSORES. ..... 20 1.- Aplicaciones p-lineales y p-lineales conjugadas. .... 20 2.- Productos. .......................................... 22 3.- Producto tensorial. ................................. 22 4.- Productos sobre el cuerpo base. ..................... 27

D.- ALGUNOS ESPACIOS NOTABLES. ............................ 33 1.- Espacios hermíticos. ................................ 33 2.- Espacio hermítico E con núcleo nulo. ................ 39 3.- Espacios prehilbertianos. ........................... 43 4.- Espacios propiamente euclidianos. ................... 49

E.- CONJUNTO DE LOS TENSORES E⊗ (O SEA AFINES A E), CON E EUCLIDIANO DE DIMENSION FINITA. 51 1.- Generalidades. ...................................... 51 2.- Algebra tensorial ................................... 52 3.- Tensores y aplicaciones lineales. ................... 55 4.- Operación contracción de tensores. .................. 56 5.- Observaciones. ...................................... 57

1

GENERALIDADES SOBRE ESPACIOS VECTORIALES.

A.- CONVENIOS PREVIOS.

1.- Supondremos conocidos los elementos de álgebra lineal y en particular del álgebra matricial y determinantes.

2.- En general, expresaremos los escalares por letras griegas minúsculas: α,µ,π, etc., los vectores por letras normales minúsculas con flecha en la parte superior: v→, w→, etc., y los tensores por letras griegas minúsculas con flecha en la parte superior: ρ→, σ→, etc. Si α ó (v→w→) son escalares complejos, sus conjugados se representarán por α

_ y (v→

_w→_) ó α* y (v→w→)*.

Normalmente, cuando un escalar es el módulo de un

vector tal como v→, lo representaremos con la misma letra v sin flecha y también si es un coeficiente, aunque ahora con un subíndice o supraíndice, por ejemplo: v2, v

i, v3, etc. Si es un coeficiente de un tensor τ→, se representará por la letra normal minúscula t correspondiente, seguida de los subíndices y supraíndices, necesarios para su identificación, escritos uno a continuación del otro. Ejemplo: t12

1

4

Una matriz se expresará con una letra mayúscula ó como un conjunto de elementos. Sea por ejemplo la matriz A = {λi

j}. La expresión λi

j significará un elemento de la matriz cuya identifi-cación dependerá de la convención adoptada. Aqui convendremos que el supraíndice indica la fila, en este caso j, y que el subíndice indica la columna, en este caso i. De esta manera λ2

3 no represen-ta a la matriz A, sino a un elemento determinado de ella, el de fila 3 y columna 2.

Sea un sumatorio ∑k=m

n a→k. Lo representaremos por ∑m

n a→k si no hay duda sobre la magnitud que toma valores y si tampoco hay duda respecto a los valores límites, por ∑ka

→k o simplemente por

∑a→k.

3.- Se adopta el convenio de Einstein:

Siempre que en un monomio figure dos veces el mismo índice, una vez como superior y otra como inferior, se debe, salvo aviso en contra, sumar los monomios obtenidos dando a este índice todos los valores posibles.

Si esto ocurre con más de un índice, habrá que sumar los monomios obtenidos dando a estos índices todos los valores posibles. viv→i = v

1v→1 + v2v→2 + ..... + v

nv→n ai

jbj

i = a1

1b1

1+a1

2b2

1+..+a2

1b1

2+a2

2b2

2+....+an

1b1

n+an

2b2

n+..

3

B.- ESPACIOS VECTORIALES.

1.- Definición de espacio vectorial.

1.01- Se denomina espacio vectorial sobre un cuerpo K (no necesariamente conmutativo), al conjunto R de elementos v→, w→, u→,..., llamados vectores, que con los elementos de un cuerpo K, llamados escalares, verifican los siguientes axiomas:

a) A todo par de vectores {v→,w→} corresponde un vector único expresado por v→+w→ (leído v→ más w→) y llamado suma de v→ y w→, con las siguientes condiciones: 10 v→+w→ = w→+v→ Conmutatividad 20 v→+(w→+u→) = (v→+w→)+u→ = v+w+u Asociatividad 30 v→+0

→ = v→ Existencia del vector 0

40 v→+(-v→)=0→ Existencia del vector opuesto

Un espacio vectorial es pues un grupo abeliano respecto

a la suma.

b) A todo par (λ,v→) de un escalar y de un vector, corresponde un vector determinado de R, llamado producto de λ y v→ y expresado por λv→ (leído λ por v→), sujeto a las siguientes condiciones: 10 λ(v→+w→) = λv→+λw→ Distributividad derecha 20 (λ+µ)v→ = λv→+µv→ Distributividad izquierda 30 (λµ)v→ = λ(µv→) = λµv→ Asociatividad escalar 40 1v→ = v→ Invariancia con el escalar 1

Si K no es conmutativo hay que distinguir entre λv→ y v→λ. Al espacio vectorial definido del modo anterior lo llamaremos espacio vectorial a la izquierda sobre K, y si permutamos vectores con escalares en todo par, resulta un espacio vectorial a la derecha sobre K.

Pero en lo sucesivo supondremos siempre que K es conmutativo, y así no interesa distinguir entre λv→ y v→λ, aunque habitualmente adoptaremos la notación de espacio vectorial a la izquierda para representar un único espacio vectorial sobre K.

Hemos de hacer observar que el cumplimiento de las condiciones pedidas al producto, no exige en principio un proceso único para su obtención, es decir, un tipo único de multiplica-ción. Cuando así ocurre, a dos tipos distintos de producto deberán corresponder notaciones distintas, por ejemplo λv→ y λ"v→

1.02.- Propiedades generales.

Relacionamos sin demostración las propiedades generales más importantes de los espacios vectoriales: a) x→+a→ = b

→ ⇔ x→ = b

→ + (-a→)

4

b) x→+x→ = x→ ⇔ x→ = 0→

c) (∀x→R): 0x→ = 0

d) (∀λK): λ0→ = 0

e) λx→ = 0→ ⇔ λ = 0 ó bien x→ = 0→ y escribiendo x→ + (-y→) en la forma x→-y→, o sea diferencia de x→ a y→ (leído x menos y) veríamos también: f) (-λ)x→ = λ(-x→) = -(λx→) = -λx→ g) λ(x→-y→) = λx→ - λy→ h) (λ-µ)x→ = λx→ - µx→ i) x→ - x→ = 0

No demostraremos que para hallar el vector suma cuando

la cantidad de sumandos es finita, y sólo en este caso, la conmutabilidad y asociatividad de los sumandos hace que sea indiferente el orden en que se vaya efectuando cada suma sucesiva.

Con n y m enteros y n>m es frecuente la siguiente notación: a→m+a

→m+1+...+a

→n = ∑k=m

n ak

Corrientemente se escribe: ∑k=m

n a→k = ∑m

n a→k = ∑ka→

k

2.- Subespacios vectoriales.

2.01.-Llamamos subespacio vectorial de R a toda parte R’ de R tal que se verifique: (λ∈K; µ∈K, a→∈R’; b→∈R’) ⇒ λa→ + µb→ ∈ R’

Es fácil deducir de esta expresión lo siguiente:

a) El subespacio vacío, que es el que no contiene a ningún vector, es un subespacio de todos los espacios vectoriales. Aquí no lo consideraremos de no indicar expresamente lo contrario.

b) El vector 0→ constituye un subespacio, el subespacio nulo.

Todos los subespacios excepto el vacío lo contienen.

c) El conjunto de múltiplos de un vector constituye un subespacio.

d) La intersección de subespacios es un subespacio y sólo si uno de ellos es el subespacio vacío la intersección es este subespacio vacío.

e) Todo subespacio es, a su vez, un espacio vectorial sobre el mismo cuerpo que el espacio original, teniendo en común con él todos sus vectores. También es común el vector nulo y la

5

operación producto de un escalar y un vector.

2.02.- Llamamos subespacios disjuntos a dos subespacios cuya intersección es el subespacio nulo.

2.03.- Si tenemos dos subespacios A y B del espacio vectorial R, llamaremos subespacio suma de A y de B y lo expresaremos por A+B al conjunto de vectores que resultan de sumar un vector cualquiera de A con un vector cualquiera de B.

Este conjunto es un subespacio puesto que, para a→,a→' y b→,b→' respectivamente vectores cualesquiera de A y de B, y para λ

y µ escalares cualesquiera podemos escribir: λ(a→+b→) + µ(a→’+b→’) = (λa→+µa→’+λb→+µb→’) ∈ A + B

2.04.- Subespacios suplementarios son aquellos subespacios de R tales como A y B, que son disjuntos y tienen por subespacio suma a R.

3.- Generadores.

3,01.- En un espacio vectorial R cualquiera, decimos que un vector v→ es una combinación lineal de n vectores de R tales como a→1,a

→2,..,a

→n, cuando hay n escalares α1,α2,..,αn, llamados

coeficientes de los a→i, tales que se verifique: (1) v→ = Σ1

nαia→

i

También decimos entonces que los n vectores {a→i} constituyen un generador de v→.

Podríamos deducir de esta definición las siguientes propiedades:

a) Si v→ y w→ son combinaciones lineales de {a→i} también lo es λv→+µw→.

Por consiguiente, el conjunto de combinaciones lineales correspondientes a un generador S, es un subespacio. Decimos que es el subespacio generado por el generador y que S es un generador del subespacio.

b) El vector nulo es una combinación lineal de cualquier generador.

c) Un vector es combinación lineal de sí mismo.

d) Si un vector es combinación lineal de {a→1,a→2,..,a

→m},

también lo es de {a→1,a→2,..,a

→m,a→

m+1,...,a→

n} con n mayor que m.

e) Si v→ es una combinación lineal de {a→i) y cada a→

i es una combinación lineal de {b

→j}, v

→ es combinación lineal de {b→j}.

3.02.- Sea P una parte no vacía de un espacio vectorial

6

R y llamemos A al conjunto de vectores que se pueden expresar como combinación lineal de vectores de P. Se verifica:

a) A es un subespacio. Diremos que A es el subespacio engendrado por P y que P es un generador de A. En efecto:

Si a→ y b→ pertenecen a A por ser combinaciones lineales de sendos conjuntos {a→1,a

→2,..,a

→n} y {b

→1,b→2,..,b

→m} de vectores de P, λa

→+µb→ será una combinación lineal de {a→1,a

→2,..,a

→n,b→1,b→2,..,b

→m}, que es

un conjunto de vectores de P y por tanto también pertenecerá a A.

b) A es la intersección de todos los subespacios que contienen a P.

Pues evidentemente A contiene a P y todo subespacio que contenga a P debe contener a todos los vectores de A y por lo tanto a A.

c) Cuando P es un subespacio, la intersección A evidentemen-te coincide con P.

3.03. Definición. Decimos que un espacio o subespacio vectorial está finitamente generado si existe un generador del mismo con un número finito de vectores. Si existe pero no con un número finito, diremos que está infinitamente generado.

3.04.- Vectores y conjuntos libres.

Un vector es linealmente independiente de una parte P de un espacio vectorial R, cuando no puede expresarse como una combinación lineal de vectores de P. Estos vectores son, evidentemente, todos los de R no pertenecientes al subespacio engendrado por P.

Por consiguiente, los vectores linealmente independien-tes de un subespacio dado, son todos aquellos que no pertenecen a este subespacio.

En particular, el vector 0→ no es independiente de

ninguna parte no vacía de R, aunque sea un solo vector.

Diremos que un conjunto de vectores es linealmente independiente o libre, cuando ninguno de sus vectores puede expresarse como combinación lineal de los demás, y que es linealmente dependiente, ó que es ligado, en caso contrario.

Por tanto, no puede ser linealmente independiente un conjunto en que figure el vector nulo.

3.05.- Teorema. Una condición necesaria y suficiente para que {a→1,a

→2,...,a

→n} sea un conjunto linealmente independiente,

es que exista algún vector generado por este conjunto, cuya expresión (1) como función lineal de los elementos del conjunto sea única.

a) Sea v→ este vector, w→ cualquier otro vector que tenga

7

expresión múltiple, y vamos a considerar la igualdad: v→ + w→ - w→ = v→

Es evidente que si en el primer miembro representamos la w→ del 21 término de modo distinto a la w→ del 31, al operar con las expresiones (1) correspondientes, resultará para v→ en el 21 miembro una expresión distinta a la única admitida.

Así pues, el que haya un vector con expresión única ó múltiple, significa que todos los generados por el conjunto en cuestión están en el mismo caso.

b) Si y solo si el conjunto no es libre, para algún j podríamos poner un vector a→j del conjunto en función de los demás y en consecuencia, con coeficientes adecuados no todos nulos y βj no nulo, se verificaría: -βja

→j = ∑k≠jβka

→k ⇔ ∑kβka

→k = 0

c) Teniendo en cuenta que el vector nulo siempre es

expresable por ∑k0a→k, y que la última expresión obtenida para 0

es distinta, el conjunto será libre si y sólo si el vector 0→

tiene por única expresión ∑k0a→k, o sea con todos los coeficientes

nulos.

Esto sucederá, según a), si y sólo si, existe algún vector generado por el conjunto {a→1,a

→2,...,a

→n} en cuestión, cuya

expresión (1) como función lineal de los elementos de este conjunto sea única.

3.06.- Obtención de una sucesión libre.

Sea un subespacio A engendrado por una sucesión de vectores {a→1,a

→2,a→3,...} finita o infinita. Podremos formar con

ella una sucesión parcial de vectores linealmente independiente que también engendra a A.

Efectivamente: Si todos los a→i son múltiplos de a→1, la

sucesión parcial obtenida es evidentemente {a→1}. Si no es así, a partir de a→1 eliminaremos todos los múltiplos hasta llegar a un elemento que no lo sea, al que llamaremos a→2’. A continuación eliminaremos todos los elementos siguientes que sean combinación lineal de los dos primeros hasta llegar a un vector que no lo sea y que llamaremos a→3’. Asì sucesivamente iremos formando una sucesión parcial de vectores independientes que engendran A, sucesión que coincidiría con la original en caso de que ya esté formada por vectores independientes.

Si la sucesión fuese infinita y A no tuviera ningún generador finito, este proceso se puede continuar indefinidamente pues de lo contrario A, contra lo supuesto, tendría un generador finito.

8

4.- Generadores y bases. Dimensiones.

4.01.- Definición.

De un generador finito de R decimos que es una base de R, cuando es un conjunto linealmente independiente.

Por lo visto en '3.06 resulta pues, que todo espacio vectorial finitamente generado tiene bases finitas.

Si un espacio vectorial R no tiene ningún generador finito, decimos que es de dimensión infinita.

Se demuestra que en un espacio de dimensión infinita siempre puede considerarse una base. Limitándonos al caso de que esté generado por una sucesión infinita llamaremos base del mismo a una sucesión infinita de vectores independientes obtenida por el método descrito en '3.06.

4.02.-Teorema de Steinitz.

Sea un generador finito de n vectores del espacio vectorial R y {b

→1,b→2,...,b

→m} con m≤n un conjunto linealmente

independiente de vectores de R. Podemos reordenar los vectores del generador en forma {a→1,a

→2,..,a

→n} de modo que el conjunto {b

→1, b

2,...,b→

m,a→m+1,..,a

→n} sea otro generador de R.

Efectivamente:

a) Expresemos b→1 de R como combinación lineal de los a

→i

del generador dado: a + a = b ii

n2111

rrrλΣλ

habiendo elegido previamente como a→1 a un vector del generador dado que aparezca con coeficiente no nulo, lo que siempre será posible pues b

→1 no puede ser nulo por hipótesis. Por lo tanto

podremos escribir:

)a - b(1

= a iin21

11

rrr λΣλ

y por tanto en el generador dado podemos sustituir a→1 por b

→1 y

{b→1,a→

2,a→

3,...,a→

n} es un nuevo generador. b) Supongamos que para 1≤p<m hemos demostrado que G = {b

→1,b→2,...,b

→p-1,a

→p,...,a

→n} es un generador de R.

Procediendo como antes, expresaremos b

→p como combina-

ción lineal de los vectores de G y llamaremos ap a algún vector de los a→i que quedan cuyo coeficiente no sea nulo. Tiene que haber alguno pues de lo contrario b

→p resultaría combinación

lineal de los anteriores b→

j, lo que por hipótesis no ocurre. Despejando a→p en la expresión de b

→p y sustituyendo este valor de

ap en la expresión de cualquier vector de R como combinación

9

lineal de los vectores de G, tendremos, análogamente a lo dicho en a) que {b

→1,b→2,..,b

→p-1,b

→p,ap+1,...,an} es también otro generador

del espacio vectorial R.

c) Por recurrencia es evidente que llegamos finalmente al resultado que queríamos demostrar.

4.03.- Consecuencias del teorema de Steinitz. Se pueden deducir sin dificultad las siguientes:

a) Un generador de un espacio vectorial no puede tener menos vectores que una base del mismo. Si tiene los mismos es a su vez otra base.

b) Dos bases de un espacio vectorial R contienen el mismo número de vectores. Este número recibe el nombre de dimensión del espacio vectorial.

4.04.- Teorema.

Sea un generador A = {a→1,a→2,..,a

→n} del espacio vectorial

R. El conjunto B = {a→p,b→1,b→2,..,b

→p-1,b

→p+1,..,b

→n} que resulta de

sustituir todos los a→i (i≠p) por los vectores b→i (i≠p) tales que: (i≠p): b→i = a

→i - µia

→p ⇔ (i≠p): a→i = b

→i + µia

→p

es un nuevo generador de R.

Efectivamente. Si tenemos un vector v→ cualquiera de R expresado como combinación lineal (1) de los a→i y para i≠p sustituímos los a→i por los b

→i correspondientes, tendremos:

)a + b( + a = a + a = v :p)(i piiippiipp

rrrrrr µλλλλ ∑∑≠ o sea que B es también un generador de R.

Si A hubiera sido una base, en consecuencia, B sería otra base.

4.05.- Dimensión de los subespacios.

De todo lo que antecede podemos deducir:

a) Si R es un espacio vectorial n-dimensional y un subespacio R’ de R es m-dimensional, tendremos m≤n.

a1) Para m=n tendremos R’=R. a2) Para m<n, R’ admite al menos un subespacio suplementario

de dimensión n-m. Puesto que todo sistema libre de m vectores de R puede ampliarse con otros n-m vectores más para obtener una base de R.

b) Decimos que un subespacio es de dimensión nula cuando se trata del subespacio nulo.

10

5.- Aplicaciones del cálculo matricial.

5.01.- Sean en un espacio vectorial R los vectores de

un conjunto {f→j} que son combinación lineal de los vectores de

otro conjunto {e→i} y que tienen por expresión: (2) f

→j = αj

ie→i

Cualquier vector v→, que como combinación lineal de {f→j}

se puede expresar por (3) v→ = λjf→j podrá expresarse pues como combinación lineal de {e→i} de la siguiente manera: (4) e = )e( = v i

jiji

ij

j rrrλααλ

5.02.- Teorema. Si tenemos dos generadores de un mismo

espacio vectorial tales como {f→j} y {e

→i}, y la expresión de los

vectores del uno como combinación lineal de los del otro es (2), si un generador es una base, es necesario y suficiente que la matriz {αj

i} sea regular para que el otro sea una base.

a) De acuerdo con el teorema '3.05, si {e→i} es una base, podemos deducir;

a1) De (2), que {αj

i} tiene una sola expresión no nula.

a2) De (4), que la matriz {αj

iλj} = {αj

i}{λj} debe ser única y distinta para cada vector v→.

Si {f→j} también es una base, por (3) ello equivale a

que {λj} tenga una expresión única y distinta para cada vector, lo que comporta, según el cálculo matricial, que la matriz {αj

i} sea regular, es decir, cuadrada y de núcleo cero.

Recíprocamente, si la matriz {αj

i} es regular, la condición a2) requiere que {λj} sea única y distinta para cada vector v→, o sea que {f

→j} sea también una base.

b) Si en lugar de partir de que {e→i} es una base, lo

hacemos a partir de que la base es {f→

j}, tendremos:

b1) {ei} base y {αj

i} no regular. No es posible por lo visto anteriormente.

b2) Si tenemos {αji} regular, tendrá inversa que también será

regular, y multiplicando por ella la ecuación (2) obtenemos los vectores de {e→i} como combinaciones lineales de los vectores de {f→j} y estamos en la situación de a).

5.03.- A la matriz regular {αj

i} se la denomina matriz del cambio de bases de {f

→j} a {e

→i}. Vemos que la única condición

que debe cumplir una matriz para ser de cambio de bases es que

11

sea una matriz regular.

5.04.- Sean {e→i} y {f→j} dos bases del espacio vectorial

R. Conociendo la matriz de cambio, acabamos de ver que un vector cualquiera se puede expresar así:

e = e = f = v i

ii

jijj

j rrrr µλαλ

A los valores λj los llamaremos coeficientes de v→ en

base {f→j} y a los valores µ

i coeficientes de v→ en la base {e→i}.

La última expresión nos da el método matricial para calcular los coeficientes de un vector en una base si conocemos los coeficientes en otra y la matriz de cambio. En el caso expresado tendremos: {αj

i}{λj} = {µi}

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

µ

µ

µ

λα

λα

λα

λ

λ

λ

ααα

ααα

ααα

n

2

1

jnj

j2j

j1j

n

2

1

nn

n2

n1

2n

22

21

1n

12

11

: =

: =

:

..

:::::

. .

..

Llamando A a la matriz de cambio, X a la matriz columna

de los coeficientes λ y Y a la de los coeficientes µ, podemos escribir con notación matricial: AX = Y ⇔ X = A-1Y pues A es una matriz regular cuadrada, y comprobamos que la matriz del cambio de bases inverso es la matriz inversa de la matriz de cambio directo.

Obsérvese que las columnas de A son los coeficientes de los f→j en función de la base {e

→i} antigua, que X es la nueva

matriz de coeficientes de v→ y Y la antigua.

5.05.- Si, como ocurre en general, la resolución de los problemas prácticos de vectores utiliza la isomorfía con el espacio de n-eplas que definen los coeficientes de su expresión como combinación lineal de los vectores de una base (e→i} previamente identificada n-dimensional, podemos deducir de los párrafos anteriores un método matricial sencillo que nos permite obtener la base de un subespacio cuando conocemos un generador {g→i} del mismo por la expresión de sus vectores como combinacio-nes lineales de la base {e→i} del espacio total: g→i = αi

j e→j y evidentemente podremos prescindir de todos los vectores e→j cuyos coeficientes resulten nulos para todo g→i, y considerar que

12

no están incluídos en la base.

Llamaremos g→1 al primer vector del generador cuyo coeficiente para e→1 no sea nulo y reemplazaremos los restantes por combinaciones lineales g→i’ = g

→i - λig

→i

eligiendo los λ de manera que todos los g→' tengan nulo su coeficiente relativo a e→1. Habremos obtenido así un nuevo generador {g→1',g

→2',..,g

→m} del subespacio (ver '4.04) y podemos

comprobar que el primer vector obtenido es linealmente indepen-diente de los siguientes.

Operando de igual manera iremos obteniendo nuevos vectores que además de ser independientes de los anteriores lo serán de los siguientes. Eliminando los vectores nulos que puedan resultar obtendremos finalmente un generador, que será la base buscada, expresada como combinación lineal de los vectores e→j.

5.06.- Ejemplo (Tomado de Lentin-Rivaud). Determínese en Q5 una base del subespacio engendrado por los vectores:

g→1=(1,2,-4,3,1); g→

2=(2,5,-3,4,8) g→3=(6,17,-7,10,22); g

→4=(1,3,-3,2,0)

Se disponen los cálculos de la siguiente manera:

g→1 1 2 -4 3 1; g→1 1 2 -4 3 1g→2 2 5 -3 4 8; g→2'=g

→2-2g

→1 0 1 5 -2 6

g→3 6 17 -7 10 22; g→3'=g→

3-6g→

1 0 5 17 -8 16g→4 1 3 -3 2 0; g→4'=g

→4 -g

→1 0 1 1 -1 -1

g→1 1 3 -4 3 1; g→1 1 2 -4 3 1g→2’ 0 1 5 -2 6; g→2’ 0 1 5 -2 6

g→3"=g→

3’-5g→2’ 0 0 -8 2 -14; g→4” 0 0 -4 1 -7

g→4"=g→4’-g

→2’ 0 0 -4 1 -7; g→3”-2g

→4” 0 0 0 0 0

El subespacio es de tres dimensiones, y una base del

mismo está formada por los vectores: g→1, g

→2’=g

→2-2g

→1, g

→4”=g

→4+g→1-g→2

6.- Espacios vectoriales fundamentales.

6.01.- Multiplicación escalar-vector que define un espacio vectorial. Espacios conjugados.

Para estructurar un grupo abeliano para la suma como espacio vectorial sobre un cuerpo, hemos dicho que es preciso que esté dotado de una multiplicación escalar-vector con ciertas características. Cuando el cuerpo es el de los números reales, solo hay una multiplicación posible.

13

Podríamos ver que con el cuerpo C de los complejos (que

puede considerarse originado por R×R), el número de multiplica-ciones posibles es dos, y por tanto, el conjunto C da lugar a dos estructuras distintas de espacio vectorial.

Así pues, si es posible estructurar un conjunto como un espacio vectorial E sobre C, mediante una multiplicación de sus elementos por escalares expresada por αv→, también será posible estructurarlo además como un espacio vectorial E* distinto, al considerar otro tipo distinto de multiplicación de α por v→, que expresaremos por α•v→.

Sea v→ un elemento del conjunto común y αv→ el elemento de E resultante de una multiplicación por α, que consideraremos normal. Definimos que el vector α•v→ de E* obtenido por el segundo tipo de multiplicación es el que coincide con el vector α

_v→ de E.

Es fácil demostrar que esta segunda multiplicación

cumple las condiciones exigidas para un espacio vectorial sobre C, y aquí nos limitaremos a la siguiente comprobación de la asociatividad: α•(β•v→) = α

_(β•v→) = α

_(β_v→) =(α

_ β_)v→ = (αβ)* v→ = (αβ)•v→

El espacio vectorial E*, originado por un segundo tipo

de producto escalar-vector, se denomina espacio vectorial conjugado de E.

Podemos ver fácilmente que se verifica (E*)*=E.

6.02.- Sea cualquier base {e→i} de E. Siempre podremos considerar a los e→i como siendo también vectores de E* y dado que por lo dicho en el párrafo anterior se verifica: αi•e→i = α

_ie→i deducimos que {e→i} es asimismo una base de E* y que, por lo tanto, todas las bases de E y de E* son comunes a ambos espacios vectoriales.

6.03.- Sea el conjunto E×E cuando E es un espacio vectorial n-dimensional sobre R y designemos sus elementos por (v→,w→) siendo v→ y w→ vectores cualesquiera de E. Designemos a los complejos por (α,α’), recordando entre ellos al complejo i=(0,1). tal que i

_=-i.

Si dotamos a E×E con las siguientes leyes de composi-

ción: 10. (v→,v→’) + (w→,w→’) = (v→+w→ , v→’+w→’) (Adición) 20. (α,α’)(v→,v→’) = (αv→-α’v→’ , αv→’+α’v→) (Multiplicación por un escalar) habremos estructurado a E×E como un espacio vectorial sobre el cuerpo de los complejos, al que llamaremos E.

14

Efectivamente, la adición es conmutativa y asociativa

por serlo en E. Hay un elemento neutro (0→,0→) y un elemento

opuesto a (v→,v→’) que es (-v→,-v→').

Podemos comprobar que la multiplicación es distributiva y asociativa respecto a los escalares y es distributiva respecto a los vectores. El elemento neutro es (1,0).

De las leyes anteriores se deduce fácilmente que todo vector (v→,w→) de E puede ponerse en la forma (v→,w→) = (v→,0

→) + (0,1)(w→,0

→) = (v→,0

→) + i(w→,0

→)

De aqui deducimos que E×0→, que está contenido en E,

será un generador de E.

Tomando por igualdad la isomorfía natural existente entre E y E×0→, podríamos decir que E es la parte real de E que genera a E y que i2 = (0,1)(0,1) = (-1,0) = -1.

De acuerdo con ello podemos expresar a los vectores de E por (v→,w→) = v→ + iw→ en cuya expresión sólo intervienen vectores y números reales y el número i, así como escribir: E = E + iE

Con tal notación, las leyes de composición son: 10 v→+iv→’ + w→+iw→’ = v→+w→ + i(v→’+w→’) 20 (α+iα’)(v→+iv→’) = αv→-α’v→’ + i(αv→’+α’v→)

6.04.- Espacio vectorial sobre R determinado por un espacio vectorial sobre C.

Sean E y E* un par de espacios vectoriales conjugados sobre C. Sobre una base común arbitraria, que llamaremos real así como llamaremos también reales sus vectores, podemos construir un espacio vectorial E sobre R y convenir en que E es el conjunto común de todos los vectores reales de los dos espacios conjuga-dos.

Si y sólo si los vectores son reales, es decir, que pertenecen a E, diremos de ellos que son conjugados de sí mismos. Y si no es así diremos que w→* = α

_ie→i = αi•e→i es el conjugado de w

→ = αie→i y lo expresaremos así: e→i* = e

→i; w

→* = (αie→i)* = (αi)*e→i* = α

_ie→i* = α_ie→i

Para v→ y w→ reales, como i*=-i, escribiremos:

(v→+iw→)* = v→-iw→ [(α+iβ)(v→+iw→)]* = (α+iβ)* (v→+iw→)* = (α-iβ)(v→-iw→)

15

Y para cualquier vector v→ y escalar α:

(αv→)* = α

_v→*

6.05.- La conjugación de dos espacios es evidentemente

una propiedad recíproca, lo mismo que la relación entre un tipo de multiplicación escalar-vector y el otro.

Así podemos escribir: (v→*)* = v→; E* = (E+iE)* = (E-iE)

6.06.- Cuerpos como espacios vectoriales.

El espacio vectorial más sencillo que cabe estructurar sobre un cuerpo, es este mismo cuerpo, ya que, por definición, es un grupo abeliano para la suma y pueden adoptarse para él como multiplicación escalar-vector así como vectores cero y uno, los propios del cuerpo.

Por lo dicho en los párrafos anteriores, cuando se trate del cuerpo de los complejos, habrá además otro espacio vectorial conjugado con distinta multiplicación.

7.- Aplicaciones entre espacios vectoriales.

7.01.- De no avisar de lo contrario, vamos a considerar aplicaciones lineales de un espacio vectorial A en otro espacio vectorial B, solo para el caso de que ambos sean espacios vectoriales sobre el mismo cuerpo R ó C y de que las aplicaciones sean unívocas, es decir, cuando a cada vector de A hacen corresponder un vector de B único y determinado llamado imagen del primero.

7.02.- Llamamos aplicaciones lineales f de A en B a aquellas aplicaciones que para cualesquiera vectores a→ y b→ de A, y cualesquiera escalares λ y µ, cumplen la siguiente condición: f(λa→+µb→) = λ[f(a→)] + µ[f(b→)]

De esta definición se deduce fácilmente que la imagen de una aplicación lineal (o sea el conjunto de los vectores de B imágenes de los de A) es un subespacio de B, y que el núcleo de una aplicación lineal (conjunto de los vectores de A cuya imagen es el vector nulo de B) es un subespacio de A.

7.03.- Existe una aplicación lineal de A en B y solamente una, que a cada vector de una base determinada de A hace corresponder un vector de B arbitrariamente elegido.

Pues dada una base (e→i) de A y elegido el conjunto (f→

i) de sus imágenes, como todo vector de A se puede expresar por v→ = xie→i

16

si le hacemos corresponder el vector de B w→ = xif

→i

habremos establecido una aplicación de A en B que es fácil ver que es lineal y que satisface a las condiciones exigidas.

7.04.- Dos espacios vectoriales son isomorfos cuando existe una aplicación lineal biyectiva entre ambos, y para ello es necesario y suficiente que A y B tengan la misma dimensión.

Pues si tienen igual dimensión, acabamos de ver que hay una aplicación lineal que a una base arbitraria de A hace corresponder corresponder un conjunto de igual número de vectores también arbitrarios de B, y en este caso podemos elegir una base de B. Es fácil ver que esta aplicación es biyectiva.

Y si tenemos A de dimensión n y B de dimensión m mayor que n, a los n vectores de una base de A no podrán corresponder más de n vectores de una base de B. Las aplicaciones posibles no serán suprayectivas y por tanto tampoco serán biyectivas.

Hay casos en que el establecimiento de una aplicación biyectiva entre A y B no precisa referirse a unas bases determi-nadas, sino a particularidades intrínsecas de A y B, y en tal caso la isomorfía se llama natural.

Un ejemplo de isomorfía natural es la determinada por la correspondencia biyectiva existente por proyección paralela a un subespacio vectorial entre dos subespacios distintos suplementarios de éste.

7.05.- Sea una aplicación lineal de A n-dimensional en B m-dimensional. Podemos ver fácilmente que:

a) La imagen del vector nulo de A es el vector nulo de B. b) La imagen de un sistema ligado de A es un sistema ligado

de B. c) Si la imagen de un sistema de A es un sistema libre de B,

el sistema de A también es libre. d) Si el núcleo es el vector nulo de A, la aplicación es

inyectiva. Ello solo es posible para n≤m. e) Una aplicación suprayectiva solo es posible para m≤n. f) La inversa de una aplicación lineal biyectiva también es

lineal. g) Dimensión imagen + dimensión núcleo = n.

7.06.- El conjunto de las aplicaciones lineales de un

espacio vectorial A en otro B toma la estructura de espacio vectorial sobre el mismo cuerpo que A y B, cuando definimos las siguientes leyes de composición:

10. Aplicación suma de las aplicaciones f1 y f2 expresada por f1+f2. Es la que para todo vector de A verifica:

17

f(v→) = f1(v→) + f2(v

→) y podemos comprobar que es lineal.

20. Aplicación λf. Es la que verifica: (λf)(v→) = λ

_[f(v→)]

cuya linealidad podemos comprobar. Hemos escrito λ

_ cuando

igualmente hubiésemos podido convenir en escribir λ.

7.07.- Cuando la dimensión de A es n y la de B es m, la dimensión del espacio vectorial de las aplicaciones de A en B es el producto mn de las dimensiones de A y de B.

Sean (e→i) y (f→

j) sendas bases de A y B y consideremos las nm aplicaciones g→j

k tales que g→j

k(e→i) = δikf→

j (δi

k = símbolo de Kronecker: 0 para i≠k y 1 para i=k)

Cualquier vector generado por {g→j

k} puede representarse por λk

jg→j

k y cualquiera de A por xie→i y podemos escribir: (λk

jg→j

k)(xie→i) = λ_

k

jxi[g→j

k(e→i)] = λ_

i

jxif→

j

Para que {g→j

k} sea un conjunto libre es preciso que la anulación de las expresiones anteriores para cualquier {xi} exija que todos los λ

_k

j sean nulos.

Sucede así puesto que, por ser {f→

j} una base, los coeficientes λ

_i

jxi serían nulos para todo j, ó sea, en notación matricial: {λ

_i

j}{xi} = {0} y si {xi} es cualquiera, sería necesario que se verificara: {λ

_i

j} = {0} ⇔ (∀i)(∀j): λ_

i

j = 0

Por consiguiente {g→j

k} es un conjunto libre.

Es también una base, pues toda aplicación lineal arbitraria que hace corresponder a {e→i} los vectores {µi

jf→

j} cualesquiera, puede expresarse por µ

_k

jg→j

k. En efecto: (µ

_k

jg→j

k)(e→i) = µkj[g→j

k(e→i)] = µijf→j

8.- Aplicaciones lineales conjugadas.

8.01.-Llamamos así a las aplicaciones lineales f de un

espacio vectorial A a otro B, ambos sobre el cuerpo de los complejos, cuando para vectores a→ y b

→ cualesquiera de A y

cualesquiera escalares λ y µ, verifican:

18

f(λa→+µb→) = λ

_f(a→) + µ

_f(b

→)

De la definición se deduce que núcleo e imagen de una

aplicación lineal conjugada son subespacios de A y de B respectivamente.

8.02.- Señalaremos a continuación algunas propiedades de estas aplicaciones, omitiendo las demostraciones que son análogas a las relativas a las aplicaciones lineales en general.

a) Existe una aplicación lineal conjugada de A en B y solamente una, que a cada vector de una base determinada de A hace corresponder un vector de B previamente elegido.

b) Si el núcleo es el subespacio nulo, la aplicación es inyectiva y por tanto Dim A ≤ Dim B.

c) Si la aplicación es biyectiva, la inversa también es lineal conjugada.

d) El conjunto de las aplicaciones lineales conjugadas de A en B toma la estructura de espacio vectorial sobre el mismo cuerpo que A y B, al definir las siguientes leyes de composición: 10 f= f1 + f2 ⇔ (∀v→A): f(v

→) = f1(v→) + f2(v

→) 20 f= λf1 ⇔ (∀v→A): λf(v

→) = λ[f1(v→)] ó λ

_[f1(v

→)]

e) Una aplicación lineal conjugada de A en B sólo puede ser suprayectiva si Dim A ≥ Dim B.

f) La imagen del vector nulo de A es el vector nulo de B. g) La imagen de un sistema ligado de A es un sistema ligado

de B. Cuando la imagen de un sistema de A es un sistema libre de B, también es libre el sistema de A.

h) Dim imagen + dim núcleo = dim A.

8.03.- Relación entre aplicaciones lineales y aplica-ciones lineales conjugadas.

Para A* y B* respectivamente conjugados de A y B, se tiene: f:(A → B)lineal conjugada ⇔ f:(A → B*) lineal ⇔ f:(A* → B) lineal

Pues si se verifica lo primero, para cualesquiera vectores a→ y b

→ de A, tenemos:

f(λa→+µb→) = λ

_f(a→) + µ

_f(b

→) ⇔ f(λa→+µb→) = λ•f(a→) + µ•f(b→)

y también: f(λ_a→+µ_b→) = λf(a→)+µf(b→) ⇔ f(λ•a→ +µ•b→) = λf(a→) + µf(b→)

8.04.- La aplicación compuesta de dos aplicaciones de A en B correspondientes a los casos estudiados, es fácil demostrar que verifica:

19

a) Si ambas son lineales o ambas lineales conjugadas, la compuesta es lineal.

b) Si hay una de cada clase, la compuesta es lineal conjugada.

c) Si ambas son biyectivas, también lo es la compuesta.

8.05.- Sean dos espacios vectoriales A y B sobre C en los cuales sabemos distinguir los vectores reales de los demás.

La base del espacio vectorial de las aplicaciones lineales o bien lineales conjugadas de A en B para que sea concordante en el cálculo con las bases reales elegidas tales como {e→i} de A y {f

→j} de B, deberá ser {g

→j

k} tal que g→j

ke→i = δikf→

j (δik = símbolo de Kronecker)

Con tales bases, las aplicaciones reales son las que

dan imagen real de cualquier vector real.

Para los espacios vectoriales reales, sea considerados como parte de espacios vectoriales complejos originales o bien considerados directamente como reales, se confunde el concepto de aplicación lineal conjugada con el de aplicación lineal.

9.- Formas lineales.

9.01.- Definición. Llamamos formas lineales a las aplicaciones de un espacio vectorial sobre un cuerpo en este mismo cuerpo considerado como espacio vectorial.

Por consiguiente los espacios vectoriales de las formas lineales tendrán la misma dimensión que el espacio vectorial al que se refieran, pues un cuerpo considerado como espacio vectorial es de dimensión uno.

Consecuencia de lo dicho en '6.05 sobre los cuerpos considerados como espacios vectoriales, para el cuerpo de los números reales existirá una isomorfía completa de tipo único entre espacios vectoriales y formas, mientras que para el cuerpo de los complejos la isomorfía solo será completa para una sola de las dos estructuraciones distintas de espacio vectorial que admite el cuerpo.

De acuerdo con '8.03, se verificará: f:(A → C) lineal conjugada ⇒ f:(A → C*) lineal ⇒ f:(A* → C) lineal

Como una forma lineal es un caso particular de aplicación lineal, verificará todas las demás condiciones generales de éstas.

20

C.- APLICACIONES MULTILINEALES Y PRODUCTOS. TENSORES.

1.- Aplicaciones p-lineales y p-lineales conjugadas.

1,01.- Sea el conjunto producto E1×E2×...×Ep de p espacios vectoriales sobre K, ordenados.

Llamamos aplicacion p-lineal de estos espacios en otro espacio vectorial A sobre K, a toda aplicación f de su conjunto producto en A, tal que para cualquier valor de r y cualesquiera escalares λ y µ verifique: f(a→1,a

→2,..,[λa

→r’+µa

→r”],..,a

→p) =

λf(a→1,a

→2,..,a

→r’,..,a

→p) + µf(a

→1,a→

2,..a→

r”,..a→p)

En particular, la multiplicación de un a→i por un

escalar multiplica la imagen por este mismo escalar y por tanto si uno de los vectores es nulo, la imagen es el vector nulo del espacio A.

1.02.- Existe una aplicacion p-lineal y solamente una, tal que siendo {e→1i},{e

→2j},...,{e

→ps} bases respectivas de E1, E2,

..., Ep, hace corresponder a cada elemento (e→1i,e

→2j,...,e

→ps)

un vector v→ij..s de A, previamente elegido.

Pues todo elemento del conjunto producto puede expresarse por: (λ1

i e→1i,λ2je→2j,...,λp

se→ps ) y si le hacemos corresponder el vector de A λ1

iλ2j... λp

s f(e→1i,e→2j,..,e

→ps) = λ1

iλ2j... λp

s v→ij..s habremos establecido una aplicación de E1×E2×..×Ep en A que es fácil ver que es lineal y que es la única que satisface a las condiciones requeridas.

1.03.- El conjunto de las aplicaciones p-lineales de E1×E2×..×Ep en A puede estructurarse como espacio vectorial si se establece: f=f1+f2 ⇔ f(a→1,a

→2,..a

→p) = f1(a

→1,a→

2,..,a→p)+f2(a

→1,a→2,..,a

→p)

f = λf' ⇔ f(a→1,a→2,..a

→p) = λ

_[f'(a→1,a

→2,..,a

→p)]

para cualquier elemento (a→1,a

→2,..a

→p) de E1×E2×..×Ep.

1.05.- Sea el conjunto producto E1×E2×...×Ep de p

espacios vectoriales sobre C, ordenados, siendo C el cuerpo de los números complejos.

Llamamos aplicación p-lineal conjugada de estos espacios en otro espacio vectorial A sobre el mismo cuerpo, a toda aplicación f de su conjunto producto en A, tal que para

21

cualquier valor de r verifique: f(a→1,a

→2,..,[λa

→r’+µa

→r”],..,a

→p) =

λ

_f(a→1,a

→2,..,a

→r’,..,a

→p) + µ

_f(a→1,a

→2,..a

→r”,..a

→p)

En particular, la multiplicación de un a→i por un

escalar multiplica la imagen por su conjugado y por tanto si uno de los vectores es nulo, la imagen es el vector nulo de A.

1.02.- Es fácil ver que se verifica: f:(E1×E2×..×En → A) multilineal conjugado ⇔ f:(E1*×E2*×..×En* → A) multilineal.

1.03.- Al igual que para las aplicaciones p-lineales, podemos demostrar:

11. Existe una aplicacion p-lineal conjugada y solamente una, tal que siendo {e→1i},{e

→2j},...,{e

→ps} bases respectivas de E1,

E2, ..., Ep, hace corresponder a cada elemento (e→1i,e→2j,...,e

→ps) un

vector de A v→ij..s previamente elegido.

21. El conjunto de aplicaciones p-lineales de E1×E2×..×Ep en A puede estructurarse como espacio vectorial si se establece: f=f1+f2 ⇔ f(a→1,a

→2,..a

→p) = f1(a

→1,a→2,..,a

→p)+f2(a

→1,a→

2,..,a→

p) f = λf' ⇔ f(a→1,a

→2,..a

→p) = λ

_[f’(a→1,a

→2,..,a

→p)]

para cualquier elemento (a→1,a

→2,..a

→p) de E1×E2×..×Ep.

1.04.- Aplicaciones sesquilineales.

Son las aplicaciones f del conjunto producto E1×E2 de

dos espacios vectoriales sobre el cuerpo de los complejos, en otro espacio vectorial A sobre el mismo cuerpo, que para todo elemento del conjunto producto verifican: f([λv→1+µv

→2], w

→) = λf(v→1,w→) + µf(v→2,w

→) f(v→,[λw→1+µw

→2]) = λ

_f(v→,w→1) + µ

_f(v→,w→2)

Estas aplicaciones se pueden estructurar también como

espacios vectoriales.

Se demuestra que f:(E1×E2 → A) es sesquilineal si y sólo si f:(E1×E2* → A) es bilineal.

Pues para w→ de E2 coincidente con w→* de E2* tendremos

dos notaciones de este elemento: w→ para E2 y w→* para E2*, y así:

f sesquilineal: f(λv→,µw→) = λµ

_ f(v→,w→)

f bilineal: f(λv→,µ

_•w→*) = λµ

_ f(v→,w→)

22

2.- Productos.

2.01.- Hemos visto que con cualquier aplicación lineal f en un espacio vectorial A sobre el cuerpo K, de un conjunto producto E1×E2×..×Ep de espacios vectoriales sobre el mismo cuerpo, cuando la aplicación es lineal, lineal conjugada o sesquilineal, todo elemento del conjunto producto determina un vector s→ de A. Ello incluso en el caso de que el cuerpo sea el de los complejos y que la aplicación sea lineal conjugada o sesquilineal,por lo que siempre podremos escribir: f(a→1,a

→2,...,a

→p) = s

→ y simbolizando la aplicación f con un signo especial de multipli-cación tal como ♦ también escribiremos: a→1♦a

→2♦...♦a→p = s

→ y diremos que s→ es el producto de la multiplicación ♦ de los p vectores a→i.

Naturalmente, las reglas de esta multiplicación dependerán de las características propias de la aplicación f.

3.- Producto tensorial.

3.01.- Sea el conjunto producto A×B de dos espacios vectoriales ordenados sobre K y otro espacio vectorial W sobre K. Sea también una aplicación lineal de A×B en W, que expresaremos por ⊗, tal que para dos bases determinadas {a→i} y {b

→j} de A y B

respectivamente se verifique: ⊗(a→i,b

→j) = base de W.

Si y sólo si esto sucede con alguna aplicación lineal

⊗ decimos que W es un espacio producto tensorial de A por B, y entonces lo expresaremos por A⊗B y a sus vectores los llamaremos tensores.

Puede verse fácilmente que esto ocurrirá si y sólo si la dimensión de W es el producto de dimensiones de A y de B. A los tensores imagen de un elemento (u→,v→) de A×B, los expresamos así: ⊗(u→,v→) = u→ ⊗ v→ que leemos "producto tensorial de u→ por v→ ".

3,02.- Cuando para {a→i} base de A y {b→

j} base de B resulta {a→i⊗b

→j} una base de A⊗B y tenemos otras bases cualesquie-

ra {a→k’} de A y {b→m’} de B, tendremos que {a

→k’⊗b→m’} es también una

base de A⊗B.

Pues poniendo los a→k’ y los b→m’ en función de las bases

23

primeras, tenemos: a→k’ = αk

i a→i; b→

m' = βmj b→j

con matrices de cambio regulares, y podremos escribir: a→k’⊗b→m’ = ⊗(a→k,b

→m’) = ⊗(αk

i a→i,βmj b→

j) = αk

i βmj (a→i⊗b

→j)

Multiplicando por λkm resulta:

λkm(a→k’⊗b→m’) = λ

kmαk

i βmj (a→i⊗b

→j)

y dado que (a→i⊗b

→j) es una base, para que esta expresión sea nula

debe ser nulo λkmαk

i βmj para todo i y todo k, o sea, expresado por

cálculo matricial: ({αk

i } = M regular); ({λkm} = L); ({βmj} = N regular ):

MLN = 0 ⇔ M-1MLNN-1 = 0 ⇔ L = 0 ⇔ (∀k)(∀m): λkm = 0 y por lo tanto (a→k’⊗b→m’) también es base de A⊗B.

3.03.- La expresión general de un tensor τ→ de A⊗B en relación con la base (a→i⊗b

→j) que a su vez se refiere a la base

(a→i) de A y a la base (b→

j) de B es: τ→ = tij(a→i⊗b

→j)

o sea que todo tensor se puede expresar como sumatorio de productos tensoriales.

No siempre un tensor se puede identificar con un producto tensorial único v→⊗w→ pues expresando v→ y w→ en función de bases cualesquiera (a→i) de A y (b

→j) de B tendríamos:

v→ = via→i; w

→ = wjb→

j y por tanto: τ→ = tij(a→i⊗b

→j) = v

iwj(a→i⊗b→

j)

El tensor τ→ será un producto tensorial único si y sólo si, para dim. A = n y dim. B = m, es posible hallar n coeficien-tes vi y m coeficientes wj que verifiquen las nm ecuaciones tij = viwj y esto, para n+m < nm, en general no es posible.

3.04.- Sean (a→i’) y (b→j’) dos conjuntos de vectores de A

y de B respectivamente, y uno de ellos por lo menos no es libre. El conjunto (a→i’⊗b→j’) de A⊗B es ligado.

Pues si por ejemplo se tiene (i≠3): a→3’ = α

ia→i’

24

con los coeficientes αi no nulos, se verificará (a→3’⊗b→j’) = α

1(a→1’⊗bj’)+α2(a→2’⊗b→j’)+α

4(a→4⊗b→j’)+..+αn(a→n⊗b

→j’)

y en consecuencia el conjunto es ligado.

3.05.- Si hay una aplicación lineal biyectiva g, de A×B en otro espacio vectorial W' sobre K, resulta ser W' otro espacio vectorial producto tensorial de A por B.

Pues para {a→i} y {b→j} sendas bases de A y B se tiene:

g(a→i⊗b

→j) = g[⊗(a→i,b

→j)] = (g⊗)(a→i,b

→j)

y por ser a→i⊗b

→j una base de A⊗B y g biyectiva, g(a→i⊗b

→j) tendrá

que ser una base de W’. Por tanto W’ es otro espacio producto tensorial de A por B.

3.06.- Si existe una aplicación bilineal f de A×B en un espacio vectorial T cualquiera sobre el mismo cuerpo, existirá siempre una aplicación lineal g de A⊗B en T tal que para cualquier vector v→ de A y cualquier vector w→ de B se verifica: g(v→⊗w→) = f(v→,w→)

Puesto que existe siempre una aplicación lineal g de A⊗B en T tal que a la base (a→i⊗b

→j) hace corresponder los vectores

f(a→i,b→

j) y por tanto, al expresar v→ y w→ en función de las bases

respectivas, tendremos: g(v→⊗w→) = g(αia→i⊗βjb→j) = α

iβj[g(a→i⊗b→

j)] = αiβj [f(a→i,b

→j)] =

= f(αia→i,β

jb→

j) = f(v→,w→)

3.07.- Como la condición necesaria y suficiente para

que dos espacios vectoriales sobre K sean isomorfos y exista entre ellos alguna aplicación biyectiva, es que tengan igual dimensión, resulta de lo visto hasta ahora, que si dim A =n y dim B =m todos los espacios vectoriales de dimensión nm pueden ser considerados espacios productos tensoriales de A por B.

Por consiguiente, la estructura A⊗B es una relación de equivalencia en todos estos espacios de dimensión nm. A los efectos de cálculo no interesa distinguir unos de otros tales espacios A⊗B, pero sí interesa conocer su estructura común que los relaciona con otros espacios A y B, y particularmente conocer de cada vector el sumatorio de elementos de A×B del que son imagen.

Así pues a todos los diversos espacios productos tensoriales de A por B, los consideraremos representados en el cálculo por un único espacio A⊗B de dimensión nm y emplearemos la misma notación (a→⊗b→) para designar la imagen del elemento (a→,b

→) de A×B.

25

3.08.- Sean tres espacios vectoriales A, B y C sobre K y un espacio vectorial (A⊗B)⊗C. Si {a→i), {b

→j} y {c

→k} son bases

respectivas de A, B y C, tendremos que {[a→i⊗b→

j]⊗c→k} es una base de(A⊗B)⊗C.

Si hubiésemos considerado el espacio A⊗(B⊗C), hubiése-mos hallado que {a→i⊗[b

→j⊗c→

k]} es una base de éste.

No habiendo interés en distinguir entre sí ambas bases, se conviene que a→i⊗(b

→j⊗c→

k) = (a→

i⊗b→

j)⊗c→k = a→

i⊗b→

j⊗c→

k y por lo tanto (A⊗B)⊗C = A⊗(B⊗C) = A⊗B⊗C

Este espacio vectorial se denomina espacio producto tensorial de A por B por C y decimos que es de tercer orden y que sus vectores son tensores, en este caso de tercer orden. Los tensores correspondientes a elementos de A×B×C también se llaman productos tensoriales.

Es fácil ver que un producto tensorial es nulo si es nulo cualquiera de los factores.

3.09.- Existe una aplicación trilineal de A×B×C en A⊗B⊗C.

Si expresamos los vectores de un elemento cualquiera de A×B×C en función de sus bases respectivas, la correspondencia que determina la aplicación, es evidentemente la siguiente: (v→,w→,u→) = (via→i,w

jb→

j,ukc→k) ⇒ viwjuk(a→i⊗b

→j⊗c→

k)

3.10.- De la misma manera que hemos definido espacio producto tensorial de orden 3, podemos considerar espacios producto tensorial de p espacios vectoriales elementales y diremos que es orden p. Sus vectores se llaman igualmente tensores y se llaman productos tensoriales cuando corresponden a elementos del conjunto producto de los p espacios vectoriales elementales. Su dimensión es el producto de las dimensiones de los espacios factores.

Podríamos ver que sus propiedades son análogas a las ya descritas y nos limitaremos a reseñar algunas:

a) Los tensores siempre se pueden representar por sumatorios de productos tensoriales:

τ→ = tij..s(a→i⊗b

→j⊗...⊗p→s)

y solo algunos de ellos por un único producto tensorial.

b) Se verifica:

26

(a→⊗b→⊗..⊗[λh→'+µh"]⊗..⊗p→) = = λ(a→⊗b→⊗..⊗h→'⊗..⊗p→) + µ(a→⊗b→⊗..⊗h→"⊗..⊗p→)

c) Si y sólo si {a→i},{b→j},..,{p

→s} son bases de A,B,..,P,

tenemos que {a→i⊗b→

j⊗...⊗p→s} es una base de A⊗B⊗...⊗P.

Esta correspondencia determina una aplicación p-lineal de A×B×..×P en A⊗B⊗..⊗P.

d)Toda aplicación lineal biyectiva de A⊗B⊗..⊗P en un espacio vectorial W, determina que W sea también un espacio producto tensorial A⊗B⊗..⊗P.

e) Si f es una aplicación p-lineal de A×B×..×P en un espacio vectorial T cualquiera sobre el mismo cuerpo existe siempre una aplicación lineal g de A⊗B⊗..⊗P en T tal que para todo producto tensorial se verifica: g(a→⊗b→⊗...⊗p→) = f(a→,b→,...,p→)

f) Un producto tensorial es nulo si lo es cualquiera de sus factores.

3.11.- Por extensión, llamamos tensor de orden 1 a un simple vector y tensor de orden 0 a un escalar.

El orden de un tensor solo tiene sentido cuando se refiere al número de espacios vectoriales elegidos como factores.

27

4.- Productos sobre el cuerpo base.

4.01.- Sea el conjunto producto A×B de dos espacios vectoriales ordenados sobre C y sea también una forma sesquili-neal ♦ de A×B en C (Las aplicaciones sobre el cuerpo base reciben el nombre de formas). Sabemos que se verifica: ♦:(A×B ⇒ C) sesquilineal ⇔ •:(A×B* ⇒ C) bilineal siendo B* el espacio vectorial conjugado de B.

Refiriendo a B los vectores comunes de B*, tendremos: (∀a→A)(∀b→B): (λa

→)♦(µb→) = ♦(λa→,µb→) = λµ_

♦(a→,b→) = λµ_(a→♦b→)

4.02.- Espacios duales.

Sean dos espacios vectoriales, A de dimensión m y B* de

dimensión n, ambos sobre C. Diremos que son espacios duales uno del otro cuando

11. Existe una forma bilineal ♦ de los mismos en C, forma que determina un producto ♦ entre los vectores de A y los de B*

21.- El único vector de A cuyo producto es nulo con cualquiera de B* es el 0

→ de A, y el único vector de B* cuyo

producto es nulo con cualquiera de A es el 0→ de B*

Al producto que cumple estas condiciones lo llamamos

producto escalar.

4.03.- Denominemos F* al espacio vectorial de las formas lineales de B* en C y F al espacio vectorial de las formas lineales de A en C. Por lo tanto Dim F* = n y Dim F = m.

Sean también v→,v→’ vectores del espacio vectorial A y w→*, w→'* vectores de B*.

a) Considerando los productos v→♦w→* con v→ fijo y en que w→* describe B*, vemos que son imágenes de una determinada forma lineal de B* en C. Existe pues en F* un elemento f* bien determinado tal que para cualquier vector w→* de B* verifica v→♦w→* = f*(w→*)

Por la 10 condición la forma ♦ es bilineal, y a A le corresponde un subespacio F'* de F* y por la 20 condición esta correspondencia es inyectiva. Por tanto m≤n

b) Considerando los productos v→♦w→* con w→* fijo y en que v→ describe A, vemos que son las imágenes de una determinada forma lineal de A en C. Existe pues en F un elemento f bien determinado tal que para v→ arbitrario se verifica: v→♦w→* = f(v→)

28

Por la 10 condición, al ser la forma ♦ bilineal, a B*

le corresponderá un subespacio F' de F y por la 20 condición esta correspondencia es inyectiva. Por tanto n≤m

c) De a) y b) deducimos pues, por una parte, que debemos tener m=n o sea A y B* de igual dimensión, y por otra, que A es naturalmente isomorfo a F* y B* naturalmente isomorfo a F. El isomorfismo es natural, pues se ha deducido con independencia de bases.

4.04.- Dada una base {e→i} de B*, expresada en B, para A dual de B* consideraremos la base {e→j} tal que e→j♦e

→i = δji (símbolo de Kronecker)

que es la más cómoda para el cálculo, pues para vectores v→ de A y w→ de B* (expresado en B) cualesquiera, como v→=vje→j; w

→=wie→i

utilizando tales bases, su producto escalar es: v♦w→ = Sesqu.(vje→j),(wie

→i) = w_

ivj(e→j♦e

→i) = w_iv

jδji = w

_iv

i

Estas bases se llaman duales una de la otra.

El valor hallado corresponde a la siguiente operación matricial;

<w|v> = {w_1 w_

2 .. w_

n}

⎪⎪

⎪⎪

⎪⎪

⎪⎪

v

.

v

v

n

2

1

Si la base de A se considera real, es fácil ver que la

base dual será una base real de B* y recíprocamente, pues entonces el producto escalar de dos vectores reales siempre será real.

4.05.- Cambio de bases. Dadas dos bases duales {e→i} y {e→i} de A y B* respectivamente, vamos a hallar la base dual de otra base {f→j} de A, relacionada con la anterior por f

→j = αj

i e→i

Formemos la matriz A del cambio de bases colocando los coeficientes de los f

→j en columnas ordenadas y hallemos la matriz

A-1 inversa de A:

29

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

βββ

βββ

βββ

ααα

ααα

ααα

nn

n2

n1

2n

22

21

1n

12

11

1-

nn

n2

n1

2n

22

21

1n

12

11

..

:::::

..

..

=A ;

..

:::::

..

..

=A

Tendremos:

A-1A = I ⇔ αj

i β_

i

k = δjk

Expresada en B, la base dual buscada es el conjunto de

vectores {f→k} dados por

f

→k = βmk e→m

cuyos coeficientes son los conjugados de los elementos de cada fila de la matriz inversa de A, pues se verifica: f

→j♦f→k = (αj

i e→i)♦( βmk e→m) = αj

i β_m

k (e→i♦em) = αj

i β_

i

k = δjk

Un método análogo se utiliza para obtener {f

→j} en

función de {e→i} cuando conocemos {f→k} en función de (e→m}. Los

resultados obtenidos pueden resumirse con las siguientes expresiones matriciales simbólicas:

}Ae ... e e{=}f ... f f{ ;

e

:

e

e

A =

f

:

f

f

n21n21

n

2

1

1-

n

2

1

rrrrrr

r

r

r

r

r

r

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

4.06.- Cambio de coordenadas del vector v→ = vjf

→j de A y

del vector w →= wkf→k de B*, expresado en B, al variar las bases

duales de referencia de (fk,fk) a (e→i,e

→i), quedando sus nuevas notaciones en v→=vi’e→i de A y en w→=wi’e

→i de B*, este último expresado en B:

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⇒⇒

v

:

v

v

A =

v

:

v

v

v = v ev = fv = v

n

2

1

n

2

1

ij

jii

ij

jj

j αα rrr

w→ = wkf

→k = wkβik e→i ⇒ wi' = wkβi

k ⇒

{w1' w2' .. wn'} = {w1 w2 ... wn} A-1

30

De las expresiones obtenidas en este párrafo y el anterior, deducimos fácilmente que si los vectores de una base {e→

i} crecen uniformemente para convertirse en una nueva base {f→j},

resulta que:

a) Los coeficientes vi decrecen.

b) Los coeficientes wi crecen.

Por esta razón y atendiendo a la variación de una base {e→i} considerada como referencia principal, se denominan contravariantes los coeficientes que llevan supraíndice y covariantes los que llevan subíndice. Naturalmente, si hubiésemos tomado como referencia principal la base {e→i}, sucedería lo contrario, pero aquí seguiremos la costumbre de considerar como base principal la de los vectores denotados con subíndice.

4.07.- Cálculo de coeficientes. v→♦e→i = (vje

→j)♦e→i = vj(e→j♦e→i) = vi

4.08.- Productos hermíticos.

a) Dado un espacio vectorial A n-dimensional, sea

ϕ:A×A → C una forma sesquilineal, es decir, tal que: ϕ(αv→,βw→) = αβ

_[(ϕ(v→,w→)]

Si además se verifica:

ϕ(a→,b→) = [ϕ(b→,a→)]* con dos vectores a→ y b

→ cualesquiera de A, decimos que la forma ϕ

es hermítica, ó que el producto que determina en A es hermítico.

Por tanto, para a→=b→, el producto hermítico es real.

b) Si ϕ es hermítica, podemos deducir de ello, que

existe una forma sesquilineal ϕ' simétrica, es decir, tal que: ϕ'(αv→,βw→) = α

_β[ϕ'(v→,w→)]

que verifica: ϕ'(a→,b→) = ϕ(b→,a→) y por tanto los productos que ϕ' determina en A son conjugados de los determinados por ϕ y los llamaremos hermíticos conjugados.

c) En el caso de que A=C, siendo C un espacio vectorial estructurado con el cuerpo de los complejos, podremos definir como forma hermítica: f(α,β) = αβ

_

31

que determina en C un producto hermítico que en general no coincide con el producto propio del cuerpo, y que siempre es real para factores idénticos (α=β).

33

D.- ALGUNOS ESPACIOS NOTABLES.

1.- Espacios hermíticos.

1.01.- Sea F un espacio vectorial sobre el cuerpo C de los complejos. Diremos que es un espacio hermítico cuando se ha definido en él un producto en C de dos vectores cualesquiera a→ y b→, llamado hermítico, que para λ y µ escalares cualesquiera y c→∈F, verifica las siguientes leyes:

10. a→·b→ = (b

→·a→)* (Hermiticidad)

20. (λa→+µb→)·c→ = λ(a→·c→) + µ(b→·c→) (Linealidad 1er factor)

1.02.- En consecuencia podemos establecer:

a) c→·(λa→+µb→) = λ

_(c→·a→) + µ

_(c→·b

→) (Linealidad conj. 21 factor)

b) 0→·a→ = a→·0

→ = 0

c) a→·a→ = número real puesto que se verifica: a) c→·(λa→+µb→) = [(λa→+µb→)·c→]* = λ

_(a→·c→)* + µ

_(b→·c→)* = λ

_(c→·a→) + µ

_(c→·b

→)

b) 0→·a→ = (b

→-b→)·a→ = (b

→·a→)-(b

→·a→); a→·0

→ = a→(b

→-b→)= a→b

→ - a→b

→ = 0

c) a→·a→ = (a→·a→)*

Evidentemente, cualquier subespacio de un espacio hermítico es también hermítico.

1.03.- Sea {e→i} un generador de F de dimensión n finita y formemos la matriz

}g{ = }e·e{ =

e·e..e·ee·e

:::::

e·e..e·ee·e

e·e..e·ee·e

= G ijji

nn2n1n

n22212

n12111

rr

rrrrrr

rrrrrr

rrrrrr

⎪⎪

⎪⎪

⎪⎪

⎪⎪

A esta matriz la llamamos matriz fundamental de F para el generador considerado y siempre será hermítica por la 10 condición de '1.01, y por tanto de determinante real.

1.04.- Una matriz fundamental es regular si y sólo si se cumplen las siguientes condiciones:

10. Se refiere a una base.

20. El único vector cuyo producto con todos los del espacio incluído él mismo, es nulo, es el vector nulo. Esto equivale a decir que el único vector que multiplicado por todos los vectores de una base da 0, es el vector nulo.

34

Por cálculo matricial sabemos que multiplicando cada matriz fila i de una matriz regular por un escalar λi y sumando, la suma nula exige que sean nulos todos los λi. Expresando esta suma podemos escribir: λ1{e→1·e

→1 e

→1·e→2 .. e

→1·e→

n} + λ2{e→1·e

→1 e

→2·e→2 .. e

→2·e→

n} + .. + + λn{e→n·e

→1 e

→n·e→

2 .. e→

n·e→n} = {0} ⇔

{(λie→i)·e

→1 (λ

ie→i)·e→2 .. (λ

ie→i)·e→n} = {0} ⇔

(∀j): (λie→i)·e

→j = 0

Cuando {e→i} es un generador no base, para ciertos

valores de los λi no todos nulos podremos tener λie→i=0 y la matriz no será regular.

Cuando {e→i} es una base y existe un vector a→ no nulo

tal que: (∀j): a→·e→j = 0 podemos elegir los λi no todos nulos para obtener λie→i = a

→ y entonces todos los (λie→i)·e

→j serán nulos y la matriz no es

regular.

Si {e→i} es una base y no existe el anterior vector a→≠0→,

será preciso λie→i=0→ para que se anulen los (λie→i)·e

→j, Por consi-

guiente todos los λi habrán de ser nulos y la matriz será regular.

En consecuencia, todas las matrices fundamentales correspondientes a generadores no bases, son irregulares y su determinante es nulo y esto tanto si se considera el espacio total como un subespacio.

1.05.- Si conocemos la matriz S fundamental para una base {f→k}, la matriz fundamental para otra base {e

→i}, al conocer

la matriz del cambio de bases, podremos hallarla así: S' = {e→i·e

→j} = {(λi

k )f→k}·{(λj

m )f→

m} = {λik (f

→k·f→m)λ_

j

m} y podemos comprobar la ecuación matricial correspondiente:

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

f·f..f·ff·f

:::::

f·f..f·ff·f

f·f..f·ff·f

..

:::::

..

..

=S

nn2n1n

n22212

n12111

nn

2n

1n

n2

22

12

n1

21

11

rrrrrr

rrrrrr

rrrrrr

λλλ

λλλ

λλλ

GA*A=

..

:::::

..

..

nn

n2

n1

2n

22

21

1n

12

11

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

λλλ

λλλ

λλλ

siendo A* la matriz transpuesta de la conjugada de A, conjugada a su vez de la considerada en 'C 4.05, y todas regulares.

1.06.- Consecuencia de esta expresión y de que los determinantes de A y A* son conjugados, es que un cambio de bases

35

no altera el signo, o en su caso la nulidad, del determinante de las matrices fundamentales de un espacio hermítico.

1.07.- Ortogonalidad.

Decimos que dos vectores v→ y w→ son ortogonales cuando

se verifica v→·w→=0 y que un vector u→ es ortogonal a sí mismo cuando se verifica u→·u→=0.

En cuanto a subespacios, diremos que G y H son ortogonales cuando se verifica: (∀v→G)(∀w→H): v

→·w→ = 0 Para ello, si {g→i} y {h

→j} son sendas bases de G y H, es

suficiente que se verifique (∀i)(∀j): g→i·h

→j = 0

Llamamos base ortogonal {e→i} a toda base cuyos

elementos sean ortogonales dos a dos, es decir: (i≠j): e→i·e

→j = 0

1.08.- Si en un subespacio de F todos los vectores son

ortogonales a sí mismos, cualquier par de vectores será ortogo-nal.

Pues si v→ y w→ pertenecen al mismo, también pertenecerán a él los vectores v→+w→ y v→+iw→ y podremos escribir: 0 = (v→+w→)·(v→+w→) = (v→·v→)+(v→·w→)+(w→·v→)+(w→·w→) = (v→·w→)+(w→·v→) 0 = (v→+iw→)·(v→+iw→) = (v→·v→)-i(v→·w→)+i(w→·v→)-ii(w→·w→)

0 = -(v→·w→)+(w→·v→)

Por consiguiente: (v→·w→) = (w→·v→) = 0

1.09.- Llamamos núcleo N del espacio F, al conjunto de vectores que son ortogonales, tanto a sí mismos como a los demás del espacio. Es un subespacio vectorial pues para cualesquiera vectores v→,w→ de N y a→ de F tendremos: (λv→+µw→)·(λv→+µw→) = λλ

_(v→·v→) +λµ

_(v→·w→) +µλ

_(w→·v→) +µµ

_(w→·w→)=0

(λv→+µw→)·a→ = λ(w→·a→)+ µ(w→·a→) = 0 = a→·(λv→+µw→)

1.10.- Si {v→i} es un conjunto finito de vectores, no ortogonales a sí mismos y ortogonales entre sí dos a dos, todo vector w→ no generado por él se puede descomponer en dos sumandos, el uno ∑λiv

→i perteneciente al subespacio generado por {v

→i} y el

otro, w→’, ortogonal al mismo.

36

Si existe una solución, tendremos: w→= ∑λiv

→i + w

→’ y multiplicando miembro a miembro por un elemento v→k del conjunto se tendrá: w→·v→k = (∑λiv

→i)·v

→k + w

→’3v→k y como por hipótesis w→’·v→k=0 y (∑λiv

→i)·v

→k = λkv

→k·v→

k se tendrá:

w→·v→k = λkv→k·v→k ⇒

v·vv·w=

kk

kk rr

rr

λ

Por lo tanto

0=v·w-v·w=v·w ;vv·vv·w - w = w ;v

v·vv·w = v iiii

ii

ii

ii

iii

rrrrrrrrr

rrrrr

rr

rrr ′∑′∑∑ λ

y es fácil ver que coinciden los subespacios generados por {v→i} y w→ y por {v→i} y w

→’.

1.11.- Método de ortogonalización de Schmidt.

Un espacio hermítico finitamente generado por una sucesión {e→n} de vectores linealmente independientes siempre puede referirse a otra sucesión de vectores ortogonales entre sí dos a dos.

Si en el espacio no hay ningún vector no ortogonal a sí mismo, el espacio coincide con su núcleo y todas las bases son ortogonales. Si hay uno tal como v→, se establece una base que incluya a v→ y procederemos a sustituir todos los vectores base distintos de v→, por los ortogonales a v→ obtenidos con las fórmulas del párrafo anterior aplicadas a un único vector v→. El subespacio generado por estos vectores ortogonales es ortogonal y suplementario al generado por v→.

En este subespacio, separaremos un vector w→ que no sea ortogonal a sí mismo. Si no existe, tal subespacio será el núcleo y la base hallada es válida. Si existe, determinaremos una base del subespacio que lo incluya y cada uno de los vectores base distintos de w→ lo sustituiremos por otro ortogonal a v→ y w→ de la misma manera que antes.

Hemos obtenido así un subespacio generado por los vectores base distintos de v→ y w→ que es suplementario y ortogonal al generado por v→ y w→.

Procediendo reiteradamente del mismo modo, obtendremos finalmente una base de las características deseadas.

1.12.- Evidentemente si y sólo si un generador es una base ortogonal, su matriz fundamental será diagonal, y entonces

37

sus elementos diagonales serán reales.

Vamos a ver que todas las matrices diagonales de F tienen entre sus elementos diagonales la misma cantidad de elementos positivos, la misma cantidad de elementos negativos y la misma cantidad de elementos nulos.

Consideremos una base ortogonal que nos da una matriz

fundamental diagonal con r elementos positivos, s elementos negativos y t elementos nulos. Por lo tanto la suma de r, s y t es la dimensión n del espacio.

Los vectores base correspondientes al mismo signo generan respectivamente los subespacios F +,F - y F o que son disjuntos y cuya suma es F. Sus dimensiones son respectivamente r, s y t.

Para cada uno de ellos, con sus vectores no nulos se verifica: a→·a→ = (∑αie

→i)·(∑αje

→j) = ∑∑αiα

_j(e→i·e→j) = ∑αiα

_i(e→i·e→i)

Por tanto, para F + tendremos a→·a→>0, para F - se tiene

a→·a→<0 y para F o será a→·a→ = 0, y con este motivo llamamos a estos subespacios, subespacio positivo, subespacio negativo y núcleo respectivamente.

Si para otra base ortogonal no coincidieran r,s y t, como su suma seguirá siendo n, tendríamos por ejemplo r'>r elementos positivos y por tanto F ’+ de dimensión r'>r y R’ + s + t > n y F ’+, F - y F o no serían disjuntos, lo que es imposible.

1.13.- Caso particular: F -=0→

En este caso, ninguna matriz fundamental tendrá determinante negativo, no sólo para el espacio F total, sino para cualquier subespacio del mismo.

Las expresiones de esta circunstancia son las llamadas desigualdades de Schwartz y que son las siguientes:

10. 0 )v·w)(w·v( - )w·w)(v·v( 0 w·wv·w

w·vv·v≥⇔≥ rrrrrrrr

rrrr

rrrr

20. 0

u·uw·uv·u

u·ww·wv·w

u·vw·vv·v

≥rrrrrr

rrrrrr

rrrrrr

⇔ (v→·v→)(w→·w→)(u→·u→)+(v→·w→)(v→·u→)(u→·v→)+(w→·v→)(u→·v→)(v→·u→)- -(u→·u→)(v→·w→)(w→·v→)-(v→·v→)(u→·v→)(v→·u→)-(w→·w→)(u→·v→)(v→·u→)≥0

38

etc.

1.14.- El signo positivo corresponde a una base con F o=0→ (núcleo nulo). En este caso particular de núcleo nulo, el espacio se denomina definido positivo.

Cuando el núcleo no es nulo al espacio con F -=0→ se le denomina semidefinido positivo.

1.15.- Espacio sobre R correspondiente.

Sea un espacio vectorial E sobre el cuerpo de los números reales tal que a dos vectores cualesquiera a→ y b

→ del

mismo sabemos hacer corresponder un número real llamado producto de a→ por b

→ y expresado por a→·b

→ de manera que siendo λ y µ números

reales cualesquiera se verifiquen las siguientes leyes:

10 a→·b→ = b

→·a→ (Simetría)

20 (∀c→E): (λa→+µb→)·c→ = λ(a→·c→)+µ(b→·c→) (Linealidad 1er factor)

Este espacio tendrá evidentemente las mismas propiedades que

los espacios hermíticos si se tiene en cuenta que ahora la hermiticidad viene sustituída por la simetría y que el conjugado de un número real es este mismo número real.

39

2.- Espacio hermítico E con núcleo nulo.

2.01.- Estos espacios vectoriales hermíticos, para los que se suprime el signo del producto hermítico, se pueden definir como los espacios vectoriales hermíticos en general, añadiendo a las dos condiciones citadas en '1.01, la siguiente:

30 (∀x→E): a→x→ = 0 ⇔ a→ = 0

→ (Núcleo = 0

→)

que nos da la ley de simplificación: (∀x→E): a

→x→ = b→x→ ⇔ a→ = b

puesto que se verifica: (∀x→E): a

→x→=b→x→ ⇔ (∀x→E): (a

→-b→)x→=0 ⇔ a→-b

→=0 ⇔ a→=b

La citada condición 30 se puede sustituir por la

siguiente:

3'0 Para una base {e→i} de E se verifica: (∀i): a→e→i=0 ⇔ a→=0

Pues todo vector x→ de E se puede representar por

x→ = xie→i y tendremos: (∀i): a→e→i=0 ⇔ (∀x→E): 0=x

i(a→e→i) = a→(xie→i) = a

→x→

2.02.- Para estos espacios es válido todo lo dicho para los espacios hermíticos, a excepción de lo que se encuentre afectado por la nueva condición 30.

A continuación señalaremos las diferencias a tener en cuenta.

a) Una matriz fundamental es regular si y sólo si se refiere a una base.

b) No puede existir ninguna base ortogonal que contenga un vector ortogonal a sí mismo.

c) Existe siempre algún vector no ortogonal a sí mismo. d) Al aplicar el metodo de ortogonalización de Schmidt, los

sucesivos subespacios que se van considerando tienen por núcleo el vector nulo, pues si tuvieran un vector no nulo ortogonal a todos los del subespacio, lo sería a los vectores base ya determinados, con lo que no solamente sería ortogonal a sí mismo sino que lo sería a los sucesivos vectores base que se fueran encontrando lo que por hipótesis no es posible.

e) No todos los subespacios tienen por núcleo el vector nulo. Un ejemplo evidente es el subespacio unidimensional generado por un vector ortogonal a sí mismo.

f) Una matriz fundamental diagonal no contiene ningún valor nulo. Al conjunto {++..+--..-} de sus signos se le llama signatura de la matriz y también del espacio, pues es propia y

40

característica del mismo. g) Tanto E+ como E- tienen como núcleo el vector nulo.

2.03.- De acuerdo con el estudio efectuado con los

espacios vectoriales duales, el producto escalar aquí definido establece un isomorfismo canónico entre el espacio vectorial E y su dual E*. Tal espacio hermítico resulta ser así, en cierto modo, dual de sí mismo.

Se conserva el concepto de base dual de una base {e→i} original que ahora denominaremos {e→i} y será otra base del espacio. Estas bases verifican: e→ie

→j = e→je→i = δji (símbolo de Kronecker)

y su uso es el mismo que para espacios vectoriales distintos.

Puede comprobarse que la base dual de la base dual de una dada es la base original y que si cambiamos la base {e→i} por la {f

→j}, la nueva base dual {f

j} se obtiene como en 'C 4.05 y 'C 4.06.

Tomaremos como base de referencia principal, tal como decíamos allí, a una base expresada por subíndices tal como {e

_i}

y, por consiguiente, para un vector cualquiera v→=vie→i=vje→j

tomaremos los coeficientes vi como contravariantes y los coeficientes vi como covariantes.

Podremos escribir por tanto:

v→e→j = (vie→i)e→j = vi(e→ie

→j) = vj ⇒ e→jv→ = v_j

v→e→i = (vje

→j)e→i = vj(e→je→i) = vi ⇒ e→jv

→ = v_

j

v→w→ = (vie→i)(wje→j) = w

_iv

i

2.04.- La matriz de cambio para pasar de coeficientes contravariantes a covariantes es la matriz fundamental de la base principal. La matriz inversa, correspondiente al cambio inverso, es la matriz fundamental de la base dual: v→ = vie→i = vie

→i; G = {gij} = {e→ie→

j}; gij = e→ie→j

vi=v→e→i=(vke

→k)e→i=vkgki; vj=v

→e→j=(vie→i)e

→j=v

i(e→ie→j)=v

igij=vkgkigij

y en consecuencia, {gki}{gij} = {δ

k

j} = Matriz unidad

2.05.- El conjunto de los vectores ortogonales a un subespacio F de dimensión r de E n-dimensional, es un subespacio G de dimensión n-r, y todos los vectores del subespacio intersec-ción de F y G son ortogonales a sí mismos y a los demás de tal intersección.

Efectivamente, pues si u→ es un vector cualquiera de F

41

se verifica v→,w→∈G ⇒ (λv→+µw→)u→ = λv→u→ + µw→u→ = 0 ⇒ λv→+µw→ ∈ G

Su dimensión es n-r, pues considerando una base {e→i} de E tal que sus r primeros vectores formen una base de F, y su base dual {e→i}, tendremos: (i≠j): e→ie

→j = 0 y habrá por tanto n-r vectores e→j que serán ortogonales a todo e→i con i de 1 a r y por tanto a F, que son los vectores e→j con j de r+1 a n. Formarán una base de G y G tendrá por lo tanto una dimensión n-r.

En el subespacio intersección de F y G todos los vectores pertenecerán a F y a su ortogonal G. Por consiguiente, el producto escalar de unos con otros y de cada uno consigo mismo es nulo.

2.06.- Un espacio hermítico de núcleo igual a 0→ queda

evidentemente determinado, cuando conocemos una base del mismo y la matriz fundamental correspondiente, y además sabemos expresar un vector cualquiera como combinación lineal de los vectores de esta base.

2.09.- Espacio euclidiano.

Llamamos espacio euclidiano a todo espacio vectorial E

de núcleo nulo sobre el cuerpo de los números reales, cuando a cada par a→,b→ de vectores del mismo, sabemos hacer corresponder un número real llamado producto escalar de a→ por b

→ que expresamos

por a→b→, de manera que siendo λ y µ números reales cualesquiera,

se cumplen las siguientes leyes:

10 a→b→ = b

→a→ Simetría

20 (∀c→E): (λa→+µb→)c→=λ(a→c→)+µ(b→c→) Linealidad 11 factor

Las propìedades de un espacio euclidiano son las mismas

de los espacios hermíticos de núcleo igual a 0→, teniendo ahora en

cuenta que:

a) El conjugado de un escalar o vector es el mismo escalar o vector.

b) La hermiticidad es simetría. c) Las matrices A* son transpuestas de las A ('1.05). d) Las aplicaciones lineales conjugadas son lineales. e) La aplicaciones multilineales conjugadas son multilinea-

les. f) Las aplicaciones sesquilineales son bilineales.

2.10.- Sobre un espacio vectorial real E en 'B6.01

hemos construído un espacio vectorial complejo E del cual el espacio E forma parte. Ahora bien, si E está dotado de un producto escalar y queremos seguir considerándolo parte de E, es

42

necesario que éste a su vez esté dotado de un producto escalar y coincida asimismo con el primero por lo que respecta a vectores reales.

Si E es euclidiano, el requisito anterior lo cumple evidentemente un E hermítico de núcleo 0→ tal que no sólo tenga una base común con E sino que también coincidan sus matrices fundamentales. Verificándose esto, también serán comunes las demás bases reales así como las matrices fundamentales correspon-dientes.

Dado un espacio vectorial complejo también determinába-mos un espacio vectorial real E como formando parte del mismo. Pero si E está dotado de un producto escalar y ha de incluir a E, habrá que dotar a E de uno tal que que los resultados coincidan para los vectores reales.

Si E es hermítico de núcleo 0→ la base de E para

construir E habrá de ser de matriz fundamental real. El espacio vectorial E construído de esta manera, es euclidiano y las matrices fundamentales de E lo serán también de E y asimismo todas las bases de E serán bases reales de E.

2.11.- Sean dos bases duales {e→i} y {e→i}y un vector v v→

=vie→i=vie→i. Tendremos ahora:

vi = v

→e→i = e→iv→; vi = v→e→i = e→iv→

43

3.- Espacios prehilbertianos.

3.01.- Llamamos espacios prehilbertianos a los espacios

hermíticos de núcleo nulo y signatura positiva.

Según vimos en '2.02f la signatura positiva equivale a que para todo vector v→ no nulo se tenga v→v→>0.

Por consiguiente, podemos definir como espacio prehilbertiano a todo espacio vectorial sobre el cuerpo de los complejos dotado de un producto escalar sin signo, que para cualesquiera vectores v→,c→,a→,b

→ y cualesquiera escalares λ, µ

verifica las siguientes condiciones:

10 a→ b→ = (b

→ a→)* Hermiticidad

20 (λa→ + µb→)c→ = λ(a→ c→) + µ(b→ c→) Linealidad 11 factor 30 (v→≠0→): v→v→>0; (v→=0→): v→v→ = 0

Evidentemente, todo lo dicho respecto a las espacios

hermíticos de núcleo nulo seguirá válido ahora.

3.02.- No obstante señalaremos algunas características especiales deducidas de la nueva hipótesis más restringida:

a) En un espacio prehilbertiano, todos sus subespacios son también prehilbertianos.

b) En un espacio prehilbertiano no hay vectores ortogonales a sí mismos, excepto el vector nulo.

Por lo tanto, si un subespacio es ortogonal a otro ambos son disjuntos.

c) Todas las matrices fundamentales relativas a bases del espacio tienen su determinante real y positivo y no nulo.

Puesto que evidentemente el determinante de una matriz fundamental diagonal es positivo y un cambio de bases no altera el signo del determinante ('1.05), pues se verifica:

G = A*FA y las matrices A y A* tienen determinantes conjugados.

d) Si F’ es el subespacio ortogonal a F y G’ es el subespa-cio ortogonal a G, tendremos

F⊃G ⇔ F’⊂G’ por constituir cada par, un par de subespacios ortogonales y suplementarios.

3.03.- Perpendicularidad.

Decimos que dos subespacios F y G son perpendiculares, cuando para sus subespacios ortogonales respectivos F’ y G’ se

44

verifica: F’⊃G ⇔ G’⊃F ó F’=G ⇔ G’=F ó F’⊂G ⇔ G’⊂F

Si las dimensiones de F y G son m y p respectivamente,

las de F' y G' serán n-m y n-p respectivamente y habrá los siguientes casos de perpendicularidad:

a) (m+p>n ⇔ p>n-m): F’⊂ G ⇔ G’⊂ F

b) (m+p=n ⇔ p=n-m): F’= G ⇔ G’= F

c) (m+p<n ⇔ p<n-m): F’⊃ G ⇔ G’⊃ F

El caso a) es de simple perpendicularidad, el b) es evidentemente el de ortogonalidad suplementaria y entonces decimos que un subespacio es el ortogonal al otro. El caso c) es de ortogonalidad en general.

Basándonos en el cuadro anterior, diremos también que dos subespacios son simplemente perpendiculares cuando todos los vectores ortogonales al uno pertenecen al otro (caso a), que son ortogonales cuando todos los vectores del uno son ortogonales al otro (caso c) y que son ortogonales suplementarios cuando suceden ambas cosas a la vez (caso b).

3.04.- Sean dos pares F, F’ y G G’ de subespacios ortogonales suplementarios. El subespacio ortogonal suplementario de F∩G es F'+G'.

Pues por una parte, todo vector de F∩G por pertenecer a la vez a F y a G, es perpendicular a F’ y a G’ y por lo tanto también a F’+G’.

Y por otra parte, toda perpendicular a F’+G’ lo será a F’ y a G’, por lo que pertenecerá a F y a G y por consiguiente a F∩G.

Análogamente demostraríamos que el subespacio ortogonal suplementario de F1∩F2∩...∩Fr es F1’+F2’+...+Fr’.

3.05.- Desigualdades de Schwartz.

Primera.- Sea el subespacio generado por dos vectores v→ y w→. La matriz fundamental correspondiente es:

⎭⎬⎫

⎩⎨⎧

wwvw

wvvvrrrr

rrrr

y como su determinante ha de ser positivo o nulo, tendremos: (v→v→)(w→w→) - (v→w→)(w→v→) ≥ 0 con el signo igual referido a v→ y w→ no independientes.

45

Segunda.- Sea el subespacio generado por tres vectores u→,v→ y w→. Su matriz fundamental es:

⎪⎭

⎪⎬

⎪⎩

⎪⎨

uuwuvu

uwwwvw

uvwvvv

rrrrrr

rrrrrr

rrrrrr

y por igual razón que en el caso anterior tendremos: (v→v→)(w→w→)(u→u→) + (v→w→)(w→u→)(u→v→) + (w→v→)(u→w→)(v→u→) - - (v→v→)(u→w→)(w→u→) - (w→w→)(u→v→)(v→u→) - (u→u→)(w→v→)(v→w→) ≥ 0 con el signo igual referido a v→,w→ y u→ no independientes.

Sucesivas.- Con los subespacios generados por cuatro o más vectores iríamos hallando sucesivas desigualdades.

3.06.- Normas y módulos.

Llamaremos aquí, norma de un vector v→, y la designare-mos por ||v→||, el número real no negativo definido por: ||v→|| = v→v→

Llamaremos longitud o módulo de un vector v→, y la designaremos por |v→| o bien v, a la raíz cuadrada positiva de su norma:

vv = v = vrrr

3.07.- Denominaremos norma ||λ|| y módulo |λ| de un

complejo λ a los siguientes valores positivos reales:

λλλλλλ = ; =

3.08.- Las normas y módulos verifican las siguientes propiedades:

a) ||λv→|| = ||λ||||v→||; |λv→| = |λ||v→|

Pues tenemos: ||λv→|| = (λv→)(λv→) = (λλ

_)(v→v→) = ||λ||||v→||

y también por consiguiente: |λv→| = |λ||v→|

b) ||v→+w→|| + ||v→-w→|| = 2||v→|| + 2||w→||

Pues se verifica:

46

||v→+w→|| = (v→+w→)(v→+w→) = v→v→ + v→w→ + w→v→ + w→w→ ||v→-w→|| = (v→-w→)(v→-w→) = v→v→ - v→w→ - w→v→ + w→w→ y sumando miembro a miembro: ||v→+w→|| + ||v→-w→|| = 2v→v→ + 2w→w→ = 2||v→|| + 2||w→||

c) La primera desigualdad de Schwartz referida a normas y longitudes, queda así: ||v→||||w→|| - ||v→w→|| ≥ 0 ⇔ |v→||w→| ≥ |v→w→|

d) Desigualdad triangular: |v→+w→| ≤ |v→|+|w→|

Por una parte se verifica: ||v→+w→|| = (v→+w→)(v→+w→) = v→v→ + v→w→ + w→v→ + w→w→

Para v→w→ = α+βi se tiene w→v→ = α-βi y por tanto, al sumar los dos productos escalares, se obtiene: v→w→ + w→v→ = 2α ⇔ 2(v→w→ + w→v→) = α y al multiplicar:

βαβα 2222 + = wv + = )vw)(wv(rrrrrr ⇒

Por consiguiente:

2(v→w→ + w→v→) ≤ |v→w→| ⇔ v→w→ + w→v→ ≤ 2|v→w→| y teniendo en cuenta la primera desigualdad de Schwartz vista en c) tendremos también: v→w→ + w→v→ ≤ 2|v→||w→|

Por otra parte, hemos visto que se verifica: ||v→+w→|| = v→v→ + v→w→ + w→v→ + w→w→ y por consiguiente: ||v→+w→|| ≤ v→v→ + w→w→ + 2|v→||w→| Pero como tenemos: v→v→ + w→w→ + 2|v→||w→| = |v→|2 + |w→|2 + 2|v→||w→|= (|w→|+|v→|)2 tendremos finalmente: |v→+w→| ≤ |v→| + |w→|

El signo igual corresponde a que las dos desigualdades que hemos utilizado en la demostración sean igualdades. Esto, como puede verse fácilmente, ocurrirá con la desigualdad de

47

Schwartz cuando v→=λw→ y con la otra para β=0. En resumen, el signo igual corresponde a v→=λw→ con λ real.

e) Haciendo w→=t→-v→, resulta una nueva expresión:

|t

→| = |v+(t

→-v→)| ≤ |v→| + |t→-v→| ⇔

|t

→| - |v→| ≤ |t→-v→|

3.09.- De la definición de espacio normado y de los

párrafos anteriores se desprende que todo espacio prehilbertiano es un espacio normado en relación con las longitudes de los vectores (y no con las normas tal como aquí se han definido). Pues se cumplen las condiciones:

10 |v→| > 0 cuando v→≠0→; |0→| = 0 20 |v→+w→| ≤ |v→| + |w→| 30 |λv→| = |λ||v→|

3.10.- De la definición de espacio métrico y de lo

visto anteriormente, deducimos que todo espacio prehilbertiano es métrico, al tomar ahora como distancia entre v→ y w→ al valor |v→-w→|.

Pues se verifican las condiciones

10 |v→-w→| > 0 para v→≠w→; |v→-w→| = 0 para v→ = w→ 20 |v→-w→| = |w→-v→| 30 |v→-w→| ≤ |v→-u→| + |u→-w→|

y la última condición es la desigualdad triangular, pues v→-w→ = (v→-u→) + (u→-w→).

3.11.- Hemos visto que un espacio prehilbertiano es métrico, cuando tomamos como distancia entre dos vectores v→ y w→ al número real |v→-w→|.

Vamos a traducir ahora los conceptos de espacio métrico general en términos de espacios prehilbertianos

a) Una sucesión de vectores {u→n} converge hacia el límite u→

si |u→n-u→| → 0, cuando n → ∞, es decir, cuando dado un ε

arbitrario existe un índice N tal que |u→n-u→| ≤ ε para n≥N. El

vector u→ está entonces unívocamente determinado por la sucesión {u→n}. Notaciones: u

→n → u

→ o bien u→=lím u→n, etc.

b) Una sucesión de vectores {u→n} es convergente, si existe un vector u→ tal que u→n → u

→. En caso contrario la sucesión es divergente.

c) Una sucesión de vectores {u→n} es de Cauchy si |u→m-u→n|→0

cuando m,n → ∞; es decir, que dado un ε>0 arbitrario, existe un índice N tal que |u→m-u

→n| ≤ ε para m,n≥N. Toda sucesión convergente

es de Cauchy; la recíproca no es cierta.

48

d) Un espacio prehilbertiano es completo si toda sucesión de Cauchy converge, esto es, si la condición |u→m-u

→n|→0 implica que

existe un vector u→ tal que u→n → u→.

3.12.- Llamamos espacio de Hilbert a todo espacio

prehilbertiano completo.

3.13.- Decimos que un conjunto base de un espacio prehilbertiano es completo, cuando el único vector ortogonal a todos sus elementos es el vector nulo. Se demuestra que siempre existe un conjunto así formado por vectores de módulo uno ortogonales entre sí dos a dos, pero que no siempre puede expresarse con una sucesión. Cuando se puede expresar con una sucesión, se denomina base ortonormal.

3.14.- Todo espacio prehilbertiano con una base ortonormal se denomina separable, y son siempre separables los espacios prehilbertianos de dimensión finita.

Un vector v→ cualquiera de un espacio prehilbertiano separable en virtud de una sucesión o base ortonormal {e→n} tiene las siguientes propiedades: v→ = ∑(v→e→i)e

→i = v

ie→i

||v→|| = ∑(v→e→i)

2 = ∑(vi)2 (i→∞): vi→0

49

4.- Espacios propiamente euclidianos.

4.01.- Denominamos espacio propiamente euclidiano a

todo espacio euclidiano de signatura positiva.

Por consiguiente espacio vectorial propiamente euclidiano es todo espacio vectorial sobre el cuerpo de los números reales tal que a todo par a→,b

→ de vectores del mismo

sabemos hacer corresponder un número real llamado producto escalar de a→ por b

→, que expresamos por a→b

→, de manera que siendo λ

y µ números reales cualesquiera se cumplan las siguientes leyes: 10 a→b

→=b→a→ Simetría.

20 (∀c→E): (λa→+µb→)c→ = λ(a→ c→)+µ(b→ c→) Linealidad 11 factor

30 (v→≠0): v→v→>0; (v→=0): v→v→ = 0

Así pues un espacio propiamente euclidiano tiene también todas las propiedades de un espacio prehilbertiano, teniendo en cuenta las observaciones de '2.09.

4.02.- Tengamos en cuenta que la matriz A* relativa a A en un espacio prehilbertiano, será ahora la matriz A~ transpuesta de A.

Por lo tanto, si a una base del espacio propiamente euclidiano corresponde la matriz fundamental G, con un cambio de bases de matriz A y de acuerdo con '1.05, ahora obtendremos la nueva matriz fundamental G’ de la manera siguiente: G’ = A~GA

4.03.- La norma ||v→|| de un vector v→ se expresa frecuen-temente por ||v→|| = v→2 = v2 y su módulo por |v→| = v

4.04.- Como ahora v→w→=w→v→, y v→v→>0 para v→≠0→,la primera desigualdad de Schwartz adoptará nuevas formas: (v→v→)(w→w→) - (v→w→)(w→v→) ≥ 0 ⇔ v2w2 ≥ (v→w→)2 ⇔

1+ vwwv

1- wv

)wv( 1

22

2

≤≤⇔≥rrrr

Existe pues siempre un número real α del intervalo

[0,π], tal que

vwwv

= cosrr

α

50

A este número se le llama ángulo de los dos vectores v→ y w→ y es una función simétrica de los mismos. La introducción del ángulo α, da al producto escalar de los espacios propiamente euclidianos, su forma clásica. v→w→ = vw cos α

4.05.- Si hacemos:

γβα cos = uvvu

cos = wuuw

cos = vwwv

rrrrrr

la segunda desigualdad de Schwartz se transforma 0 ≤ v2w2u2 + 2(v→w→)(w→u→)(u→v→) - u2(v→w→)2 - v2(w→u→)2 - w2(u→v→)2 ⇔

0 vu

)vu( -

uw

)uw( -

wv

)wv( -

uvvu

.wuuw

.vwwv

2 + 1 22

2

22

2

22

2

≥⇔rrrrrrrrrrrr

y adopta finalmente la expresión: 1 + 2(cos α)(cos β)(cos γ) - cos2α - cos2β - cos2γ ≥ 0 a la que corresponderá el signo igual, al ser {u→,v→,w→} un sistema ligado.

4.06.- Recordaremos que una base ortonormal es la de elementos de módulo uno ortogonales dos a dos y expresable por una sucesión, expresión que siempre es posible si el espacio es de dimensión finita.

Y haremos notar que en un espacio vectorial euclidiano, sólo si es propiamente euclidiano existirán bases ortonormales, ó sea formadas por vectores de módulo uno ortogonales entre sí.

Estas bases ortonormales son duales de sí mismas, puesto que verifican: e→ie

→j = δij (símbolo de Kronecker)

51

E.- CONJUNTO DE LOS TENSORES E⊗ (O SEA AFINES A E), CON

E EUCLIDIANO DE DIMENSION FINITA.

1.- Generalidades. 1-01.- Bases adoptadas.

Consideraremos a los vectores de E como tensores de

orden uno, y representaremos por (e→i) a una base de E tomada como principal, y por (e→j) a su base dual, sabiendo que se verifica:

e→ie→j = e→je→i = δi

j (símbolo de Kronecker).

Por consiguiente podemos tomar como bases de E⊗n, las siguientes: (e→i⊗e

→j⊗..⊗e→s), (e

→i⊗e→j⊗..⊗e→s), (ei⊗e→j..⊗e→s), etc.

1.02.- Expresiones de un tensor.

a) Todo tensor de E⊗n puede expresarse por una combina-

ción lineal de productos tensoriales elementales, es decir, correspondientes a elementos de E×n: )p..ba( = iiii

rrrr⊗⊗⊗∑ ατ

b) Teniendo en cuenta que cada r factores tensoriales

simples se pueden representar por un tensor de orden r, todo tensor de orden mayor que uno, se puede representar también en forma einsteniana de la siguiente manera: τ→ = σ→i ⊗ µ→i

c) La notación ordinaria einsteniana de un tensor en función de bases duales, es: τ→ = tij..s(e→i⊗e

→j⊗..⊗e→s) = t

i

j

..s(e→i⊗e→j⊗..⊗e→s) = .....

Si no se indica lo contrario tomaremos (e→i) como base

principal y en consecuencia los coeficientes escalares se denominan:

Contravariantes: tij..s

Covariantes: tij..s

Mixtos: ti

j

..s, etc.

Sólo si E es propiamente euclidiano, las bases duales pueden ser ortonormales y entonces se verifica: tij..s = tij..s = t

i

j

..s = ....

52

2.- Algebra tensorial

2.01 Operaciones fundamentales.

El conjunto E⊗ toma la estructura de un álgebra

estableciendo las siguientes operaciones fundamentales entre sus elementos:

11.- Multiplicación tensorial.

20.- Multiplicación contracta. que pasamos a precisar.

2.02.- Multiplicación tensorial.

Definimos como producto tensorial de un tensor τ→∈ E⊗n por un tensor σ∈ E⊗m a un tensor τ→ ⊗ σ→ de E⊗(n+m) de las caracte-rísticas propias de la estructura tensorial que suponemos conocida.

Nos limitaremos ahora a recordar las siguientes:

10.- No conmutatividad: En general τ→⊗σ→ ≠ σ→⊗τ→.

20.- Asociatividad: σ→⊗(τ→⊗π→)=(σ→⊗τ→)⊗π→ = σ→ ⊗ τ→ ⊗ π→

30.- Distributividad a derecha e izquierda: (σ→=σ→’+σ→”; τ→=τ→’+τ→”): σ→⊗τ→= σ→’⊗τ→’+ σ→’⊗τ→”+ σ→”⊗τ→’+ σ→”⊗τ→”

2.03.- Multiplicación contracta.

Entre los posibles, definimos como producto contracto normal de dos tensores τ→ y σ→ y lo expresamos sin signo especial, a un tensor τ→σ→, que tiene por orden el módulo de la diferencia de órdenes de los factores, sujeto a las siguientes leyes:

10.- Conmutatividad: τ→σ→ = σ→τ→

20.- Distributividad a derecha e izquierda:

(σ→=σ→’+σ→”; τ→=τ→’+τ→”): σ→τ→= σ→’τ→’+ σ→’τ→”+ σ→”τ→’+ σ→”τ→”

30.- El producto contracto entre vectores de E coincide con el producto escalar en E.

40.- El producto contracto de dos productos tensoriales elementales, se verifica ordenadamente del modo siguiente: (a→1⊗a

→2⊗...⊗a→m⊗a

→m+1⊗...⊗a→n)(b

→1⊗b→2⊗...⊗b→m) =

= (a→1b

→1)(a

→2b→

2)...(a→mb→

m) [a→

m+1 ⊗...⊗a→n]

Cada paréntesis () indica un producto escalar cuyos factores son los pares de vectores situados en el mismo orden de coloca-

53

ción de izquierda a derecha de los tensores factores, hasta agotar los vectores del tensor de menor orden.

Puede verse fácilmente que esta operación es compatible

con las propias de los espacios vectoriales de tensores.

2.04.- Notaciones einstenianas normales. Ejemplos.

Sean los tensores τ→=tij

k(e→i⊗e→j⊗e→k); σ→=slm(e→l⊗e

→m)

11.- π→ = τ→ ⊗ σ→ = tij

k(e→i⊗e→j⊗e→k) ⊗ slm(e→l⊗e→

m) = = tij

kslm(e→i⊗e→j⊗e→k⊗e→l⊗e→m)

pij

klm = tij

kslm

21.- ρ→ = τ→σ→ = [tij

k(e→i⊗e→j⊗e→k)][slm(e→l⊗e

→m)] =

= tij

kslm(e→ie→l)(e→je→m)e

→k =tij

ksije→k rk = tij

ksij

Para este producto, las bases utilizadas para el primer factor deben ser duales de las utilizadas para el segundo factor.

2.05.- Teoremas fundamentales de esta álgebra.

Teorema 11.- Dados tres tensores τ→, σ→ y µ→ construídos sobre E, tales que el orden de τ→ es igual o mayor que el de σ→, se verifica: (τ→σ→)µ→ = (σ→ ⊗ µ→)τ→

Dada la distributividad de productos tensoriales y contractos, bastará demostrarlo para el caso de que los tres tensores sean productos tensoriales simples. Efectivamente, para

σ→ = a→1⊗a→2⊗...⊗a→r

τ→ = b→1⊗b→2⊗...⊗b→r⊗b

→r+1⊗...⊗b→s

µ→ = c→1⊗c→2⊗....⊗c→t

tendremos: τ→σ→ = (a→1b

→1)(a

→2b→2)...(a

→rb→r)[b

→r+1⊗...⊗b→s]

σ→⊗µ→ = a→1⊗a→2⊗...⊗a→r⊗c

→1⊗c→2⊗...⊗c→t

y por consiguiente: (τ→σ→)µ→ = (a→1b

→1)(a

→2b→2)...(a

→rb→

r)[b→

r+1⊗...⊗b→s][c→1⊗c→2⊗....⊗c→t]

(σ→⊗µ→)τ→= (a→1b→1)(a

→2b→2)...(a

→rb→

r)[c→1⊗c→2⊗....⊗c→t][b

→r+1⊗...⊗b→s]

Teorema 21.- Dados tres tensores σ→, τ→ y µ→ construídos

sobre E, tales que el orden de σ→ es inferior al de τ→, se verifica: σ→τ→ ⊗ µ→ = (τ→⊗µ→)σ→

54

Bastará demostrarlo para los mismos tensores de la

demostración anterior, con lo que σ→τ→ tomará el valor allí expresado. Tendremos además:

τ→⊗µ→ = b→1⊗b→2⊗...⊗b→r⊗b

→r+1⊗...⊗b→s⊗c

→1⊗c→2⊗....⊗c→t

y por consiguiente: σ→τ→⊗µ→ = (a→1b

→1)(a

→2b→2)...(a

→rb→r)[b

→r+1⊗...⊗b→s⊗c

→1⊗c→2⊗....⊗c→t]

(τ→⊗µ→)σ→ = (a→1b→

1)(a→

2b→2)...(a

→rb→r)[b

→r+1⊗...⊗b→s⊗c

→1⊗c→2⊗....⊗c→t]

Teorema 31.- Sean 4 tensores τ→, τ→’, σ→ y µ→ construídos

sobre E, tales que τ→ y τ→’ son de igual orden. se verifica: (τ→τ→’)(σ→µ→) = (τ→⊗σ→)(τ→’⊗µ→)

Pues τ→τ→’=τ→’τ→ es un escalar, y podremos escribir: (τ→τ→’)(σ→µ→) = [(τ→’τ→)σ→]µ→ y por el teorema 11: (τ→τ→’)(σ→µ→) = [τ→’(τ→⊗σ→)]µ→ = (τ→⊗σ→)(τ→’⊗µ→)

2.06.- Un coeficiente escalar de un tensor τ→ de orden s, relativo a una base tensorial compuesta por vectores de un par de bases duales de E, es igual al producto contracto de τ→ por un producto tensorial de dichos vectores base con índices en igual posición y orden.

Podemos demostrarlo, por ejemplo para tij

k:

τ→(e→i⊗e→j⊗e→k) = [ti'j'

k'(e→i'⊗e

→j'⊗e

→k')](e→i⊗e→j⊗e→k) = = ti'j'

k'(e→

i'e→i)(e→j'e

→j)(e→k'e→k) = tij

k y evidentemente la demostración es análoga para cualquier otro coeficiente.

2.07.- Cambio de coordenadas de un tensor afín τ→ al pasar de una base {e→i} de E y su dual, a una nueva base {f

→j} y su

dual, relacionadas con las anteriores, según C'4.05, por: f

→j = α

i

je→

i; f→k = βkme

→m; αi

jβk

i = δjk = símbolo de Kronecker

Sea por ejemplo τ→= tir

st(e→

i⊗e→

r⊗e→s⊗e→t)= tvw

gh(f→

v⊗f→

w⊗f→g⊗f→h)

tvw

gh= τ→(f

→v⊗f→w⊗f→g⊗f→h) = τ

→([βvie→i][βwre

→r][αs

ge→

s][αt

he→

t])= = βviβ

w

rαs

gαt

h τ→(e→i⊗e→r⊗e→s⊗e

→t) = β

v

iβw

rαs

gαt

htir

st

Como βvi,βw

r,αs

g y αt

h corresponden a matrices de cambio de bases, que son regulares, las nuevas coordenadas son función regular de las anteriores. Para todo tensor, se obtienen análogamente las coordenadas nuevas de cualquier tipo a partir de las antiguas del mismo o distinto tipo.

55

2.08.- Se demuestra que un conjunto de escalares función de una base de E, define a un tensor de E⊗, si y sólo si, con un cambio de bases, los escalares varían como si fueran los elementos de un conjunto de coeficientes tensoriales de un mismo tipo determinado. Entonces el conjunto de escalares coincide con el conjunto de coeficientes del mismo tipo correspondientes a algún tensor.

También se demuestra que un conjunto de escalares, función de una base de E, define a un tensor π→, o sea que es el conjunto de coeficientes de π→, de algún tipo, cuando al operar como si así fuera para hallar los coeficientes de π→σ→ ó de π→⊗σ→, siendo σ→ un tensor cualquiera, hallamos un conjunto de escalares que define a un tensor.

2.09.- El producto contracto aquí definido, induce en todos los espacios vectoriales E⊗ de tensores afines a E, un producto escalar que los hace euclidianos. Si E fuera propiamente euclidiano, también lo serían los espacios vectoriales producto.

3.- Tensores y aplicaciones lineales.

3.01.- Los productos contractos de un vector v→

determinado de E⊗(m+n) por los distintos vectores de E⊗n, son vectores de E⊗m que varían linealmente con ellos. Por lo tanto dichos productos son las imágenes de una aplicación lineal de E⊗n en E⊗m representable por el vector v→.

El vector de E⊗(m+n) correspondiente a la aplicación lineal por la que una base {g→i} de E

⊗n tiene por imagen {f→

i), vamos a ver que es (g→j⊗f→j) siendo (g

→j} la base dual de {g→j). En efecto: (g→j⊗f→j)g

→i = (g

→jg→i)f→

j = f→

i

3.02.- De acuerdo con el párrafo anterior, la aplica-ción lineal idéntica vendrá representada por el tensor g→i⊗g→i = g

→i⊗g→i

referido a cualquier par de bases duales, pues por el teorema 1 y '2.05, tenemos: (g→i⊗g→i)a

→ = (g→ia→)g→i = aig→i = a

Para los vectores de E, la aplicación lineal idéntica vendrá representada por un tensor de 21 orden: I

→ = e→i⊗e

→i = e→i⊗e→i con {e→i} y {e→i} bases duales de E.

El producto contracto de I→ por un producto tensorial

(a→⊗b→) cualquiera de dos vectores de E, es el producto escalar de ambos. Pues tenemos:

56

I

→(a→⊗b→) = (I→a→)b→ = a→b→

3-03.- Los coeficientes tensoriales de I

→ contravarian-

tes constituyen las matrices de cambio de una base a su dual y los coeficientes tensoriales de I

→ covariantes forman las matrices

de cambio inverso. Los coeficientes mixtos constituyen la matriz unidad. Pues podemos escribir:

I→ = gij(e→i⊗e

→j) = e

→i⊗g

ije→j = e→i⊗e→i ⇒ e→i = gije→j

I→ = gij(e

→i⊗e→j) = e→i⊗gije→j = e→i⊗e→i ⇒ e→i = gije

→j I

→ = gi

j(e→i⊗e→j)= e→k⊗e

→k ⇒ gi

j = δi

j (símbolo de Kronecker) I

→ = gi

j(e→i⊗e→j)= e→k⊗e→k ⇒ gi

j = δij (símbolo de Kronecker)

En D'2.04 hemos visto que las matrices de cambio son inversas.

Las matrices covariante y contravariante de I→ son las

fundamentales para las bases duales consideradas: gije→i = e

→j = e→j(e→i⊗e→i) = (e→je→i)e→i ⇒ gij = e→ie→j

gije→i = e→j = e

→j(e→

i⊗e→i) = (e→ie

→j)e→i ⇒ gij = e

→ie→j

4.- Operación contracción de tensores.

La definiremos con un modelo.

Sea un producto tensorial único: τ→=a→⊗b→⊗c→⊗d→⊗..⊗m→

La contracción de los factores 2,4, es el tensor: τ→’ = (b→d→)(a→⊗c→⊗..⊗m→)

Si el tensor viene dado en forma normal en función de bases duales, tal como:

τ→ = tijk

i..m(e→

i⊗e→

j⊗e→k⊗e→l⊗..⊗e→m)

el tensor contracción 2,4, será: τ→’ = tijk

l..m(e→je→l)(e→i⊗e

→k⊗..⊗e→m) = (j=l): tijk

j..m(e→

i⊗e→k⊗..e

→m)

Deducimos de aquí, que para efectuar esta última operación, hay que expresar previamente los dos factores tensoriales a suprimir, en sendas bases duales.

57

5.- Observaciones.

Las magnitudes que se consideran en muchas partes de la

Física no relativista, son asimilables a espacios vectoriales de tensores de orden 0, 1 ó mayor, isomorfos a los de E⊗, y sus relaciones mutuas, en muchos casos, se pueden expresar sin adoptar unidades de medida, ó sea intrínsecamente, a través de los conceptos y métodos algebraicos aquí establecidos, y de otros complementarios deducidos de ellos.

Estimamos que esta álgebra tensorial puede facilitar considerablemente el estudio intrínseco de las relaciones entre magnitudes fisicas y para su desarrollo, resulta indispensable el dominio en la aplicabilidad de los tres teoremas fundamentales aquí enunciados.

De entre los productos contractos entre tensores que se pueden definir y que se usan, se ha elegido como normal el de aplicación más general, y que estimamos suficiente para nuestros fines.

Una vez halladas las expresiones más sencillas ó convenientes, el cálculo numérico exige adoptar unidades de cada magnitud y por tanto la adopción de bases vectoriales que se correspondan debidamente entre ellas y entonces también tienen plena aplicación la expresión de tensores por coeficientes de notación einsteniana, expresión que en los casos sencillos se presta a la aplicación del cálculo matricial.

Las matrices, también se pueden considerar como tensores, por lo general de orden uno y dos, y por tanto, sus relaciones intrínsecas también quedarán reflejadas en desarrollos diversos del álgebra tensorial aquí presentada. El álgebra que aquí se va a desarrollar, está dedicada especialmente a los tensores afines a E expresados en forma intrínseca, incluyendo entre ellos a vectores y escalares. En cuanto a bases y coeficientes, en general intervienen solamente para completar el estudio de los problemas o para aclarar o confirmar resultados, de acuerdo con el objeto del texto, que es únicamente intentar hacer ver las ventajas del método intrínseco de cálculo tensorial aquí desarrollado.

Esta álgebra no se ha ampliado a los elementos de espacios construídos sobre espacios vectoriales hermíticos, por la dificultad derivada de que, ya en los casos más sencillos, el producto hermítico de vectores no es en ellos conmutativo.

El texto que antecede, no tiene otro objeto que recordar las bases previas relativas a los espacios vectoriales, que es conveniente conocer, para la correcta aplicación del álgebra tensorial a espacios vectoriales afines euclidianos (propiamente ó no) . Dejamos a posterior consideración su posible aplicación a espacios prehilbertianos