variedades lineales - mautar.netmautar.net/variedades lineales.pdf · de algebra tensorial" de...

51
VARIEDADES LINEALES Por Javier de Montoliu Siscar, Dr. Ing. Ind. 2ª Edición. Enero 1997.

Upload: doanxuyen

Post on 20-Sep-2018

229 views

Category:

Documents


0 download

TRANSCRIPT

VARIEDADES LINEALES Por Javier de Montoliu Siscar, Dr. Ing. Ind. 2ª Edición. Enero 1997.

I

TABLA DE CONTENIDO TABLA DE CONTENIDO........................................... I VARIEDADES LINEALES.......................................... 1 A.- PREAMBULO. ............................................. 1 B.- GENERALIDADES. ......................................... 3 1.- Definición de variedad lineal. ....................... 3 2.- Recta o variedad de dimensión 1. ..................... 3 3.- Variedad Vm m-dimensional (m<n; n= Dim E). ........... 4 4.- Paralelismo. ......................................... 4 5.- Ortogonalidad y perpendicularidad. .................. 5 6.- Suma e intersección de subespacios. .................. 6

C. ECUACION DE 1º GRADO DE COEFICIENTE VECTORIAL. .......... 9 1.- Ecuación general ..................................... 9 2.- Intersección de planos. ............................. 13 3.- Posiciones relativas de dos variedades. ............. 18

D.- ECUACION DE 1º GRADO CON COEFICIENTE TENSORIAL ........ 23 1.- Ecuación general. ................................... 23 2.-Conversión de ecuaciones. ............................ 29 3.-Posiciones relativas. ................................ 31 4.- Intersecciones. ..................................... 35 5.- Resolución de algunos sistemas de ecuaciones en un espacio tridimensional. ................................. 37

E.-PROYECCIONES ORTOGONALES DE TENSORES ................... 39 1.- Proyección ortogonal de un vector sobre un subespacio......................................................... 39 2.- Proyección sobre un plano. .......................... 41

INDICE DE ECUACIONES........................................ 47

1

VARIEDADES LINEALES.

A.- PREAMBULO. En este ensayo estudiaremos de forma elemental la

utilización de sistemas coordenados curvilíneos, y en especial la aplicación de éstos a los espacios de Riemann. Para ello seguiremos en líneas generales el orden del texto de "Elementos de Algebra Tensorial" de Lichnerowicz.

Nuestro objeto no es profundizar en estos temas ni

hacer demostraciones, sino solamente, intentar ver si el método intrínseco de álgebra y análisis tensorial que hemos aplicado en escritos anteriores puede ser útil para el estudio de un espacio de Riemann.

El estudio está dividido en dos partes. En la primera se considera un espacio euclidiano en

general (aunque no sea propiamente euclidiano), a través de la adopción de un sistema de coordenadas curvilíneas. Esta primera parte constituye una introducción a la segunda parte, que está dedicada a los espacios riemanianos.

Barcelona, febrero de 2002.

3

B.- GENERALIDADES.

1.- Definición de variedad lineal.

Denominamos variedad lineal de un espacio vectorial n-dimensional E sobre K, a toda parte A de E que verifica:

:KAw,v

⎟⎠⎞

∈∈λrr

λv→ + (1-λ) w→ ∈ A

De esta definición se infiere que cualquier punto,

recta o plano del espacio geométrico ordinario son variedades lineales.

Para cualquier dimensión, también son variedades lineales E y ∅, aunque estas últimas, salvo excepción, no las vamos a considerar de ahora en adelante.

Esta definición de variedad lineal, no se ve afectada por el punto de referencia adoptado.

1.01.- En este texto llamaremos rectas a las variedades lineales unidimensionales y planos a las variedades lineales (n-1)-dimensionales.

A las variedades lineales las denominaremos simplemente variedades.

1.02.- Definición de subespacio vectorial. Llamamos subespacio vectorial a ∅ y a cualquier variedad que contenga al punto de referencia u origen, y es subespacio vectorial cualquier parte E' de E que verifique:

:K,Ew,v

21⎟⎠⎞

∈′∈

λλrr

λ1v→ + λ2v

→ = E’

1.03.- Intersección de variedades.

Es otra variedad, y sólo la intersección de subespacios

es un subespacio.

2.- Recta o variedad de dimensión 1.

2.01.- Una variedad que contiene 2 puntos distintos a→ y b→ es una recta cuando puede expresarse por:

R = {x→/ x→=λ1a→+λ2b

→; λ1,λ2 ∈ K; λ1+λ2 = 1}

Esta recta será un subespacio cuando uno de los puntos

tal como a→, se pueda expresar por a→=µb→ con algún µ ∈ K (Recordaremos que el 0 pertenece a K).

4

Evidentemente la recta será un subespacio cuando uno de

los dos puntos distintos, es el origen. Si por ejemplo uno de ellos es b

→=0→ y el otro es a

→≠0→,la expresión anterior queda en:

R = {x→/ x→=λa→; λ∈K}

2.02.- En consecuencia, como el vector nulo no es un vector independiente de ningún conjunto, dos puntos de una recta están representados por vectores independientes si, y solo si la recta no es un subespacio.

3.- Variedad Vm m-dimensional (m<n; n= Dim E).

Contiene m+1 puntos distintos que la determinan, de los cuales por lo menos m puntos corresponden a un sistema de vectores independiente.

3.01.- En función de m+1 vectores independientes, la

variedad puede representarse así:

Vm = {x→/ x→ = ∑

+1m

1 λia→i; (∀i): λi∈K; ∑

+1m

1λi = 1}

3.02.- Si uno de los m+1 puntos que determinan a la

variedad es el origen, la variedad determinada por el resto de m puntos correspondientes a vectores independientes, es un subespacio que pasará a expresarse así:

Em = {x→/ x→ = ∑

m

1 λia→

i; (∀i): λi∈K }

3.03.- En lo sucesivo y para abreviar, al vector

correspondiente a un punto también le llamaremos punto.

4.- Paralelismo.

4.01.- Decimos que la variedad A es paralela a la B cuando para algún punto de vector v→ se verifica:

v→ + A ⊂ B y esto solo es posible cuando la dimensión de A no es mayor que la dimensión de B.

Pueden ocurrir dos casos: 1.- Para A∩B ≠ ∅, B contiene a A 2.- Para A∩B = ∅, B y A no tienen ningún punto común.

De esta definición se deduce que un punto es paralelo a cualquier variedad excepto ∅.

5

4.02.- Decimos que dos variedades A y B son paralelas entre sí o mutuamente paralelas, cuando a la vez A es paralela a B y B es paralela a A, y esto sólo es posible cuando A y B tienen igual dimensión.

Dos variedades A y B serán mutuamente paralelas siempre que exista un punto de vector v→ tal que verifique: v→ + A = B

4.03.- Siempre existe un subespacio mutuamente paralelo a una variedad dada.

Cuando B no es un subespacio se verifica: (∃αK): A = αB y para α=0 consideramos que el producto es el subespacio mutuamente paralelo a B.

4.04.- Denominamos dirección contenida en una variedad A, a todo subespacio unidimensional paralelo a A.

5.- Ortogonalidad y perpendicularidad.

5.01.- Dos variedades son ortogonales suplementarias cuando lo son los subespacios mutuamente paralelos a ellas. La suma de sus dimensiones es la dimensión del espacio, y su intersección es un punto.

Dada una variedad A, y un punto de la misma, hay una variedad ortogonal suplementaria y solamente una, que tenga este punto en común. Tal punto es la intersección de las variedades.

5.02.- Sean dos variedades A y B, los subespacios EA y EB mutuamente paralelos a las mismas y los subespacios E’A y E’B ortogonales suplementarios a los anteriores. Procederemos a las siguientes definiciones:

A y B son ortogonales si y sólo si EA⊂E’B, lo que equivale a EB⊂E’A.

A y B son perpendiculares si y sólo si EA⊃E’B, lo que equivale a EB⊃E’A.

5.03.- Propiedades de un par A y B de variedades ortogonales.

a) Los subespacios EA y EB son subespacios ortogonales. Es decir:

(∀a→; a→∈EA)(∀b→; b→∈EB): a→b→ = 0

b) Dim A + Dim B ≤ n (dimensión del espacio).

6

c) Todas las direcciones de una variedad son ortogonales a todas las direcciones de la otra.

d) Un punto es ortogonal a cualquier variedad.

5.04.- Propiedades de un par A y B de variedades perpendiculares.

a) Dim A + Dim B ≥ n (dimensión del espacio).

b) Cada variedad contiene a las direcciones ortogonales a todas las direcciones de la otra.

Ejemplo: Dos planos perpendiculares del espacio geométrico ordinario.

5.05.- Como continuación de '5.02 podemos señalar las siguientes propiedades de un par A,B de variedades ortogonales suplementarias, al considerarlas a la vez como variedades ortogonales en general y como variedades perpendiculares, en forma de situación límite común a ambas categorías.

a) EA=E’B así como EB=E’A

b) Dim A + Dim B = n (dimensión del espacio).

c) Las direcciones de A son exactamente todas las ortogonales a B y recíprocamente.

5.06.- Si dos variedades son ortogonales o perpendiculares, lo son también sus subespacios ortogonales suplementarios.

6.- Suma e intersección de subespacios.

6.01.- La suma de subespacios es un subespacio y la de variedades es una variedad. Se incluye aquí como subespacio o variedad al espacio total.

La intersección de subespacios es un subespacio y la de variedades no paralelas es una variedad.

6.02.- Sean dos pares E1,E’1 y E2,E’2 de subespacios ortogonales suplementarios. El subespacio ortogonal suplementario de E1∩E2 ess E’1+E’2.

Pues por una parte, toda dirección de E1∩E2 por pertenecer a E1 y a E2 es ortogonal a E’1 y a E’2 y por tanto a E’1+E’2.

Y por otra, toda dirección ortogonal a E’1+E’2 lo será a E’1 y a E’2, por lo que pertenecerá a E1 y a E2 y en consecuencia a E1∩E2.

Análogamente demostraríamos que el subespacio ortogonal suplementario de E1∩E2∩...∩En es E’1+E’2+...+E’n.

7

6.03.- Sean dos pares E1,E’1 y E2,E’2 de subespacios ortogonales suplementarios. Si y sólo si E1⊂E2 tendremos E’1⊃E’2.

Pues si y sólo si E1∩E2 = E1 (ó sea E1⊂E2) tendremos E’1+E’2 = E’1, o sea E’1⊃E’.

9

C. ECUACION DE 1º GRADO DE COEFICIENTE VECTORIAL.

1.- Ecuación general

Sea un espacio E n-dimensional. La ecuación general de 11 grado de coeficiente vectorial, es:

(a→,x→ ∈ E; a→≠0→; α∈K): a→x→ + α = 0

1.01.- TEOREMA 1º.- La solución X de la ecuación general de 1º grado de coeficiente vectorial es una variedad (n-1)-dimensional o plano.

a) Hay por lo menos un punto solución:

x→’ = -aaarα

como es fácil comprobar.

b) X es una variedad lineal, pues si la solución es un solo punto éste es una variedad y si hay dos x→' y x→" lo serán también todos los puntos

(∀λ; λ∈K): λx→’ + (1-λ)x→” de la recta que determinan, como vamos a verificar:

a→[λx→’ + (1-λ)x→”] + α = λa→x→’ + (1-λ)a→x→” + λα + (1-λ)α =

= λ(a→x→’ + α) + (1-λ)(a→x→” + α) = 0

c) Conociendo un punto x→’ de X, la ecuación puede ponerse en la siguiente forma:

(1) a→(x→-x→’) = 0 puesto que:

⎟⎠⎞

=+=+0'xa0xa

ααrr

rr ⇔ ⎟

⎠⎞

∈=−X'x

0)'xx(a rrrr

d) X es una variedad lineal de dimensión n-1 ó sea un

plano.

Puesto que con la ecuación en la forma (1) vemos que X-x→' es el subespacio ortogonal suplementario de la recta de dirección a→.

Para α=0 es un subespacio plano.

1.02.- Pié de la recta ortogonal a X desde el origen.

10

Es el punto:

(2) p→ = -aaarr

que pertenece a X.

Efectivamente, éste es el valor que resulta de eliminar λ (λ∈K) en el sistema:

⎭⎬⎫

=+=

0pa

ap

αλ

rr

rr

⇔ ⎭⎬⎫

=+=

0)a(a

ap

αλλ

rr

rr

⇔ ⎪⎭

⎪⎬⎫

−=

=

aa

apαλ

λrr

⇔ ⎪⎭

⎪⎬

−=

−=

aa

aaa

p

αλ

αrr

Si X es un subespacio, quedará p→=0

→.

1.03.- Ecuación de X en función de p→ no nulo. Se deduce

inmediatamente de (1) y (2): p→(x→-p→) = 0

1.04.- Condición de equivalencia entre las dos ecuaciones: a→1x

→ + α1 = 0 a→2x

→ + α2 = 0

Es que exista un escalar λ no nulo que verifique: a→1 = λa

→2; α1 = λα2

Pues como solo hay una dirección ortogonal a X, a→1 y a

→2,

que no pueden ser nulos para que existan ecuaciones, deberán tener la misma dirección. Y por tanto a→1 = λa

→2 con λ≠0.

En tal caso multiplicando la segunda ecuación por λ

tendremos los siguiente sistemas equivalentes:

⎭⎬⎫

=+=+0xa

0xa

22

11

λαλα

rr

rr

⇔ ⎭⎬⎫

=+=−0xa

0

22

21

αλαα

rr

1.05.- TEOREMA 2º.- Toda variedad lineal X de dimensión

n-1 es solución de alguna ecuación de 1º grado.

Pues podemos determinar p→ pié de la ortogonal desde el origen. Si no es nulo, la ecuación será:

11

p→(x→-p→) = 0 y si p→=0, tendremos 0

→ ∈ X y X será el subespacio de ecuación

a→x→ = 0 siendo a→ cualquier vector de la única dirección ortogonal a X.

1.06.- TEOREMA 3º.- Los coeficientes de la ecuación a→x→+α=0 del plano que pasa por los n puntos {x→i} que forman un sistema independiente, son:

a→ = [(x→2-x→

1)∧(x→3-x→

1)∧...∧(x→n-x→

1)]’

α = - a→x→1 siendo la expresión de a→ la del vector polar de un producto exterior.

Por ser independiente el sistema {x→i}, a→ no será nulo

Si x→1 es solución, la ecuación podrá ponerse en la

forma a→(x→-x→1) = 0 y sustituyendo a→ por el valor asignado, por

álgebra tensorial tendremos:

a→(x→-x→1) = [(x→2-x→1)∧(x→3-x

→1)∧...∧(x→n-x

→1)(x

→-x→1]’ = 0 con lo que queda evidente que los puntos dados son soluciones de la misma.

1.07.- TEOREMA 4º.- El coeficiente a→ de la ecuación a→x→=0 del subespacio plano que contiene a los n-1 puntos {x→i) que forman un sistema independiente, es:

a→ = (x→1∧x→

2∧...∧x→n-1)’

Análogamente al caso anterior, tenemos:

a→x→ = (x→1∧x→2∧...∧x→n-1)’x

→ = (x→1∧x→

2∧...∧x→n-1∧x→)’ = 0

y con a→ no nulo, a→x→ se anula para los puntos dados.

1.08.- TEOREMA 5º.- Sea un conjunto {a→i} de n vectores independientes.

Adoptando una base cualquiera hallemos los coeficientes de cada vector y las matrices fila {a→i}’ correspondientes. Podremos formar una matriz A de determinante |A| que tenga sus filas Ai = {a

→i}’.

Si {a→j} es el conjunto dual de {a→i} y formamos una

matriz A’ cuyas columnas resulten de multiplicar por |A| las matrices columna de los a→j. tendremos:

12

A’j = {a→j}|A|

Se verifica que A’ es la matriz adjunta de A.

Efectivamente. Si multiplicamos matricialmente las matrices A y A’ resulta:

AA’ =

⎪⎪⎩

⎪⎪⎨

⎪⎪⎭

⎪⎪⎬

n

2

1

A

.

A

A

{ }n21 'A··'A'A =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

nn

2n

1n

n2

22

12

n1

21

11

'AA··'AA'AA

·····

'AA··'AA'AA

'AA··'AA'AA

Tendremos:

AA’ = AiA’j = a→ia

→j|A| = {δij}|A|; {a→j} =

|A|

'A j

y por consiguiente A’ es la matriz adjunta de A.

Recordaremos del cálculo matricial, que la matriz A’ adjunta de A, y que cumple la anterior propiedad, es la matriz en la que todo término de columna i y fila j es el cofactor del elemento de A de fila i y columna j.

13

2.- Intersección de planos.

2.01.- Intersección de n planos de un espacio n-

dimensional cuyas ecuaciones tienen los coeficientes vectoriales formando un sistema independiente.

Hallar la intersección equivale a resolver el sistema:

a•1x• + •1 = 0

a•2x• + •2 = 0 ........

a•nx• + •n = 0 con la condición V=(a→1∧a2∧..∧a→n)’≠ 0→.

Para ello multipliquemos ordenadamente las ecuaciones por los vectores de la base {a→i} dual de la {a→i}. Obtendremos un sistema equivalente:

a•1(a•1x• + •1) = 0

a•2(a•2x• + •2) = 0 .........

a•n(a•nx• + •n) = 0

Sumando miembro a miembro tendremos: 0 =a→i(a→ix

→) + αia→i = (a→i⊗a→i)x

→+ αia→i = x→ + αia

→i y por tanto la solución es el punto:

(3) x→ = - αia→i

2.02.- Aplicación al espacio bidimensional:

Sea ε→ el tensor correspondiente a la aplicación giro

positivo de 90º de matriz

{ ε→}’ = ⎭⎬⎫

⎩⎨⎧ −

01

10

en base ortonormal y sean dos puntos a→1 y a

→2 con (a

→1∧a→

2)’ = V.

Recordando el algebra tensorial, tendremos: Va→1 = -ε→a→2; Va

→2 = ε→a→1; y aplicando la fórmula hallada tenemos:

x→ = -)aa(

)a()a(

21

1221

′∧+−rr

rrrr εαεα

14

2.03.- Aplicación al espacio tridimensional.

Empleando el producto vectorial de signo ×,

recordaremos del álgebra tensorial:

Va→1 = -(a→3∧a→2)’= (a

→2×a→3); Va

→2 = -(a→1∧a→

3)’= (a→3×a→

1)

Va3 = (a→1∧a→

2)’ = (a→1×a→2); V = (a

→1∧a→

2∧a→3)’ = (a

→1×a→

2)a→3

y por consiguiente:

x→ = -321

213132321

a)aa()aa()aa()aa(

rrr

rrrrrr

××+×+× ααα

2.04.- Método matricial general para hallar la intersección de n planos dadas sus ecuaciones cuando sus coeficientes vectoriales {a→i} forman un sistema independiente.

Se basa en formar una matriz A con sus filas Ai={a→i}', y

hallar su determinante y su matriz adjunta A’. Como sabemos por '1.08 que las columnas de A’ son A’j = {aj}|A|, al aplicar la fórmula (3) obtenemos:

{x→} = - |A|A i

i ′α

2.05.- Vamos a poner un ejemplo con la resolución de

un sistema de las siguientes características: A1={2 3 0 1}: A2= {1 2 1 0}; A3={0 1 0 0}; A4={0 0 1 0}; α1=1 α2= -2 α3= 0 α4= -1

Procederemos así:

A=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0100

0010

0121

1032

⇒ A’=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−−

−−

2121

1000

0100

1210

⇒A’1=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−10

0

0

;A’2=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

⎧−

2

0

0

1

;A’3=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

1

0

1

2

;A’3=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−2

1

0

1

Por otra parte tenemos |A|=-1. Por consiguiente:

{x→} = - |A|A i

i ′α =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−10

0

0

(1) +

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

⎧−

2

0

0

1

(-2) +

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

1

0

1

2

(0) +

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−2

1

0

1

(-1) =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−31

0

1

2.06.- La resolución del problema anterior y la de los

15

que siguen sobre intersección de planos, se reduce a resolver sistemas escalares de n ecuaciones con n incógnitas, y para ello pueden emplearse los distintos métodos que señalan los textos sobre la materia.

Como estos métodos los suponemos conocidos y se separan de nuestro objetivo, nos abstendremos de desarrollarlos aquí.

2.07.- Intersección de m planos (m<n), dadas sus ecuaciones que tienen sus coeficientes vectoriales formando un sistema independiente.

Podremos hallar su intersección añadiendo a los m planos n-m planos más con coeficientes vectoriales que completen una base del espacio, y con coeficientes escalares indeterminados, pasando a proceder después como en '2.05.

Sea {a→p} = {a→

m+1,a→

m+2,...,a→

n} el sistema de coeficientes vectoriales añadido. El subespacio generado por {a→p} es evidentemente ortogonal suplementario al subespacio generado por los coeficientes originales {a→1,a

→2,...,a

→m}.

Tendremos pues, para el punto solución:

{x→} = -|A|

An

i

ii∑ ′α

= -|A|

Am

i

ii∑ ′α

- |A|

An

1m

ii∑ ′

Asignando un valor arbitrario a cada uno de los

elementos de {αp}={αm+1,αm+2,..,αn} obtendremos un valor del 21 término del 2º miembro de la igualdad anterior que representará un punto y al que corresponderá un valor de {x→} y un punto de la intersección buscada.

El conjunto de los valores arbitrarios posibles de tal 2º término será, por lo visto en '1.08:

S = -|A|

An

1m

pp∑ ′

... ∑+

n

1m

pparα

y corresponde al subespacio generado por los {a→p}, que según acabamos de ver, es el ortogonal suplementario al subespacio generado por los {a→i} originales.

Como el primer término es un vector s→ que representa a un punto, tendremos finalmente: X = s→ + S y, por lo tanto, la intersección buscada es una variedad lineal mutuamente paralela a S, o sea ortogonal suplementaria al subespacio generado por los {a→i} originales y de dimensión n-m.

16

2.08.- Ejemplo. Sea un sistema de dos ecuaciones de las características siguientes: A1 = {2 3 0 1}; A2 = {1 2 1 0} α1 = 1 α2 = -2

Añadiremos dos ecuaciones arbitrarias cuyos coeficientes vectoriales completen una base del espacio: A3 = {0 1 0 0): A4 = {0 0 1 0} α3 ∈ K α4 ∈ K

En esta situación, el problema queda reducido al del ejemplo de '2.04. Como hemos dispuesto los coeficientes de modo que coincidan, excepto por la indeterminación de α3 y α4, tendremos análogamente:

{x→} =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−10

0

0

(+1) +

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

⎧−

2

0

0

1

(-2) +

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

1

0

1

2

α3 +

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−2

1

0

1

α4 =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−−−

++

43

4

3

43

25

22

αααα

αα

2.09.-. Intersección de m planos en general.

La condición para que exista solución es la

compatibilidad del sistema de sus ecuaciones y la condición para que no exista ningún plano superfluo es la irreductibilidad del sistema de sus ecuaciones.

La condición conjunta, es evidentemente que el conjunto de coeficientes vectoriales forme un sistema independiente.

La condición es necesaria, puesto que si hay compatibilidad, habrá por lo menos un punto común x→’ y el sistema podrá adoptar la forma:

a→1(x→-x→’) = 0

a→2(x→-x→’) = 0

.........

a→m(x→-x→’) = 0

y si hay irreductibilidad, todos los coeficientes serán independientes.

La condición es suficiente, pues hemos visto en los párrafos anteriores que, si se cumple, existe por lo menos un punto común, que la solución es una variedad lineal de dimensión n-m y que no se puede prescindir de ninguna ecuación.

2.10.- Transformación de un sistema de ecuaciones en otro equivalente e irreducible.

17

Para ello nos vemos obligados a recurrir al cálculo matricial ordinario.

Un criterio de compatibilidad matricial es:

A =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

′′

}a{

··

}a{

}a{

m

2

1

r

r

r

; B =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

′′

}a{

··

}a{

}a{

m

2

1

r

r

r

Rango de A = Rango de B

Si el sistema es compatible, o sea que verifica este criterio, será equivalente a cualquier otro que podamos formar con aquellas ecuaciones que resulten afectadas por cualquier matriz del rango de A extraída de A.

De esta manera hemos obtenido un sistema compatible e irreducible y el problema se sitúa en los casos ya estudiados.

18

3.- Posiciones relativas de dos variedades.

Vamos a estudiar en primer lugar las posiciones

relativas de dos planos dados por sus ecuaciones

A: a→1x→ + α1 = 0; B: a

→2x→ + α2 = 0

y veremos que vienen determinadas por las siguientes condiciones:

(∀λ): a→1≠λa→2 ... Secantes.

a→1a→2=0 ... Perpendiculares.

a→1a→2≠0 ... No perpendiculares.

( ∃λ): a→1=λa

→2 ... Paralelos.

α1 = λα2 ... Coinciden.

α1 ≠ λα2 ... Sin punto común.

3.01.- Para a→1≠λa→2, podremos formar un sistema

independiente {a→1,a→

2,..a→

n} eligiendo valores para a→3,a→

4,..,a→

n. y A, B y n-2 planos más tienen un punto común y con mayor razón lo tienen A y B. No coinciden A y B pues sus ecuaciones no reúnen la condición de equivalencia.

Para que sean perpendiculares, será preciso que la única dirección ortogonal a A ó sea la de a→1 esté contenida en B. Como la ecuación de B también es:

(x→’∈B): a→2(x→-x→’) = 0

la condición de perpendicularidad se reduce a a→1a

→2 = 0.

3.02.- Si a→1=λa

→2, a

→1 y a

→2 tienen igual dirección y por

consiguiente A y B serán ambos paralelos al subespacio plano ortogonal a a→1 y a a

→2) y por tanto serán paralelos entre sí.

Para que coincidan será preciso α1=λα2, completándose

así las condiciones de equivalencia de las ecuaciones.

3.03.- Sea una variedad lineal A dada por el sistema siguiente de ecuaciones compatibles:

A ..

⎪⎪⎩

⎪⎪⎨

=+

=+=+

0xa

······

0xa

0xa

mm

22

11

α

αα

rr

rr

rr

Se verifica que {a→1,a

→2,..,a

→m} es una base del subespacio

EA’ ortogonal suplementario de A.

19

Pues es un sistema independiente de vectores, y cada

uno de ellos a→i es ortogonal a todas las direcciones del plano incluídas las comunes a todos los planos del sistema por pertenecer a su intersección y ser por tanto las únicas direcciones de la variedad A.

Por consiguiente todos los a→i son ortogonales a A y pertenecen a EA’. Como A es (n-m)-dimensional, y el subespacio EA’ es m-dimensional el sistema independiente {a→i} constituye una base de EA’.

3.04.- Perpendicularidad u ortogonalidad de variedades lineales A y B dadas por sendos sistemas de ecuaciones compatibles e irreductibles.

Sean las variedades siguientes:

A ..

⎪⎪⎩

⎪⎪⎨

=+

=+=+

0xa

······

0xa

0xa

mm

22

11

α

αα

rr

rr

rr

B ..

⎪⎪⎩

⎪⎪⎨

=+

=+=+

0xb

······

0xb

0xb

pp

22

11

β

ββ

rr

rr

rr

con las siguientes bases de sus subespacios ortogonales:

EA’: a→1,a→2,..,a

→m; EB’ ; b

→1,b→

2,..,b→

p y la siguiente matriz de productos escalares:

M =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

pmp2p1

2m2221

1m1211

ba····baba

··········

ba····baba

ba····baba

rrrrrr

rrrrrr

rrrrrr

A continuación estudiaremos los dos casos que se pueden

presentar.

3.05.- Primer caso: (m+p)-n≤0 ⇔ Dim A + Dim B ≥ n

De acuerdo con B'5.04, no es posible la ortogonalidad no suplementaria y sí lo es la perpendicularidad, en la que consideraremos incluída esta ortogonalidad suplementaria.

Hemos visto en B'5.04 que la condición de perpendicularidad entre A y B es que B contenga a todas las direcciones ortogonales a A. Como las direcciones de B forman parte del conjunto de direcciones comunes a los p planos indicados, la condición anterior equivale a decir que todas las direcciones ortogonales a A, que son las a→i, estén contenidas en

20

cada uno de los p planos cuya intersección produce B.

La siguiente ecuación expresa pues esta condición:

(∀i)(∀j): a→ib→j = 0 ⇔ M = 0

3.06.- Segundo caso: (m+p)-n>0 ⇔ Dim A + Dim B < n

La perpendicularidad no es posible. Estudiaremos la

ortogonalidad. Supongamos también m>p.

Consideremos a M como una matriz cuadrada añadiendo m-p

filas nulas y estudiemos el producto matricial de M por cualquier vector columna Q perteneciente a Núc M.

Sea Q~ = {λ1 λ2 ... λm} Se verificará:

0 = M

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

m

2

1

··

··

··

λ

λλ

=

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

+++

++++++

0

0

ba···baba

···

ba···baba

ba···baba

pmmp22p11

2mm222211

1mm122111

rrrrrr

rrrrrr

rrrrrr

λλλ

λλλλλλ

0 = MQ =

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

+++

++++++

0

0

b)a···aa(

···

b)a···aa(

b)a···aa(

pmm2211

2mm2211

1mm2211

rrrr

rrrr

rrrr

λλλ

λλλλλλ

⇔ (∀j): (λ1a→1 + λ2a

→2 + ... + λma

→m)b→

j = 0

Siendo {a→i} una base de EA’, el paréntesis será un vector de EA’. Este vector pertenece a EB si y sólo si el producto indicado para todo j es nulo y esto sólo ocurre cuando el vector Q utilizado pertenece al Núcleo de M.

A una base de Núc M corresponderá biunívocamente una

base del subespacio EA’∩EB y por tanto este subespacio y Núc M tendrán igual dimensión.

Ahora bien, la condición de ortogonalidad de A y B es, según se vió en B'5.02, que EB esté contenido en EA’, ó sea que se verifique EA’∩EB=EB y evidentemente esto ocurrirá si y sólo si la dimensión de Núc M es igual a la dimensión de EB o sea a n-p.

21

Como la dimensión de M es m, esto es lo mismo que decir

que la dimensión de Im M ó sea Rango M sea m -(n-p).

La condición de ortogonalidad es pues: Rango M = m-(n-p) = (m+p)-n

3.07.- Paralelismo entre dos variedades lineales A y B, dadas por sendos sistemas de ecuaciones compatibles e irreducibles.

Sean las variedades A y B expresadas en '3.04 y establezcamos m≥p. La condición para que A sea paralela a B es:

EA⊂EB ⇔ EA’⊃EB’

Si representamos {a→i}’ por Ai y {b→i}’ por Bi se puede ver

por cálculo matricial que la condición de paralelismo es la primera de las expresiones que siguen y que cuando se cumple ésta, la de EA⊂EB es la segunda.

Rango

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

p

1

m

2

1

B

··

B

A

··

A

A

= m; Rango

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

⎪⎪⎪⎪

pp

11

mm

22

11

B

····

B

A

····

A

A

β

βα

αα

= m

23

D.- ECUACION DE 1º GRADO CON COEFICIENTE TENSORIAL

1.- Ecuación general.

Sea un espacio vectorial E n-dimensional propiamente euclidiano. La ecuación de 1º grado con coeficiente tensorial es:

τ→x→ + v→ = 0→ en la cual los coeficientes τ→ y v→ son, respectivamente, un tensor de 21 orden no nulo y un vector, ambos construídos sobre E.

1.01.- TEOREMA 1º.- La solución X de la ecuación general de primer grado con coeficiente tensorial, es una variedad lineal mutuamente paralela a Nuc τ→, cuando existe, y existe si y sólo si el coeficiente v→ pertenece a Im τ→.

a) La ecuación puede ponerse en la forma equivalente:

v→ = τ→(-x→) y por tanto la condición de que exista un punto x→' solución de la misma es que se verifique v→∈Im τ→

a) Sea un punto x→’ solución de la ecuación. Podremos escribir:

⎭⎬⎫

=+′=+0vx

0vxrrrr

rrrr

ττ

⇔ ⎭⎬⎫

∈′=′−Xx

0)xx(r

rrrrτ

⎭⎬⎫

∈′∈′−Xx

Nuc)xx(r

rrr τ

y por tanto, para x→’ ∈ X, tenemos X-x→=Nuc τ→ y finalmente

X = x→’ + Nuc τ→

1.02.- TEOREMA 2º.- Toda ecuación con solución puede transformarse en otra equivalente de coeficiente tensorial simétrico,por multiplicación contracta de sus dos miembros por el tensor τ~ transpuesto de τ→.

a) Sabiendo por cálculo tensorial que:

τ~(τ→x→) = (τ~∗τ→)x→ la nueva ecuación será:

τ~(τ→x→+v) = (τ~∗τ→)x→ +τ~v→ = 0→ que se verificará para todos los puntos solución de la anterior.

Por álgebra tensorial sabemos que τ~∗τ→ es un tensor simétrico.

24

b) La nueva ecuación tendrá solución si y sólo si la primera ecuación la tiene.

Pues la nueva condición es τ~v→ ∈ Im (τ~∗τ→) y evidentemente se verificará si y sólo si se verifica la anterior condición, ó sea que para algún vector a→ se verifica v→=τ→a→.

Por tanto, v→ ∈ Im τ→ también se podrá establecer como condición para que la nueva ecuación tenga solución.

c) La nueva ecuación es equivalente a

(τ~∗τ→)x→ +τ~v→ = 0→ ⇔ τ~(τ→x→+v→) = 0→ ⇔ τ→x→+v→ ∈ Nuc τ→ y como también se verifica:

v→ ∈ Im τ→ ⇔ τ→x + v→ ∈ Im τ→ y se sabe por cálculo tensorial que Nuc τ~ es el subespacio ortogonal a Im τ→, y que sólo tienen en común el vector nulo, la nueva ecuación también será equivalente a

τ→x→+v→ = 0 y ambas ecuaciones tendrán las mismas soluciones.

1.03.- En adelante, de no advertirse previamente lo contrario, consideraremos que las ecuaciones tienen solución y que el coeficiente tensorial tiene núcleo e imagen ortogonales, lo que siempre ocurre si es simétrico o regular.

1.04.- Pié de la normal a X desde el origen. Es el punto:

(v→∈Im τ→): p→ = -τ→-1v→

a) Pertenece a X:

τ→(-τ→-1v→) + v→ = -(τ→*τ→-1)v→ + v→ = -τ→0v→ + v→ = -v→'v→ = 0→

b) La dirección p→ es ortogonal a X pues pertenece a

Im τ→ y por tanto es ortogonal a Nuc τ→ y en consecuencia a X.

c) Por consiguiente también se verifica que el punto p→ es la intersección entre Im τ→ y X:

p→ = Im τ→ ∩X

1.05.- Solución general de τ→x→+v→=0→:

La expresión general cuando x→’ es el pié de la normal desde el origen, es la siguiente:

25

X = -τ→-1v→ + Nuc τ→

Como I→-τ→ es el tensor unitario de Núc τ→, también

podemos escribir:

X = {x→/ x→= -τ→-1v→ + (I→-τ→0)w→; w∈E}

1.06.- Otras expresiones de la condición v→∈Im τ→.

a) De acuerdo con lo que acabamos de ver, tendremos:

(I→-τ→0)v→ = 0

b) Generalmente es más útil la comprobación matricial:

(T ={τ→}’; V ={v→}): Rango {TV} = Rango T

1.07.- Para que la solución general sea un subespacio, la condición es v→=0

→.

Puesto que deberá contener a la solución 0→ y entonces:

τ→0→ + v→ = 0→ ⇔ v→ = 0→

1.08.- Resolución de una ecuación.

10.- Aunque τ→ no sea simétrico ni regular, podemos hallar X

utilizando los valores de τ→0 y τ→-1 obtenidos por el método de la ecuación característica de τ→, atendiendo a sus propiedades.

20.- Si hay solución, podemos resolver la ecuación equivalente a {τ→x→} + {v→} = {0→} pero con coeficiente matricial simétrico, que resulta del producto de la ecuación por {τ~}’.

Entonces, la solución que se halle es igual a la obtenida a partir de una base ortonormal y un τ→ simétrico de igual núcleo.

Para v→ no perteneciente a Im τ→, como no hay solución, la comprobación de la solución que se encuentra de esta manera, resultará negativa.

1.09.- Ejemplo de resolución de una ecuación.

Vamos a resolver la de los coeficientes siguientes:

{τ→}’ =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−−−−−−

2111

1211

1120

1106

{v→} =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−33

0

2

en donde τ→ tiene los siguientes invariantes (coeficientes de la

26

ecuación característica):

∂1 = 12; ∂2 = 43; ∂3 = 48; ∂4 = |τ→| = 0.

Teniendo presente el algebra tensorial, procederemos

así:

a) Cálculo de τ→0 y de τ→-1.

τ→4-12τ→3+43τ→2-48τ→= 0 ⇒ ⎩⎨⎧

=−+−=−+−

− 0484312

0484312102

023

ττττττττrrrr

rrrr

Deducimos de estas igualdades:

{ τ→0}’ = 31

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−−−−

2110

1210

1120

0003

; { τ→-1}’ = 1441

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−−−−−

3519169

1935169

1616320

99027

b) Existencia de solución (I

→-τ→0)v→ = 0

{(I→-τ→0)v→} =

31

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

1110

1110

1110

0000

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−33

0

2

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0

0

0

0

c) Cálculo de la solución p→ = {-τ→-1v→}

{p} = -1441

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−−−−−

3519169

1935169

1616320

99027

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−33

0

2

= -1441

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−144144

0

0

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−1

1

0

0

d) Cálculo de Nuc τ→.

Podemos determinar Nuc τ→ sabiendo que las matrices de

sus vectores son todas las generadas por las matrices columna de {I→-τ→0}’.

También podemos determinarlo desarrollando {I

→-τ→0}’{w→} y

dando a {w→} componentes arbitrarias.

e) Expresión matricial de la solución general:

27

X =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−1

1

0

0

+ α

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

1

1

1

0

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

++−αα

α

1

1

0

1.10.- Otro ejemplo:

{τ→}’=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−

0000

1011

1102

0111

; {v→} =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0

1

2

1

; ∂1=1; ∂2=0; ∂3=4; ∂4=0

a) Cálculo de τ→0 y τ→-1.

τ→4-τ→3-4τ→ = 0→ ⇒ τ→3-τ→2-4τ→0 = 0→ ⇒ τ→2-τ→ -4τ→-1 = 0

τ→0 = 41(τ→3-τ→2); τ→-1 =

41(τ→2-τ→)

{ τ→0}’ =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−

0000

1100

1010

0001

; { τ→-1}’ = 41

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−

0000

0222

2311

2111

b) Existencia de solución:

{(I→-τ→0)v→} =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

1000

1000

1000

0000

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0

1

2

1

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0

0

0

0

c) Cálculo de la solución p→ = {-τ→-1v→}

{p→} = 41

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−

0000

0222

23161

2111

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0

1

2

1

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−

0

2

1

0

d) Expresión matricial de la solución general:

28

{x→} =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−

0

2

1

0

+ β

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

1

1

1

0

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

+−+−

βββ

2

1

0

1.11.- Recta de ecuación (a→≠0→): a→×x→ = b→

en un espacio tridimensional.

Tendremos en cuenta las propiedades del producto vectorial.

a) Condición de solución: b→ ∈ Im (a→×) ⇔ (∃m): b→ =a→×m→

Es: b

→=0→ ó a→b

→=0 (dirección b

→ ortogonal a dirección a→)

b) Nuc {a→×).

El núcleo de un tensor antisimétrico de 2º orden es

unidimensional, y por tanto X es una recta.

Sean dos puntos x→’ y x→” solución. Tendremos:

⎭⎬⎫

=′′×=′×bxa

bxarrr

rrr

⇒ a→ × (x→’-x→”) = 0→

Por consiguiente la dirección de la recta es paralela a

a→ y por tanto, para b→≠0→, ortogonal a b→.

c) X es un subespacio, o sea que el origen pertenece a X, si

y sólo si b=0→. Pues es evidente que ésta es la condición para que

la ecuación se verifique para x→=0→.

d) Si X no es un subespacio, toda solución x→ corresponde a

un vector ortogonal a b→, dado que sabemos que un producto

vectorial es ortogonal a cada uno de los factores. e) Si X no es un subespacio, el vector que define el pié de la normal a X desde el origen, por ser normal a X es ortogonal a a→, y por c) es ortogonal a b

→. Podremos pues representarlo por p→=

α(b→×a→) para algún valor α escalar. Como p→ es un punto de X, verificará:

b→=a→×[α(b→×a→)] = α[a→×(b→×a→)] = α(a2b

→-(a→b

→)a→] = αa2b

y por consiguiente:

α = 2a1 ⇒ p→ = 2a

1b→×a→

Como el producto vectorial verifica:

29

(b→×a→)(b→×a→) = b→[a→×(b→×a→)] = b→[a2b→-(a→b

→)a→] = a2b2

la distancia del origen al pié de la normal será:

p = 2a

)ab()ab(rrrr

×× = 2

22

aba

= 2aab

= ab

2.-Conversión de ecuaciones.

Paso de un sistema de m ecuaciones de primer grado de

coeficientes escalares en un espacio propiamente euclidiano n-dimensional, a la expresión equivalente de coeficiente tensorial, y viceversa.

Adoptaremos un método matricial.

a) Caso 1º: m=n.

Sea A→i = {a

→i}’ y el vector v

→ con {v→} =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

n

2

1

··

α

αα

Tendremos:

⎪⎪⎭

⎪⎪⎬

=+

=+=+

0xa

·····

0xa

0xa

nn

22

11

α

αα

rr

rr

rr

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

xa

..

xa

xa

n

2

1

rr

rr

rr

+

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

n

2

1

··

α

αα

+

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0

··

0

0

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

n

2

1

A

··

A

A

{x→} +

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

n

2

1

··

α

αα

= 0 ⇔ {τ→}’{x→} + {v→} ⇔ τ→x→ + v→

Este proceso a la iversa es el que podemos seguir para

pasar de una expresión tensorial al sistema equivalente, sea cualquiera el tensor τ→.

b) Caso 2º: m<n.

Podemos seguir el proceso anterior considerando añadidas n-m ecuaciones de coeficientes nulos. Vamos a poner un ejemplo.

Sean 3 ecuaciones de las siguientes características: {a→1}’=A1= {1 1 -1 0}; {a

→2}’=A2={2 0 1 -1}; {a

→3}’=A3={1 -1 0 1}

α1 = -1 α2 = 2 α3 = -1

30

Tendremos:

{τ→}’ = T =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−

0000

1011

1102

0111

; {v→} =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0

1

2

1

= V

El proceso inverso es sencillo.

Si hay solución, podemos hallar una ecuación

equivalente, multiplicando los dos miembros de la ecuación matricial por T~. Los nuevos coeficientes serán:

{τ→s}'= T~T =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−

0010

0011

0101

0121

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−

0000

1011

1102

0111

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−−−−−−

2111

1211

1120

1106

{v→s}= T~V=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−

0010

0011

0101

0121

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

0

1

2

1

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−33

0

2

c) Caso 3: m>n.

Sea un sistema de las características siguientes:

{a→1}’= {1 1 -1 0}; {a

→2}’= {2 0 1 -1}; {a

→3}’= {1 -1 0 1};

α1 = -1; α2 = 2; α3 = -1; {a→4}’= {4 0 0 0}; {a

→5}’= {3 1 0 -1}

α4 = 0; α5 = 1

T =

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

−−

1013

0004

1011

1102

0111

; V =

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

1

0

1

2

1

Siendo 3 el rango de T, así como el de {TV}, el sistema

se reduce al del caso anterior.

Como sea que V∈ Im τ→, también podemos hallar una ecuación equivalente si consideramos que nos hallamos en un espacio vectorial de más de n dimensiones, de la siguiente manera:

31

{τ→}’= T~T =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−

10110

00011

10101

34121

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

−−

1013

0004

1011

1102

0111

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−−−−−−

3124

1211

2133

41331

{v→} = T~V =

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−−−

10110

00011

10101

34121

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

⎪⎪⎪

1

0

1

2

1

=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

−43

1

5

3.-Posiciones relativas.

3.01.- Paralelismo.

Sean las variedades:

X1 ... τ→1x→ + v→1 = 0

→; X2 ... τ

→2x→ + v→2 = 0

TEOREMA 3º.- Para que X1 sea paralelo a X2, la condición

necesaria y suficiente es:

τ→1

0*τ→2 = τ→2

Puesto que evidentemente X1 será paralelo a X2 si y sólo

si se verifica.

Nuc τ→1 ⊂ Nuc τ→2 ⇔ Im τ→1 ⊃ Im τ→2 ⇔

⇔ (∀v→): τ→1

0(τ→2v→) = τ→2v

→ ⇔ τ→1

0*τ→2 = τ→2

y si τ→2 lo suponemos simétrico, el último producto matricial es permutable.

Hubiésemos podido utilizar τ→2

0 en vez de τ→2 con análogo resultado.

Es fácil ver que una condición necesaria pero no suficiente es: Rango τ→1 ≥ Rango τ→2.

3.02.- X1 paralelo a X2 estará contenido en X2 cuando además se verifique:

v→2 = τ→2(τ→1

-1v→1)

Puesto que existiendo el paralelismo, bastará que

32

tengan un punto común, tal como el pié de la normal desde el origen a X1. O sea:

τ→2(-τ→1

-1v→1) + v→

2 = 0→ ⇔ v→2 = τ

→2(τ→1

-1v→1)

3.03.- X1 y X2 serán mutuamente paralelos cuando:

τ→2

0 = τ→1

0 pues los núcleos de ambos tensores deberán coincidir.

3.04.- Como consecuencia de los dos últimos párrafos, dos ecuaciones serán equivalentes, es decir, X1 = X2, si y sólo si se verifica:

τ→2

0 = τ→1

0

τ→1

-1v→1 = τ→2

-1v→2

Pues entonces X1 y X2 son mutuamente paralelas con igual pié de normal.

3.05.- Ortogonalidad o perpendicularidad.

Sean las variedades:

X1 ... τ→1x→ + v→1 = 0

→; X2 ... τ

→2x→ + v→2 = 0

con τ→1 y τ

→2 tensores simétricos.

TEOREMA 4º.- Las condiciones de ortogonalidad o

perpendicularidad son las siguientes:

Perpendicularidad: Nuc τ→2 ⊃ Im τ→1

Ortogonalidad: Nuc τ→2 ⊂ Im τ→1

Ortogonalidad suplementaria: Nuc τ→2 = Im τ→1

Pues X1 y X2 serán perpendiculares u ortogonales si y

sólo si lo son Nuc τ→1 y Nuc τ→2. Como por ser simétricos ambos

tensores, su núcleo es ortogonal suplementario a su imagen, la relación buscada entre núcleos equivale a una relación de inclusión entre Nuc τ→2 y Im τ

→1.

3.06.- Vamos a ver las formas que pueden adoptar estas

condiciones según sean las dimensiones m1 de Nuc τ→1 y m2 de Nuc τ

→2.

Recordaremos del álgebra tensorial que se tiene:

Im τ→ = Im τ→0 = Nuc (I→-τ→0)

33

Im τ→ = Im τ→0 es ortogonal suplementario de Im(I→-τ→0)

a) Caso 1º: m1 + m2 > n

Sólo es posible la perpendicularidad. La condición es: Nuc τ→2 ⊃ Im τ→1 y en función de los subespacios ortogonales y suplementarios a ambos miembros, será:

Im τ→2

0 ⊂ Im (I→-τ→1

0) y por consiguiente:

(∀v→): (I→-τ→1

0)(τ→2

0v→) = τ→2

0v→ y como el primer miembro resulta:

(I→-τ→1

0)(τ→2

0v→) = I→(τ→2

0v→) - τ→1

0(τ→2

0v→) = τ→2

0v→ - (τ→1

0*τ→2

0)v→ sustituyendo queda:

(∀v→): τ→2

0v→ - (τ→1

0∗τ→2

0)v→ = τ→2

0v→ ⇔ (∀v→): -(τ→1

0∗τ→2

0)v→ = 0→

y finalmente:

τ→1

0∗τ→2

0 = 0→ ( ⇔ τ→1 ∗ τ→2 = 0

→)

b) Caso 2º: m1 + m2 < n

Sólo es posible la ortogonalidad. La condición es

Nuc τ→2 ⊂ Im τ→1 ⇔ Im(I→-τ→2

0) ⊂ Im τ→1

0 ⇔

(∀v→): τ→1

0[(I→-τ→2

0)v→] = (I→-τ→2

0)v→ ⇔ τ10∗(I→-τ→2

0) = I→-τ→2

0 ⇔

⇔ τ→1

0 + τ→2

0 - I→ = τ→1

0 ∗ τ→2

0 (= τ→2

0 ∗ τ→1

0)

c) Caso 3º: m1 + m2 = n

La condición es

τ→1

0 + τ→2

0 = I→

que se deduce inmediatamente de haberse de cumplir a la vez las dos condiciones anteriores.

Recíprocamente, de cumplirse esta última condición se cumplen también las otras dos. Efectivamente, multiplicando matricialmente los dos miembros de la condición por τ→1

0 se

34

obtiene:

τ→1

0∗τ→1

0 + τ→1

0∗τ→2

0 = τ→1

0∗I→ ⇔ τ→1

0 +τ→1

0∗τ→2

0 = τ→1

0 ⇔

⇔ τ→1

0∗τ→2

0 = 0→

y con ello se deduce inmediatamente la condición que falta.

35

4.- Intersecciones.

4 .01.- TEOREMA 5º.- Dados dos tensores simétricos τ→1 y τ→2, se verifica:

Nuc(τ→1

0+τ→2

0) = Nuc τ→1 ∩ Nuc τ→2

Nuc(τ→1

0-τ→2

0) = Nuc τ→1 ∩ Nuc τ→2 + Im τ→1 ∩ Im τ→2

Podemos considerar el espacio total como la reunión de

cuatro conjuntos disjuntos que se señalan a continuación por a, b, c y d, de manera que todo vector m→ no nulo pertenecerá a uno de estos conjuntos y sólo a uno y vamos a ver qué ocurre en cada caso con el vector (τ→1

0±τ→2

0)m→ a) (m→∈ Nuc τ→1: m

→∈ Nuc τ→2): (τ→1

0±τ→2

0)m→ = τ→1

0m→ ±τ→2

0m→ = 0→

b) (m→∉Nuc τ→1; m

→∈ Nuc τ→2): (τ→1

0±τ→2

0)m→ = τ→1

0m→ ≠ 0→ c) (m→∈ Nuc τ→1; m

→∉Nuc τ→2): (τ→1

0±τ→2

0)m→ = ±τ→2

0m→ ≠ 0→ d) (m→∉Nuc τ→1; m

→∉Nuc τ→2): (τ→1

0±τ→2

0)m→ = τ→1

0m→ ±τ→2

0m→ = m→i1±m→

i2

Deducimos de aquí que todos los vectores del conjunto a pertenecen tanto a Nuc(τ→1

0+τ→2

0) como a Nuc(τ→1

0-τ→2

0), y que los vectores de los conjuntos b y c no pertenecen a ninguno de los dos.

En cuanto a los del conjunto d, dado que m→i1 y m→

i2 por hipótesis no pueden ser nulos, habrá dos subcasos:

d1) Si los sumandos m→i1 y m→i2 no tienen igual dirección,

su suma no podrá anularse.

d2) Si la dirección es la misma, ésta habrá de pertenecer a Im τ→1 ∩ Im τ→2. Por otra parte tendremos entonces m

i1=m→i2=m→i, pues corresponden a una única proyección ortogonal de m

→ sobre la dirección común.

La recta proyectante única debe ser paralela a Nuc τ→1 y a Nuc τ→2 y por tanto a Nuc τ

→1 ∩ Nuc τ→2. Así pues, de acuerdo con lo

ya visto, la condición de que m→i1 sea de igual dirección que m→i2

equivale a:

(m→n ∈ Nuc τ→1 ∩ Nuc τ→2; m→

i ∈ Im τ→1 ∩ Im τ→2): m→ = m→n + m

→i

y por consiguiente el caso d2) queda desdoblado en:

(τ→1

0 + τ→2

0)m→ = m→i + m→

i = 2m→

i ≠ 0→

(τ→1

0 - τ→2

0)m→ = m→i - m→i = 0

4.02.- Consecuencia:

36

Nuc (τ→1

0 + τ→2

0) ⊂ Nuc (τ→1

0 - τ→2

0)

4.03.- Para hallar la intersección de dos variedades expresadas por sus ecuaciones tensoriales, puede procederse a transformar sus ecuaciones en dos sistemas equivalentes de coeficientes vectoriales y resolver el sistema conjunto, según se vió en C'2.10 después de ver su compatibilidad y eliminar las ecuaciones superfluas.

Cuando cada ecuación tiene solución también podemos proceder tensorialmente así:

⎭⎬⎫

=+=+0vx:X

0vx:X

222

111 rrrr

rrr

ττ

⇔ ⎭⎬⎫

=+=+

0vx

0vx

212

02

11

101 rrr

rrrr

ττττ

⇔ ⎭⎬⎫

=−+−=+++

−−

−−

0vvx)(:'X

0vvx)(:'X

2121

11

02

012

2121

11

02

011 rrrrrrr

rrrr

ττττττττ

Los sistemas equivalentes anteriores nos indican que

X1∩X2 = X1’∩X2’. Como por el párrafo anterior hemos visto que X1’ es paralelo a X2’, la solución será X1’ siempre que uno de sus puntos verifique la ecuación de X2’, y no habrá solución en caso contrario.

37

5.- Resolución de algunos sistemas de ecuaciones en un espacio tridimensional.

5.01.- Intersección de la recta de ecuación a→×x→=b→ y del

plano de ecuación c→x→=α.

Supondremos previamente que existen recta y plano, es decir:

a→≠0→; c→≠0→; a→b→=0

Los puntos x→ de la recta verificarán:

a→×x→=b→ ⇒ (a→×x→)×c→ = b→×c→ ⇔ (c→x→)a→ - (c→a→)x→ = b→×c→

a) Si se tiene: c→a→=0, αa→ ≠ b→×c→ se verificará:

⇒ (c→x→)a→ ≠ αa→ ⇒ c→x→ ≠ α y la recta será paralela al plano sin punto común con él.

b) Si se tiene: c→a→=0, αa→ = b→×c→ se verificará:

⇒ (c→x→)a→ = αa→ ⇒ c→x→ = α y la recta estará contenida en el plano.

c) Si se tiene c→a→ ≠ 0 se verificará:

x→ = ac

cbarr

rrr×−α

y la recta cortará al plano en este punto.

5.02.- Intersección de una recta de ecuación n→×x→=a→ y de otra recta de ecuación m→×x→=b→.

Por tratarse de dos rectas tendremos:

n→≠0→; m→≠0→, a→n→=0; b→m→=0

a) Si se tiene m→=λn→ para algún escalar λ, es decir, que m→ y n→ tienen la misma dirección, las rectas son paralelas entre sí, pues la primera contiene la dirección de n→ y la segunda a la de m→.

a1) b→=λa→. Las ecuaciones son equivalentes y las rectas

coinciden.

a2) b→≠λa→. Las ecuaciones no tienen solución común y las

rectas son paralelas.

38

b) m→ y n→ independientes.

Las rectas no son paralelas.

Multiplicando la ecuación de la primera recta por m→ y la de la segunda por n→, se obtiene:

m→(n→×x→) = m→a→ ⇔ (m→×n→)x→ = m→a→

n→(m→×x→) = n→b→ ⇔ (n→×m→)x→ = n→b→

Evidentemente, la primera ecuación corresponde a un plano que contiene a la primera recta y la segunda ecuación a un plano que contiene a la segunda recta. Como ambos planos tienen coeficientes opuestos, son mutuamente paralelos.

b1) m→a→ ≠ -n→b→. Los planos no tienen ningún punto común y por lo tanto lo mismo sucede con las rectas, que se cruzan sin cortarse.

b2) m→a→ = -n→b→. Los planos coinciden en uno solo, y como

entonces, las dos rectas no paralelas están contenidas en él, se cortan en un punto.

5.03.- En este último caso, para hallar el punto de intersección procederemos a hallar el de intersección de los tres planos que tienen las siguientes ecuaciones:

(m→×n→)x→ = m→a→ (p→, m→, n→) positivo (p→×n→)x→ = -p→a→

(p→×m→)x→ = p→b→ y en que p→ es un vector arbitrario independiente de m→ y de n→.

El primer plano hemos visto que contiene a las dos rectas. El segundo contiene a la primera recta pues su ecuación es la ecuación de la recta multiplicada por p→. Y por motivo análogo el tercer plano contiene a la segunda recta.

Por consiguiente la intersección de los tres planos coincide con el punto de intersección de las dos rectas del problema.

39

E.-PROYECCIONES ORTOGONALES DE TENSORES

1.- Proyección ortogonal de un vector sobre un subespacio.

Recordaremos del algebra tensorial que, dado un tensor

de núcleo ortogonal a su imagen, la proyección ortogonal de un vector v→ sobre el subespacio Nuc τ→ es (I→-τ→0)v→, siendo I

→ el tensor

idéntico ó fundamental y τ→0 el tensor unidad del subespacio Im τ→.

Diremos ahora que la proyección ortogonal de un vector v→ sobre una variedad lineal X de ecuación

τ→x→ = 0→ referida a un punto de la misma, es:

v→’ = (I→-τ→0)v→

y diremos que v→ es de X cuando v→=v→’.

1.01.- Proyección ortogonal de un tensor.

Sea un tensor σ→ cualquiera considerado como un sumatorio de productos tensoriales de vectores.

Definimos como proyección ortogonal de un tensor σ→ en general, sobre una variedad X, al tensor σ→’ que resulta de sustituir en el sumatorio de los productos tensoriales de σ→ cada vector factor por su vector proyección ortogonal sobre X:

σ→ = ∑(a→i⊗b→i⊗..⊗r→i) ⇒ σ→’ = ∑(a→i’⊗b→i’⊗..⊗r→i’)

Evidentemente el tensor σ→’ tendrá por lo menos las

mismas simetrías y antisimetrías que el tensor σ→ original.

Diremos de un tensor σ→ que es de X cuando todos sus factores son vectores de X.

1.02.- TEOREMA 1º.- Si la proyección ortogonal de σ→ sobre una variedad X de ecuación τ→x→=0→ es σ→’ y µ→ es un tensor de X (ó sea µ→=µ→’), se verifica:

(σ→µ→)’ = σ→’µ→

Pues cuando σ→ y µ→ son productos tensoriales únicos, por ejemplo:

σ→ = a→1⊗a→2⊗..⊗a→m⊗..⊗a→r ⇒ σ→’ = a→1’⊗a→2’⊗..⊗a→m’⊗..⊗a→r’

µ→ = b→1’⊗b→2’⊗..⊗b→m’

podremos escribir:

40

(σ→µ→) = (a→1b

→1’)(a

→2b→

2’)..(a→mb→

m’)(a→

m+1⊗..⊗a→r) (σ→µ→)’ = (a→1b

→1’)(a

→2b→

2’)..(a→mb→

m’)(a→

m+1’⊗..⊗a→r’) (σ→’µ→) = (a→1’b

→1’)(a

→2’b→2’)..(a

→m’b→m’)(a

→m+1’⊗..⊗a→r’)

Pero tenemos (I

→-τ→0)∗(I→-τ→0)=(I

→-τ→0) que es un tensor

simétrico, así como v→’=(I→-τ→0)v→', y por consiguiente:

a→ib→i’= a

→i[(I

→-τ→0)b→i’]= [(I

→-τ→0)a→i]b

→i’ = a

→i’b→i’

Verificándose la igualdad para productos tensoriales

únicos deberá verificarse también para sumatorios de productos tensoriales.

1.03.- La proyección ortogonal de un tensor σ→ sobre una variedad X es única.

Pues si hubiera dos distintas tales como σ→’ y σ→”, por el teorema anterior en el espacio X se verificaría:

(∀µ→/ µ→∈X): σ→’µ→ = σ→”µ→ ⇒ σ→’ = σ→”

1.04.- El teorema anterior se puede enunciar también de esta otra manera:

Si en el espacio puntual afín, σ→ es el tensor de la aplicación lineal tal que el tensor µ→ tiene por imagen el tensor σ→µ→, σ→’ es el tensor de X que corresponde a la aplicación que a todo µ→, cuando µ→ pertenece a X, hace corresponder el tensor (σ→µ→)’ de X, o sea el tensor proyección ortogonal sobre X del tensor imagen de σ→.

Decimos entonces, que por lo que respecta a tal aplicación, σ→’ es el tensor inducido en X por el tensor σ→ del espacio puntual afín.

1.05.- Cuando el tensor σ→ que proyectamos sobre X es precisamente de 2º orden, también podemos escribir:

σ→’ = (I→-τ→0)∗σ→∗(I→-τ→0)

Ya que, en general, para µ→ y ω→ tensores simétricos de 2º orden y expresando a σ→ por a→i⊗b

→i podemos escribir para todo v→:

[µ→∗(a→i⊗b→i)∗ω→]v→ = µ→[(a→i⊗b

→i)(ω→v→)] = µ→[a→i(ω→v→)]b

→i =

= µ→[(ω→a→i)v→]b

→i = [(ω→a→i)v→)](µ→b→i) = (ω→a→i ⊗ µ→b→i)v→

y por consiguiente:

µ→ ∗ (a→i⊗b→i) ∗ ω→ = ω→a→i ⊗ µ→b→i

41

y en particular, para µ→ = ω→ = I→-τ→0, se tiene:

(I→-τ→0) ∗ (a→i⊗b

→i) ∗ (I→-τ→0) = [(I→-τ→0)a→i]⊗[(I→-τ→0)b

→i] y como el 2º miembro por definición es σ→’,tendremos:

(I→-τ→0)∗σ→∗(I→-τ→0) = σ→’

2.- Proyección sobre un plano.

Consideraremos desde ahora, que la variedad X es un

plano o variedad (n-1)-dimensional, de versor normal b→ y que el tensor que proyectamos sobre él es un tensor simétrico σ→ de segundo orden.

Tendremos τ→0= b→⊗b→.

2.01.- TEOREMA 2º.- Se verifica:

a) σ→’b→ = 0.

b) σ→’ = σ→ - (σ→b→ ⊗ b→) - (b→ ⊗ σ→b→) + [(b→⊗b→)σ→](b→⊗b→)

La primera proposición es evidente por ser b

→ ortogonal

al plano X.

En cuanto a la segunda, desarrollando la expresión de σ→’ tenemos:

σ→’ = (I→-τ→0)∗σ→∗(I→-τ→0) = σ→ -τ→0∗σ→ - σ→∗τ→0 + τ→0∗σ→∗τ→0

Operando sobre cada uno de los sumandos 2º 3º y 4º del segundo miembro previamente multiplicados por un vector v→ cualquiera, obtenemos:

(τ→0∗σ→)v→ =τ→0(σ→v→)=(b→⊗b→)(σ→v→)=[b→(σ→v→)]b→=[(σ→b→)v→]b=(σ→b→⊗b→)v→

⇔ τ→0∗σ→ = σ→b→⊗b→

(σ→∗τ→0)v→ =σ→(τ→0v→)=σ→[(b→⊗b→)v→]=σ→[(b→v→)b→]=(σ→b→)(b→v→)=(b→⊗σ→b→)v→

⇒ σ→∗τ→o = b→⊗σ→b→

(τ→0∗σ→∗τ→0)v→ = τ→0[(σ→∗τ→0)v→] = (b→⊗b→)[(b→⊗σ→b→)v→]=(b→⊗b→)(b→v→)(σ→b→)=

=(b→v→)[b

→(σ→b→)]b→ = [b→(σ→b→)](b→⊗b→)v→ = [σ→(b→⊗b→)](b→⊗b→)v→

⇒ τ→0∗σ→∗τ→0 = [σ→(b→⊗b→)]b→⊗b→)

Sustituyendo los valores hallados, tenemos la igualdad

42

que se quería demostrar.

2.02.- Sea la proyección de un tensor simétrico σ→ de 2º orden sobre un plano de versor normal b

→, Vamos a estudiar las

condiciones que deben existir para que no siendo nulo el tensor σ→, sea nula su proyección σ→’ sobre el plano.

Para ello examinaremos este problema en los diversos casos distintos en que nos podemos hallar.

a) b→∈ Nuc σ→.

Tendremos evidentemente σ→b→=0→ y con ello la expresión

hallada para σ→’ se reduce a que σ→’ es igual a σ→ que no es nulo por hipótesis y por tanto σ→’ en este caso no puede ser nulo.

b) b→∈ Im σ→; σ→b→=λb→ (ó sea b→ es versor propio de σ→).

Aplicando la misma expresión, ó sea:

σ→’ = σ→ - (σ→b→⊗b→) - (b→⊗σ→b→) + [(σ→b→)b→](b→⊗b→) sustituyendo σ→b→ por λb→ y simplificando, se obtiene:

σ→’ = σ→ - λ(b→⊗b→) y habrá dos posibilidades:

b1) σ→ = λ(b→⊗b→) ⇒ σ→’ = 0→

b2) σ→ ≠ λ(b→⊗b→) ⇒ σ→’ ≠ 0→

c) b→∈ Im σ→; σ→b→ ≠λb→; Dim (Im σ→) ≠ 2.

Por hipótesis σ→b→ y σ→0b

→= b pertenecen a Im σ→ y son

independientes. Por tanto no es posible Dim (Im σ→) < 2

c1) Dim (Im σ→) < 2. Es un caso imposible

c2) Dim (Im σ→) > 2.

En este caso siempre habrá un versor propio a→ de σ→ simétrico, que pertenezca a Im σ→, sea independiente de σ→b→ y de σ→0b→, y que tenga un valor propio α no nulo.

Efectuando la multiplicación contracta de a→ por la

expresión general de σ→’, obtenemos:

σ→’a→ = σ→a→ -a→[σ→b→⊗b→] -a→[b→⊗σ→b→] + a→[(b→⊗b→)σ→](b→⊗b→)

σ→’a→ = σ→a→ - [a→(σ→b→)]b→ - (a→b→)(σ→b→) + (a→b→)[(b→⊗b→)σ→]b→

La nulidad de σ→’ exige σ→’a→=0→ y por tanto que el 2º

43

miembro de la igualdad precedente sea nulo. Teniendo en cuenta que σ→a→= αa→, este 2º miembro es una función de los vectores independientes a→, σ→b→ y b→, y por consiguiente, para su anulación, deberá anularse cada uno de sus coeficientes.

Así pues, como el coeficiente α del término en a→, por hipótesis no es nulo, en este caso c2) nunca podrá ser nulo σ→’.

d) b→∈ Im σ→; σ→b→≠λb→; Dim (Im σ→) = 2.

El tensor σ→’ será nulo si, y sólo si, su producto por

todos los vectores de una base es nulo.

Consideremos la base formada por los vectores b→=σ→0b

→,

σ→-1b→ de Im σ→ y por una base {v→i} de Nuc σ

→.

El vector σ→-1b→ es independiente de b

→ puesto que si no

fuera así se verificaría σ→-1b→ = βb→ y por consiguiente σ→b→ = β-1b→,

lo que es imposible por hipótesis. Siendo así, podemos considerar la base formada por los vectores b

→=σ→0b

→, σ→-1b

→ de Im σ→ y por una

base {v→i} de Nuc σ→.

El producto σ→'b→ es nulo según el teorema anterior.

El producto de σ→’ por cualquier v→i del núcleo de σ

→ lo podemos obtener sustituyendo en la expresión de σ→’a→ del caso anterior el vector a→ por el vector v→i, con lo cual se ve inmediatamente que el resultado es nulo por serlo σ→v→i y v

→ib→.

Queda por tanto como condición necesaria y suficiente

para tener σ→’=0→ el que se verifique σ→’(σ→-1b→)=0

→.

Como siempre tenemos σ→(σ→-1b

→)=σ→0b

→ la expresión general de

σ→’(σ→-1b→) deducida de la de σ→’ que hemos visto, será

σ→’(σ→-1b→)= σ→0b

→-[(σ→-1b

→)(σ→b→)]b→-[(σ→-1b

→)b→](σ→b→)+[σ→(b→⊗b→)][(σ→-1b

→)b→]b→

Sabemos que ahora el primer término del desarrollo es

igual a b→ y vamos a ver a continuación que se anula con el

segundo término.

El coeficiente de -b→ en el 2º término del 2º miembro es

(σ→-1b→)(σ→b→) = σ→[b→ ⊗(σ→-1b

→)]

y por ser simétrico σ→ también tendremos:

(σ→-1b→)(σ→b→) = σ→[(σ→-1b

→)⊗ b→] = [σ→(σ→-1b

→)]b

→ = (σ→0b

→)b→ = b

→b→ = 1

y el segundo término queda en -b

→, o sea opuesto al 1º.

Por lo tanto,para este caso podremos escribir:

44

σ→’(σ→-1b→)= -[(σ→-1b

→)b→](σ→b→) + [σ→(b→⊗b→)][(σ→-1b

→)b→]b→

Para σ→'=0→ será necesario que, en el 2º miembro, función

de b→ y σ→b→ independientes, los coeficientes de ambos vectores sean

nulos, y por consiguiente se deduce inmediatamente del único término en σ→b→, que una condición necesaria es que se verifique:

0 = (σ→-1b→)b→ = σ→-1(b

→⊗b→)

Si tenemos en cuenta que al cumplirse esta condición, no sólo se anula el término 1º de la expresión reducida, sino que también se anula evidentemente el último término, la condición necesaria anterior ha pasado a ser también suficiente. Así pues podemos establecer:

d1) σ→-1(b→⊗b→) = 0 ⇒ σ→’ = 0→

d2) σ→-1(b

→⊗b→) ≠ 0 ⇒ σ→’ ≠ 0→

Observemos que para b→∈Imσ→ no nulo, la condición

anterior, ó sea σ→-1(b→⊗b→) = 0, incluye que se verifique σ→b→≠λb→. Pues

si se verificara entonces σ→b→=λb→, λ sería un valor propio no nulo de σ→, y se verificaría σ-1b

→=λ-1b→ así como σ→-1(b

→⊗b→)=λ-1b2≠0.

e) b→∉Im σ→; b→∉Nuc σ→; σ→b→ ≠ λb→i

El vector b

→i=σ→0b→ es la proyección ortogonal de b

→ sobre

Im σ→ y no puede ser nulo ni igual a b→.

Sea la expresión general antes obtenida para σ→’(σ→-1b→),

en que se ha sustituído σ→0b→ por b

→i:

σ→’(σ→-1b→)= b

→i-[(σ

→-1b→)(σ→b→)]b→-[(σ→-1b

→)b→](σ→b→)+[σ→(b→⊗b→)][(σ→-1b

→)b→]b→

El sistema {b

→i,b→,σ→b→} es independiente, pues σ→b→ y b→i

aunque de distinta dirección pertenecen ambos a Im σ→ y no pueden generar a b

→ que no pertenece a Im σ→.

Por estar expresado σ→’(σ→-1b

→) en función de tres vectores

independientes, para anularse precisará que sean nulos los tres coeficientes correspondientes y como el de b

→i siempre es uno, no

puede anularse y por tanto tampoco puede anularse σ→’.

f) b→∉ Im σ→; b∉ Nuc σ→; σ→b→ = λb→i.

Tendremos ahora:

σ→b→i = λb→i; b

→b→

i = (bi+bn)b→i = b

→ib→i

Por tanto b

→i es vector propio de σ

→ con valor propio λ que tendrá ahora igual dirección que σ→b→, y se verificará:

σ→-1b→ = σ→-1b

→i = λ

-1b→

i

45

Sustituyendo los nuevos valores en cada término del 21

miembro de la expresión general hallada para σ→’(σ→-1 b→), resulta:

1º. σ→0b

→ = b

→i

2º. -[(σ→-1b

→)(σ→b→)]b→ = -[(λ-1b→i)(λb

→i)]b

→ = -(b

→ibi)b

3º. -[(σ→-1b

→)b→](σ→b→) = -[(λ-1b→i)b

→](λb→i)]=-(b

→ib→)b→

i = -(b→ib→i)b→i

4º. +[σ→(b→⊗b→)][(σ→-1b

→)b→]b→ = [(σ→b→)b→]][(σ→-1b

→)b→]b→ =

= [(λb→i)b

→][(λ-1b→i)b

→]b→ = (b

→ib→

i)(b→ib→

i)b→

Sustituyendo se tiene:

σ→’(σ→-1b→) = b

→i - (b

→ib→i)b→ -(b

→ib→

i)b→

i + (b→

ib→

i)(b→ib→

i)b→ =

= b→

i[1-b→

ib→i] - [(b

→ib→i)b→][1-b

→ib→i] =

= [1-b→ib→

i][b→

i -(b→ib→

i)b→]

Esta expresión resultante no puede anularse, pues el

primer corchete no puede ser nulo porque b→ib→i siempre será menor

que uno, y el 2º corchete tampoco podrá serlo, ya que b→ y b

→i son

de distinta dirección

Por consiguiente en este caso f) el tensor σ→' no puede ser nulo.

2.03.- Resumen del caso anterior.

La proyección ortogonal σ→’ de un tensor σ→ simétrico de 2º orden no nulo, sobre un plano ortogonal a un versor b

→, se

anula si, y sólo si, estamos en uno de los dos casos siguientes:

1º.- (∃λ): σ→ = λ(b→⊗b→)

2º.- b→∈ Im σ→; σ→-1(b

→⊗b→) = 0; Dim (Im σ→) = 2

2.04.- Para que la proyección ortogonal σ→’ de un tensor simétrico de 2º orden no nulo sobre un plano ortogonal a un versor b

→, sea igual a σ→ (en su espacio) la condición necesaria y

suficiente es que se verifique:

σ→b→ = 0 ⇔ b→∈ Nuc σ→.

Pues dada la expresión hallada para σ→a→ siendo a→ un

vector cualquiera:

σ→’a→ = σ→a→ - [a→(σ→b→)]b→ - (a→b→)(σ→b→) + (a→b→)[(b→⊗b→)σ→]b→ es evidente que la condición es:

46

(∀a→): [a→(σ→b→)]b→ + (a→b→)(σ→b→) = (a→b→)[(σ→b→)b→]b→ y por tanto será necesario que se verifique: (∃λ): σ→b→ = λb→

Sustituyendo este valor en la ecuación anterior obtenemos la condición en esta forma:

(∀a→): (a→λb→)b→ + (a→b→)λb→ = (a→b→)(λb→b→)b→ = (a→b→)λb→

(∀a→): 0→ = (a→λb→)b→ = λa→(b→⊗b→)

Por consiguiente, como es preciso λ=0, la condición necesaria es σ→b→ = 0

→ que se ve fácilmente que también es

suficiente.

47

INDICE DE ECUACIONES (1)............. 9 (2) ........... 10 (3) ........... 13