algebra lineal 2014-07-19

12
Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal Álgebra Lineal Parte 2 19 de julio de 2014 De nuestros estudios previos a este curso, conocemos la teoría básica de funciones. Esto es, un conjunto de pares ordenados, que relacionan cada elemento de un conjunto de partida con los de un conjunto de llegada . Dichas funciones se suelen representar con la letra y exigen que todo el conjunto de partida tenga uno de sus elementos como primera componente de cada par ordenado; así, este conjunto pasa a llamarse el “dominio” de la función. También es necesario que para cada elemento del dominio, exista un único elemento del conjunto como segunda componente del par ordenado, de forma que los elementos de que cumplan con esto pasan a formar un conjunto llamado “rango” o “codominio” de la función. Por lo general se estudia estas funciones de forma que su dominio y su codominio son subconjuntos de . A estas se las llama “funciones de variable real” y se las puede graficar en un plano cartesiano. Las funciones de variable real se dividen en muchos tipos, entre ellos están las funciones “lineales” que son del tipo () = + , tal que la gráfica de estas funciones es siempre una recta de pendiente y que interseca al eje vertical en =. Si la función es del tipo () = se dice que la función es una recta de pendiente y que pasa por el origen. Este último tipo de funciones lineales (las que pasan por el origen) cumplen propiedades interesantes, pues resulta que preservan la suma y el producto por constantes. Es decir, si tenemos un punto con abscisa =, ordenada = () y otro con abscisa =, ordenada = (); entonces, de seguro que habrá un punto con abscisa =+, y su ordenada no será otra cosa que: = ( + ) = ( + ) = + = () + () Asimismo, podemos encontrar un punto cuya abscisa sea = y su ordenada será = (), que es igual a , y se cumplirá que = (). Esto no es muy interesante en cursos que estudien funciones de variable real como tema central, por ejemplo cursos de cálculo, trigonometría o análisis numérico, donde se analizan funciones del tipo () = cos o () = + 5 2 ; sin embargo serán funciones muy importantes para efectos de álgebra lineal, pues sólo en base a sus propiedades básicas se puede obtener bastante información, la cual puede ser generalizada. Las funciones lineales están definidas en sí en espacios vectoriales, un caso particular es el espacio =ℝ, que es el que mencionamos y el que se puede graficar en un plano cartesiano, pero nosotros vamos a generalizar esto y diremos que se definen en diferentes espacios vectoriales cualesquiera. Así, diremos que son : → . A estas funciones lineales entre espacios vectoriales las llamaremos “Transformaciones Lineales”.

Upload: cindy-adriana-bohorquez-santana

Post on 21-Jan-2018

196 views

Category:

Engineering


0 download

TRANSCRIPT

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

Álgebra Lineal – Parte 2

19 de julio de 2014

De nuestros estudios previos a este curso, conocemos la teoría básica de funciones. Esto es, un

conjunto de pares ordenados, que relacionan cada elemento de un conjunto de partida 𝐴 con los de

un conjunto de llegada 𝐵. Dichas funciones se suelen representar con la letra 𝑓 y exigen que todo

el conjunto de partida tenga uno de sus elementos como primera componente de cada par ordenado;

así, este conjunto 𝐴 pasa a llamarse el “dominio” de la función. También es necesario que para

cada elemento del dominio, exista un único elemento del conjunto 𝐵 como segunda componente

del par ordenado, de forma que los elementos de 𝐵 que cumplan con esto pasan a formar un

conjunto llamado “rango” o “codominio” de la función.

Por lo general se estudia estas funciones de forma que su dominio y su codominio son subconjuntos

de ℝ. A estas se las llama “funciones de variable real” y se las puede graficar en un plano

cartesiano. Las funciones de variable real se dividen en muchos tipos, entre ellos están las

funciones “lineales” que son del tipo 𝑓(𝑥) = 𝑚𝑥 + 𝑏, tal que la gráfica de estas funciones es

siempre una recta de pendiente 𝑚 y que interseca al eje vertical en 𝑦 = 𝑏. Si la función es del tipo

𝑓(𝑥) = 𝑚𝑥 se dice que la función es una recta de pendiente 𝑚 y que pasa por el origen. Este último

tipo de funciones lineales (las que pasan por el origen) cumplen propiedades interesantes, pues

resulta que preservan la suma y el producto por constantes. Es decir, si tenemos un punto con

abscisa 𝑥 = 𝑎, ordenada 𝑦 = 𝑓(𝑎) y otro con abscisa 𝑥 = 𝑏, ordenada 𝑦 = 𝑓(𝑏); entonces, de

seguro que habrá un punto con abscisa 𝑥 = 𝑎 + 𝑏, y su ordenada no será otra cosa que:

𝑦 = 𝑓(𝑎 + 𝑏)

𝑦 = 𝑚(𝑎 + 𝑏) = 𝑚𝑎 + 𝑚𝑏

𝑦 = 𝑓(𝑎) + 𝑓(𝑏)

Asimismo, podemos encontrar un punto cuya abscisa sea 𝑥 = 𝑐𝑎 y su ordenada será 𝑦 = 𝑓(𝑐𝑎),

que es igual a 𝑚𝑐𝑎, y se cumplirá que 𝑦 = 𝑐𝑓(𝑎).

Esto no es muy interesante en cursos que estudien funciones de variable real como tema central,

por ejemplo cursos de cálculo, trigonometría o análisis numérico, donde se analizan funciones del

tipo 𝑓(𝑥) = cos 𝑥 o 𝑓(𝑥) = 𝑒𝑥 + 5𝑥2; sin embargo serán funciones muy importantes para efectos

de álgebra lineal, pues sólo en base a sus propiedades básicas se puede obtener bastante

información, la cual puede ser generalizada. Las funciones lineales están definidas en sí en

espacios vectoriales, un caso particular es el espacio 𝑉 = ℝ, que es el que mencionamos y el que

se puede graficar en un plano cartesiano, pero nosotros vamos a generalizar esto y diremos que se

definen en diferentes espacios vectoriales cualesquiera. Así, diremos que son 𝑓: 𝑉 → 𝑊. A estas

funciones lineales entre espacios vectoriales las llamaremos “Transformaciones Lineales”.

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

Transformación Lineal – Definición y Propiedades

Definición: Transformación Lineal: Sean las ternas (𝑉, ⨁, ⊙) y (𝑊,⊞,⊡) dos 𝐾-espacios

vectoriales. Sea 𝑇: 𝑉 → 𝑊 una función que asigna a cada 𝑣 ∈ 𝑉 un único vector 𝑇(𝑣) ∈ 𝑊. Si 𝑇

satisface las propiedades:

i. ∀𝑣1, 𝑣2 ∈ 𝑉 𝑇(𝑣1⨁𝑣2) = 𝑇(𝑣1) ⊞ 𝑇(𝑣2) - Linealidad para la suma

ii. ∀𝛼 ∈ 𝐾 ∀𝑣 ∈ 𝑉 𝑇(𝛼 ⊙ 𝑣) = 𝛼 ⊡ 𝑇(𝑣) - Linealidad para la multiplicación por escalar

Se dice que 𝑇 es una “transformación lineal” (si 𝑉 = 𝑊, se llama “operador lineal”).

Teorema: Sea 𝑇: 𝑉 → 𝑊 una transformación lineal. Entonces:

i. 𝑇(0𝑉) = 0𝑊

ii. ∀𝑣 ∈ 𝑉 𝑇(�̃�) = 𝑇(𝑣)̃

iii. 𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) = 𝛼1𝑇(𝑣1) + 𝛼2𝑇(𝑣2) + ⋯ + 𝛼𝑛𝑇(𝑣𝑛)

Teorema: Sean 𝑉, 𝑊 dos espacios vectoriales, tal que 𝑉 es de dimensión finita y dim 𝑉 = 𝑛. Sea

𝐵 = {𝑣1, 𝑣2, … , 𝑣𝑛} una base de 𝑉. Sean 𝑤1, 𝑤2, … , 𝑤𝑛 𝑛 vectores cualesquiera de 𝑊. Entonces

existe una única transformación lineal 𝑇: 𝑉 → 𝑊 tal que 𝑇(𝑣𝑖) = 𝑤𝑖 ; 𝑖 = 1,2, … , 𝑛

Corolario: Sean 𝑉, 𝑊 dos espacios vectoriales, tal que 𝑉 es de dimensión finita y dim 𝑉 = 𝑛. Sea

𝐵 = {𝑣1, 𝑣2, … , 𝑣𝑛} una base de 𝑉. Si 𝑇1, 𝑇2 son dos transformaciones lineales de 𝑉 en 𝑊 tales que

𝑇1(𝑣𝑖) = 𝑇2(𝑣𝑖) ; 𝑖 = 1,2, … , 𝑛, entonces 𝑇1 = 𝑇2

Núcleo y Recorrido de una Transformación Lineal

Definición: Núcleo y Recorrido de una Transformación Lineal: Sea 𝑇: 𝑉 → 𝑊 una transformación

lineal. El núcleo o Kernel de 𝑇, denotado 𝑁𝑢(𝑇) o 𝐾𝑒𝑟(𝑇), se define como:

𝑁𝑢(𝑇) = 𝐾𝑒𝑟(𝑇) = {𝑣 ∈ 𝑉 | 𝑇(𝑣) = 0𝑊}

El recorrido o imagen de 𝑇, denotado 𝑅𝑒(𝑇) o 𝐼𝑚(𝑇), se define como:

𝑅𝑒(𝑇) = 𝐼𝑚(𝑇) = {𝑤 ∈ 𝑊 | 𝑤 = 𝑇(𝑣); 𝑣 ∈ 𝑉}

Teorema: Sea 𝑇: 𝑉 → 𝑊 una transformación lineal. 𝑁𝑢(𝑇) es un subespacio vectorial de 𝑉,

mientras que 𝑅𝑒(𝑇) es un subespacio vectorial de 𝑊.

Definición: Nulidad y Rango de una Transformación Lineal: Sea 𝑇: 𝑉 → 𝑊 una transformación

lineal. La nulidad de 𝑇, denotada 𝜈(𝑇), se define como la dimensión del núcleo de 𝑇. Es decir:

𝜈(𝑇) = dim 𝑁𝑢(𝑇)

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

El rango de 𝑇, denotado 𝜌(𝑇), se define como la dimensión del recorrido de 𝑇. Es decir:

𝜌(𝑇) = dim 𝑅𝑒(𝑇)

Teorema: Sea 𝑉 un espacio vectorial de dimensión finita y 𝑇: 𝑉 → 𝑊 una transformación lineal.

Se cumple entonces que:

𝜈(𝑇) + 𝜌(𝑇) = dim 𝑉

---------------------------------------------------------------------------------------------------------------------

Demostraciones.

A continuación demostraré algunos de los teoremas de la sección teórica de este documento como

refuerzo para entenderlos mejor.

Teorema: Sea 𝑇: 𝑉 → 𝑊 una transformación lineal. Entonces:

i. 𝑇(0𝑉) = 0𝑊

ii. ∀𝑣 ∈ 𝑉 𝑇(�̃�) = 𝑇(𝑣)̃

iii. 𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) = 𝛼1𝑇(𝑣1) + 𝛼2𝑇(𝑣2) + ⋯ + 𝛼𝑛𝑇(𝑣𝑛)

El teorema nos indica que, según 𝑇, la imagen del vector cero en 𝑉 es el vector cero en 𝑊. La

imagen según 𝑇 del inverso aditivo de un vector 𝑣 ∈ 𝑉 es el inverso aditivo de 𝑇(𝑣) ∈ 𝑊. Y

finalmente, la imagen según 𝑇 de una combinación lineal de vectores, no es otra cosa que la

combinación lineal de las imágenes de dichos vectores.

Demostración:

i. 𝑇(0𝑉) = 0𝑊

Conocemos que 0𝑉 + 0𝑉 = 0𝑉 por lo que es lo mismo decir 𝑇(0𝑉) que 𝑇(0𝑉 + 0𝑉), luego por

linealidad de la suma esto se puede separar en 𝑇(0𝑉) + 𝑇(0𝑉) y obtendremos lo siguiente:

𝑇(0𝑉) = 𝑇(0𝑉 + 0𝑉)

𝑇(0𝑉) = 𝑇(0𝑉) + 𝑇(0𝑉)

𝑇(0𝑉)̃ + 𝑇(0𝑉) = 𝑇(0𝑉) + 𝑇(0𝑉) + 𝑇(0𝑉)̃

0𝑊 = 𝑇(0𝑉) ∎

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

ii. ∀𝑣 ∈ 𝑉 𝑇(�̃�) = 𝑇(𝑣)̃

Conocemos que 𝑣 + �̃� = 0𝑉, podemos aplicar 𝑇 de ambos lados y obtener 𝑇(𝑣 + �̃�) = 𝑇(0𝑉).

Debido a la linealidad de 𝑇 respecto a la suma y al resultado del ítem anterior, se tiene que 𝑇(𝑣) +

𝑇(�̃�) = 0𝑊. Sumando de ambos lados 𝑇(𝑣)̃ obtenemos la ecuación deseada:

𝑣 + �̃� = 0𝑉

𝑇(𝑣 + �̃�) = 𝑇(0𝑉)

𝑇(𝑣) + 𝑇(�̃�) = 0𝑊

𝑇(𝑣)̃ + 𝑇(𝑣) + 𝑇(�̃�) = 0𝑊 + 𝑇(𝑣)̃

𝑇(�̃�) = 𝑇(𝑣)̃ ∎

iii. 𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) = 𝛼1𝑇(𝑣1) + 𝛼2𝑇(𝑣2) + ⋯ + 𝛼𝑛𝑇(𝑣𝑛)

Se tiene una propiedad dada para 𝑛 vectores y 𝑛 escalares. Esta propiedad, debería funcionar para

cualquier 𝑛 ∈ ℕ, por lo que se demostrará por inducción matemática:

Paso base: Para 𝑛 = 2

𝑇(𝛼1𝑣1 + 𝛼2𝑣2) = 𝑇(𝛼1𝑣1) + 𝑇(𝛼2𝑣2) = 𝛼1𝑇(𝑣1) + 𝛼2𝑇(𝑣2)

¡Se cumple!

Paso inductivo: Suponiendo que se cumple para 𝑛 = 𝑘, se buscará que cumpla para 𝑛 = 𝑘 + 1:

𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑘𝑣𝑘 + 𝛼𝑘+1𝑣𝑘+1) = 𝑇((𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑘𝑣𝑘) + 𝛼𝑘+1𝑣𝑘+1)

= 𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑘𝑣𝑘) + 𝑇(𝛼𝑘+1𝑣𝑘+1)

= 𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑘𝑣𝑘) + 𝛼𝑘+1𝑇(𝑣𝑘+1)

Con la hipótesis de que se cumple para 𝑛 = 𝑘, se tiene que:

𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑘𝑣𝑘 + 𝛼𝑘+1𝑣𝑘+1)

= 𝛼1𝑇(𝑣1) + 𝛼2𝑇(𝑣2) + ⋯ + 𝛼𝑘𝑇(𝑣𝑘) + 𝛼𝑘+1𝑇(𝑣𝑘+1)

¡Se cumple!

∀𝑛 ∈ ℕ 𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) = 𝛼1𝑇(𝑣1) + 𝛼2𝑇(𝑣2) + ⋯ + 𝛼𝑛𝑇(𝑣𝑛) ∎

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

Teorema: Sean 𝑉, 𝑊 dos espacios vectoriales, tal que 𝑉 es de dimensión finita y dim 𝑉 = 𝑛. Sea

𝐵 = {𝑣1, 𝑣2, … , 𝑣𝑛} una base de 𝑉. Sean 𝑤1, 𝑤2, … , 𝑤𝑛 𝑛 vectores cualesquiera de 𝑊. Entonces

existe una única transformación lineal 𝑇: 𝑉 → 𝑊 tal que 𝑇(𝑣𝑖) = 𝑤𝑖 ; 𝑖 = 1,2, … , 𝑛.

El teorema nos dice que si tenemos un espacio vectorial de dimensión finita, con una base bien

definida, se puede definir o “construir” entonces una transformación lineal, la cual será única.

Demostración:

Sea 𝑣 ∈ 𝑉, ya que tenemos definida una base 𝐵 de 𝑉, podemos decir que existen escalares

𝛼1, 𝛼2, … , 𝛼𝑛 tales que:

𝑣 = 𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛

Definimos una función 𝑇: 𝑉 → 𝑊 tal que para el vector 𝑣 definido anteriormente:

𝑇(𝑣) = 𝛼1𝑤1 + 𝛼2𝑤2 + ⋯ + 𝛼𝑛𝑤𝑛

Sabemos que nuestra función 𝑇 cumple las condiciones en la conclusión del teorema, pues sea 𝑣 =

𝑣𝑖, entonces 𝛼𝑖 = 1 y todos los demás escalares serán iguales a cero. Con lo que:

𝑇(𝑣𝑖) = 𝑇((0)𝑣1 + (0)𝑣2 + ⋯ + (0)𝑣𝑖−1 + (1)𝑣𝑖 + (0)𝑣𝑖+1 + ⋯ + (0)𝑣𝑛)

𝑇(𝑣𝑖) = (0)𝑤1 + (0)𝑤2 + ⋯ + (0)𝑤𝑖−1 + (1)𝑤𝑖 + (0)𝑤𝑖+1 + ⋯ + (0)𝑤𝑛

∴ 𝑇(𝑣𝑖) = 𝑤𝑖 ∎

Veamos si 𝑇 es una transformación lineal:

Sean 𝑣 = 𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛 y 𝑥 = 𝛽1𝑣1 + 𝛽2𝑣2 + ⋯ + 𝛽𝑛𝑣𝑛

Sabemos que 𝑣 + 𝑥 = (𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) + (𝛽1𝑣1 + 𝛽2𝑣2 + ⋯ + 𝛽𝑛𝑣𝑛)

𝑣 + 𝑥 = (𝛼1 + 𝛽1)𝑣1 + (𝛼2 + 𝛽2)𝑣2 + ⋯ + (𝛼𝑛 + 𝛽𝑛)𝑣𝑛

𝑇(𝑣 + 𝑥) = 𝑇((𝛼1 + 𝛽1)𝑣1 + (𝛼2 + 𝛽2)𝑣2 + ⋯ + (𝛼𝑛 + 𝛽𝑛)𝑣𝑛)

𝑇(𝑣 + 𝑥) = (𝛼1 + 𝛽1)𝑤1 + (𝛼2 + 𝛽2)𝑤2 + ⋯ + (𝛼𝑛 + 𝛽𝑛)𝑤𝑛

𝑇(𝑣 + 𝑥) = (𝛼1𝑤1 + 𝛼2𝑤2 + ⋯ + 𝛼𝑛𝑤𝑛) + (𝛽1𝑤1 + 𝛽2𝑤2 + ⋯ + 𝛽𝑛𝑤𝑛)

𝑇(𝑣 + 𝑥) = 𝑇(𝑣) + 𝑇(𝑥)

Sea 𝑘 ∈ 𝐾, se tiene que:

𝑘𝑣 = 𝑘(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) = (𝑘𝛼1)𝑣1 + (𝑘𝛼2)𝑣2 + ⋯ + (𝑘𝛼𝑛)𝑣𝑛

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

𝑇(𝑘𝑣) = 𝑇((𝑘𝛼1)𝑣1 + (𝑘𝛼2)𝑣2 + ⋯ + (𝑘𝛼𝑛)𝑣𝑛)

𝑇(𝑘𝑣) = (𝑘𝛼1)𝑤1 + (𝑘𝛼2)𝑤2 + ⋯ + (𝑘𝛼𝑛)𝑤𝑛

𝑇(𝑘𝑣) = 𝑘(𝛼1𝑤1 + 𝛼2𝑤2 + ⋯ + 𝛼𝑛𝑤𝑛)

𝑇(𝑘𝑣) = 𝑘𝑇(𝑣)

∴ 𝑇 es lineal ∎

Veamos si 𝑇 es única, para esto asumiremos que existe una segunda transformación lineal 𝑇∗ que

también tendrá la propiedad detallada al final del teorema: 𝑇∗(𝑣𝑖) = 𝑤𝑖 ; 𝑖 = 1,2, … , 𝑛

Entonces, ∀𝑣 ∈ 𝑉 𝑣 = 𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛 por lo que:

𝑇∗(𝑣) = 𝑇∗(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) = 𝛼1𝑇∗(𝑣1) + 𝛼2𝑇∗(𝑣2) + ⋯ + 𝛼𝑛𝑇∗(𝑣𝑛)

= 𝛼1𝑤1 + 𝛼2𝑤2 + ⋯ + 𝛼𝑛𝑤𝑛

Lo cual también se cumple si evaluamos 𝑇 en todo vector 𝑣 ∈ 𝑉. Así, vemos que estas dos

transformaciones coinciden para todo vector 𝑣 ∈ 𝑉. Con lo que afirmamos que 𝑇 = 𝑇∗.

∴ 𝑇 es única ∎

Corolario: Sean 𝑉, 𝑊 dos espacios vectoriales, tal que 𝑉 es de dimensión finita y dim 𝑉 = 𝑛. Sea

𝐵 = {𝑣1, 𝑣2, … , 𝑣𝑛} una base de 𝑉. Si 𝑇1, 𝑇2 son dos transformaciones lineales de 𝑉 en 𝑊 tales que

𝑇1(𝑣𝑖) = 𝑇2(𝑣𝑖) ; 𝑖 = 1,2, … , 𝑛, entonces 𝑇1 = 𝑇2

Este corolario nos dice de otra forma la unicidad de las transformaciones lineales. Dicha

demostración la vimos en el teorema anterior, pero la repetiré a manera de ejercicio para observar

que, no sólo toda transformación lineal es única, sino que a su vez, dos transformaciones que

coincidan en todos los vectores de una base son iguales.

Demostración:

∀𝑣 ∈ 𝑉 𝑣 = 𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛 por lo que:

𝑇1(𝑣) = 𝑇1(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) = 𝛼1𝑇1(𝑣1) + 𝛼2𝑇1(𝑣2) + ⋯ + 𝛼𝑛𝑇1(𝑣𝑛)

𝑇2(𝑣) = 𝑇2(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑛𝑣𝑛) = 𝛼1𝑇2(𝑣1) + 𝛼2𝑇2(𝑣2) + ⋯ + 𝛼𝑛𝑇2(𝑣𝑛)

Si igualamos ambas expresiones llegamos a una identidad, con lo que podemos asegurar que:

∀𝑣 ∈ 𝑉 𝑇1(𝑣) = 𝑇2(𝑣) ∎

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

Veamos el siguiente teorema, es bastante sencillo ahora que se conoce su variante respecto a

matrices.

Teorema: Sea 𝑇: 𝑉 → 𝑊 una transformación lineal. 𝑁𝑢(𝑇) es un subespacio vectorial de 𝑉,

mientras que 𝑅𝑒(𝑇) es un subespacio vectorial de 𝑊.

El teorema nos dice que los conjuntos 𝑁𝑢(𝑇) y 𝑅𝑒(𝑇) son espacios vectoriales, y no sólo eso, sino

que son respectivamente subespacios de 𝑉 y 𝑊.

Demostración:

Procederé a demostrar que 𝑁𝑢(𝑇) es subespacio vectorial de 𝑉:

∀𝑣1, 𝑣2 ∈ 𝑁𝑢(𝑇) ¿ 𝑣1 + 𝑣2 ∈ 𝑁𝑢(𝑇)?

𝑇(𝑣1 + 𝑣2) = 𝑇(𝑣1) + 𝑇(𝑣2)

Pero por hipótesis 𝑣1, 𝑣2 ∈ 𝑁𝑢(𝑇), por lo que 𝑇(𝑣1) = 𝑇(𝑣2) = 0𝑊

𝑇(𝑣1 + 𝑣2) = 𝑇(𝑣1) + 𝑇(𝑣2) = 0𝑊

𝑣1 + 𝑣2 ∈ 𝑁𝑢(𝑇)

¡La suma es cerrada en 𝑁𝑢(𝑇)!

∀𝛼 ∈ 𝐾 ∀𝑣 ∈ 𝑁𝑢(𝑇) ¿ 𝛼𝑣 ∈ 𝑁𝑢(𝑇)?

𝑇(𝛼𝑣) = 𝛼𝑇(𝑣)

Pero por hipótesis 𝑣 ∈ 𝑁𝑢(𝑇), por lo que 𝑇(𝑣) = 0𝑊

𝑇(𝛼𝑣) = 𝛼𝑇(𝑣) = 𝛼(0𝑊) = 0𝑊

𝛼𝑣 ∈ 𝑁𝑢(𝑇)

¡La multiplicación por escalar devuelve elementos de 𝑁𝑢(𝑇)!

∴ 𝑁𝑢(𝑇) es subespacio de 𝑉 ∎

Ahora demostraré que 𝑅𝑒(𝑇) es subespacio vectorial de 𝑊:

∀𝑤1, 𝑤2 ∈ 𝑅𝑒(𝑇) ¿ 𝑤1 + 𝑤2 ∈ 𝑅𝑒(𝑇)?

Por hipótesis 𝑤1, 𝑤2 ∈ 𝑅𝑒(𝑇), por lo que existen vectores 𝑣1, 𝑣1 tales que 𝑤1 = 𝑇(𝑣1) y 𝑤2 =

𝑇(𝑣2)

𝑤1 + 𝑤2 = 𝑇(𝑣1) + 𝑇(𝑣2) = 𝑇(𝑣1 + 𝑣2)

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

𝑣1 + 𝑣2 ∈ 𝑉 ⇒ 𝑤1 + 𝑤2 ∈ 𝑅𝑒(𝑇)

¡La suma es cerrada en 𝑅𝑒(𝑇)!

∀𝛼 ∈ 𝐾 ∀𝑤 ∈ 𝑅𝑒(𝑇) ¿ 𝛼𝑤 ∈ 𝑅𝑒(𝑇)?

Pero por hipótesis 𝑤 ∈ 𝑅𝑒(𝑇), por lo que existe un vector 𝑣 ∈ 𝑉 tal que 𝑇(𝑣) = 𝑤

𝛼𝑤 = 𝛼𝑇(𝑣) = 𝑇(𝛼𝑣)

𝛼𝑣 ∈ 𝑉 ⇒ 𝛼𝑤 ∈ 𝑅𝑒(𝑇)

¡La multiplicación por escalar devuelve elementos de 𝑅𝑒(𝑇)!

∴ 𝑅𝑒(𝑇) es subespacio de 𝑊 ∎

Finalmente, veamos la demostración del último teorema de este documento, que considero la más

complicada de entender y para la que solicito muchísima atención.

Teorema: Sea 𝑉 un espacio vectorial de dimensión finita y 𝑇: 𝑉 → 𝑊 una transformación lineal.

Se cumple entonces que:

𝜈(𝑇) + 𝜌(𝑇) = dim 𝑉

El teorema es de gran utilidad, nos dice que si sumamos la nulidad y el rango de la transformación

lineal, obtenemos la dimensión del espacio de partida, o en su defecto, que si restamos la dimensión

del espacio de partida (dato generalmente conocido) de alguno de los otros parámetros, obtenemos

el parámetro faltante. Esto nos permite hacer deducciones acerca del núcleo o del recorrido de una

transformación lineal.

Demostración:

Sea 𝐵𝑁𝑢(𝑇) = {𝑣1, 𝑣2, … , 𝑣𝑘} una base de 𝑁𝑢(𝑇). Sabemos entonces que 𝑣1, 𝑣2, … , 𝑣𝑘 ∈ 𝑉 y son

𝑘 elementos linealmente independientes. Sea dim 𝑉 = 𝑛 existen entonces vectores

𝑣𝑘+1, 𝑣𝑘+2, … , 𝑣𝑛 tales que el conjunto 𝐵𝑉 = {𝑣1, 𝑣2, … , 𝑣𝑘, 𝑣𝑘+1, 𝑣𝑘+2, … , 𝑣𝑛} es una base de 𝑉.

El teorema de la dimensión dice que 𝜈(𝑇) + 𝜌(𝑇) = dim 𝑉 por lo que nuestro trabajo será

demostrar que 𝜌(𝑇) = dim 𝑉 − 𝜈(𝑇) = 𝑛 − 𝑘, es decir, demostraremos que el conjunto 𝐵𝑅𝑒(𝑇) =

{𝑇(𝑣𝑘+1), 𝑇(𝑣𝑘+1), … , 𝑇(𝑣𝑛)} es una base de 𝑅𝑒(𝑇).

Para esto demostraré primero que 𝑅𝑒(𝑇) = 𝑔𝑒𝑛(𝐵𝑅𝑒(𝑇)):

Sea 𝑤 ∈ 𝑅𝑒(𝑇) entonces por definición ∃𝑣 ∈ 𝑉 tal que 𝑤 = 𝑇(𝑣). Sin embargo, ya que 𝑣 ∈ 𝑉

entonces 𝑣 se puede escribir como combinación lineal de la base 𝐵𝑉 de 𝑉:

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

𝑣 = 𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑘𝑣𝑘 + 𝛼𝑘+1𝑣𝑘+1 + 𝛼𝑘+2𝑣𝑘+2 + ⋯ + 𝛼𝑛𝑣𝑛

𝑤 = 𝑇(𝑣) = 𝑇(𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑘𝑣𝑘 + 𝛼𝑘+1𝑣𝑘+1 + 𝛼𝑘+2𝑣𝑘+2 + ⋯ + 𝛼𝑛𝑣𝑛)

𝑤 = 𝛼1𝑇(𝑣1) + 𝛼2𝑇(𝑣2) + ⋯ + 𝛼𝑘𝑇(𝑣𝑘) + 𝛼𝑘+1𝑇(𝑣𝑘+1) + 𝛼𝑘+2𝑇(𝑣𝑘+2) + ⋯ + 𝛼𝑛𝑇(𝑣𝑛)

Sin embargo, nótese que 𝑣1, 𝑣2, … , 𝑣𝑘 ∈ 𝑁𝑢(𝑇) (es más, son una base de este espacio), por lo que

𝑇(𝑣1) = 𝑇(𝑣2) = ⋯ = 𝑇(𝑣𝑘) = 0𝑊.

𝑤 = 𝛼1(0𝑊) + 𝛼2(0𝑊) + ⋯ + 𝛼𝑘(0𝑊) + 𝛼𝑘+1𝑇(𝑣𝑘+1) + 𝛼𝑘+2𝑇(𝑣𝑘+2) + ⋯ + 𝛼𝑛𝑇(𝑣𝑛)

𝑤 = 𝛼𝑘+1𝑇(𝑣𝑘+1) + 𝛼𝑘+2𝑇(𝑣𝑘+2) + ⋯ + 𝛼𝑛𝑇(𝑣𝑛)

𝑤 ∈ 𝑔𝑒𝑛(𝐵𝑅𝑒(𝑇))

𝑅𝑒(𝑇) = 𝑔𝑒𝑛(𝐵𝑅𝑒(𝑇))

Demostraré ahora que 𝐵𝑅𝑒(𝑇) es linealmente independiente en 𝑅𝑒(𝑇):

𝛼𝑘+1𝑇(𝑣𝑘+1) + 𝛼𝑘+2𝑇(𝑣𝑘+2) + ⋯ + 𝛼𝑛𝑇(𝑣𝑛) = 0𝑊

𝑇(𝛼𝑘+1𝑣𝑘+1 + 𝛼𝑘+2𝑣𝑘+2 + ⋯ + 𝛼𝑛𝑣𝑛) = 0𝑊

Ya que la transformada de 𝛼𝑘+1𝑣𝑘+1 + 𝛼𝑘+2𝑣𝑘+2 + ⋯ + 𝛼𝑛𝑣𝑛 es igual a cero, entonces podemos

afirmar que el vector 𝑣 = 𝛼𝑘+1𝑣𝑘+1 + 𝛼𝑘+2𝑣𝑘+2 + ⋯ + 𝛼𝑛𝑣𝑛 es elemento de 𝑁𝑢(𝑇), y como

𝐵𝑁𝑢(𝑇) es base de dicho espacio:

𝛼𝑘+1𝑣𝑘+1 + 𝛼𝑘+2𝑣𝑘+2 + ⋯ + 𝛼𝑛𝑣𝑛 ∈ 𝑁𝑢(𝑇)

𝛼𝑘+1𝑣𝑘+1 + 𝛼𝑘+2𝑣𝑘+2 + ⋯ + 𝛼𝑛𝑣𝑛 = 𝛼1𝑣1 + 𝛼2𝑣2 + ⋯ + 𝛼𝑘𝑣𝑘

(−𝛼1)𝑣1 + (−𝛼2)𝑣2 + ⋯ + (−𝛼𝑘)𝑣𝑘 + 𝛼𝑘+1𝑣𝑘+1 + 𝛼𝑘+2𝑣𝑘+2 + ⋯ + 𝛼𝑛𝑣𝑛 = 0𝑉

Pero, ya que 𝐵𝑉 = {𝑣1, 𝑣2, … , 𝑣𝑘, 𝑣𝑘+1, 𝑣𝑘+2, … , 𝑣𝑛} es una base de 𝑉, podemos afirmar que es un

conjunto linealmente independiente, y por lo tanto:

𝛼1 = 𝛼2 = ⋯ = 𝛼𝑘 = 𝛼𝑘+1 = 𝛼𝑘+2 = ⋯ = 𝛼𝑛 = 0

De esta ecuación sólo nos interesan los elementos a partir de 𝛼𝑘+1

𝛼𝑘+1 = 𝛼𝑘+2 = ⋯ = 𝛼𝑛 = 0

𝐵𝑅𝑒(𝑇) es linealmente independiente en 𝑅𝑒(𝑇)

𝐵𝑅𝑒(𝑇) es base de 𝑅𝑒(𝑇)

𝜈(𝑇) + 𝜌(𝑇) = dim 𝑉 ∎

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

Problemas.

Determine cuales de las siguientes son transformaciones lineales y cuáles no:

a) 𝑇: ℝ2 → ℝ 𝑇(𝑥, 𝑦) = 2𝑥 + 𝑦

b) 𝑇: ℝ2 → ℝ 𝑇(𝑥, 𝑦) = 3𝑥 − 8𝑦 + 1

c) 𝑇: ℝ2 → ℝ 𝑇(𝑥, 𝑦) = 5𝑥2 + 𝑦

d) 𝑇: ℝ2 → ℝ2 𝑇(𝑥, 𝑦) = (𝑥 + 𝑦 , 0)

e) 𝑇: ℝ2 → ℝ2 𝑇(𝑥, 𝑦) = (1 , 𝑥 − 𝑦)

f) 𝑇: ℝ2 → ℝ2 𝑇 (𝑥𝑦) = (

2𝑥 − 𝑦3𝑥 + 4𝑦

)

g) 𝑇: ℝ3 → ℝ3 𝑇(𝑥, 𝑦, 𝑧) = (0 , 0 , 𝑧)

h) 𝑇: ℝ3 → ℝ3 𝑇 (𝑥𝑦𝑧

) = (𝑥

𝑦 + 1𝑧 + 2

)

i) 𝑇: ℝ3 → ℝ3 𝑇(𝑥, 𝑦, 𝑧) = (2𝑥 + 𝑦 − 𝑧 , 3𝑥 − 𝑦 − 2𝑧 , 𝑥 + 2𝑦 + 3𝑧)

j) 𝑇: 𝑃2 → 𝑃3 𝑇(𝑎0 + 𝑎1𝑥 + 𝑎2𝑥2) = 𝑎0 + 𝑎2𝑥2 + 𝑥3

k) 𝑇: 𝑃2 → 𝑃3 𝑇(𝑎0 + 𝑎1𝑥 + 𝑎2𝑥2) = 𝑎0 + 5 + 𝑥2

l) 𝑇: 𝑃2 → 𝑃3 𝑇(𝑎0 + 𝑎1𝑥 + 𝑎2𝑥2) = (𝑎0 − 𝑎1)(1 + 𝑥2) + (𝑎0 − 𝑎2)(𝑥 + 𝑥3)

Sea 𝑇: ℝ2 → ℝ2 tal que 𝑇(1,0) = (2,3) y 𝑇(0,1) = (1,1)

a) Demuestre que 𝑇 es única. b) Obtenga 𝑇(3,4)

c) Obtenga la regla de correspondencia de 𝑇

Sea 𝑇: ℝ3 → 𝑃2 una transformación lineal tal que:

𝑇(1,1,1) = 1 − 𝑥 + 𝑥2

𝑇(2,0,0) = 3 + 𝑥 − 𝑥2

𝑇(0,4,5) = 2 + 3𝑥 − 𝑥2

a) Obtenga 𝑇(2,4, −2) b) Regla de correspondencia de 𝑇

Demuestre:

a) Sea 𝑇: 𝑉 → 𝑊 una transformación lineal, sean 𝑣1, 𝑣2, … , 𝑣𝑛 ∈ 𝑉 tales que

𝑇(𝑣1), 𝑇(𝑣2), … , 𝑇(𝑣𝑛) ∈ 𝑊 son linealmente independientes. Entonces 𝑣1, 𝑣2, … , 𝑣𝑛 son

linealmente independientes. ¿Es la recíproca verdadera?

b) Sea 𝑇: 𝑉 → 𝑊 una transformación lineal, sean 𝑣1, 𝑣2, … , 𝑣𝑛 ∈ 𝑉 tales que el espacio 𝑊 =

𝑔𝑒𝑛{𝑇(𝑣1), 𝑇(𝑣2), … , 𝑇(𝑣𝑛)}. Demuestre que 𝑅𝑒(𝑇) = 𝑊.

Para las siguientes transformaciones lineales, obtener núcleo, recorrido, y verificar que se cumple

el teorema de la dimensión:

a) 𝑇: ℝ2 → ℝ 𝑇(𝑥, 𝑦) = 2𝑥 + 𝑦 b) 𝑇: ℝ2 → ℝ2 𝑇 (

𝑥𝑦) = (

2𝑥 − 𝑦3𝑥 + 4𝑦

)

c) 𝑇: ℝ3 → ℝ3 𝑇(𝑥, 𝑦, 𝑧) = (2𝑥 + 𝑦 − 𝑧 , 3𝑥 − 𝑦 − 2𝑧 , 𝑥 + 2𝑦 + 3𝑧)

d) 𝑇: 𝑃2 → 𝑃3 𝑇(𝑎0 + 𝑎1𝑥 + 𝑎2𝑥2) = (𝑎0 − 𝑎1)(1 + 𝑥2) + (𝑎0 − 𝑎2)(𝑥 + 𝑥3)

e) 𝑇: ℝ2 → ℝ4 𝑇(𝑋) = 𝐴𝑋; 𝐴 = (

13

24

5 67 8

)

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

f) 𝑇: 𝑃2 → 𝑃3 𝑇(𝑝) = 𝑥2𝑝′

TAREA.

Sea 𝑇 la transformación de ℝ3 en ℝ3 definida por:

𝑇(𝑥, 𝑦, 𝑧) = (𝑥 + 𝑦, 𝑥 − 𝑧, 𝑦 + 𝑧)

a) Demuestre que 𝑇 es una transformación lineal.

b) Determine una base del núcleo de 𝑇.

c) Demuestre que ℝ3 es la suma directa del núcleo de 𝑇 y la imagen de 𝑇.

Verdadero o Falso:

(a) Sean 𝑉 y 𝑊 dos espacios vectoriales, 𝑇 una transformación lineal de 𝑉 en 𝑊, y 𝑣1 y 𝑣2

dos vectores de 𝑉. La proposición es:

𝑇(𝑔𝑒𝑛{𝑣1, 𝑣2}) = 𝑔𝑒𝑛{𝑇(𝑣1), 𝑇(𝑣2)}

(b) Sea 𝑉 un espacio vectorial de dimensión 𝑛 y {𝑣1, 𝑣2, … , 𝑣𝑛} una base de 𝑉. Se define la

transformación 𝑇 de ℝ𝑛 en 𝑉 como sigue: si 𝑢 = (𝑥1, 𝑥2, … , 𝑥𝑛) ∈ ℝ𝑛 entonces 𝑇(𝑢) =

𝑥1𝑣1 + 𝑥2𝑣2 + ⋯ + 𝑥𝑛𝑣𝑛. Demuestre que 𝑇 es lineal, encuentre el núcleo y el recorrido de

𝑇.

Construya, de ser posible, un operador lineal (o endomorfismo) 𝑇 del espacio vectorial 𝑃2 definido

por:

𝑁𝑢(𝑇) = 𝑔𝑒𝑛{1 + 𝑥 + 𝑥2}

𝑇(𝑥2 − 1) = 𝑥2 − 1

𝑇(1 − 2𝑥 + 𝑥2) = 3 − 6𝑥 + 3𝑥2

Construya de ser posible, una transformación lineal de ℝ2 en ℝ2 que transforme todo vector de

ℝ2 en un vector que pertenezca a la recta 𝑦 = 2𝑥

Sea 𝑇: ℝ3 → ℝ3 tal que 𝑇(𝑋) = 𝐴𝑋 con 𝐴 = (1 10 12 2 2

−1 −8 𝑘), determine los valores de 𝑘 para que

𝜈(𝑇) = 0

Sea 𝑇: 𝑃2 → 𝑀2𝑥3 una transformación lineal tal que:

𝑇(𝑝(𝑥)) = (𝑝(1) 𝑝(2) 𝑝(0)

𝑝′(1) 𝑝′(2) 𝑝′(0))

Determine:

Mario Fernando Izquierdo Chavarría – Ayudante Académico de Álgebra Lineal

(a) 𝑁𝑢(𝑇), 𝜈(𝑇).

(b) 𝐼𝑚(𝑇), 𝜌(𝑇).