Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Tema 2. Aplicaciones afines, Apuntes de Geometría

Asignatura: Geometría afín y euclídea, Profesor: Juan Martinez, Carrera: Matemáticas, Universidad: UMU

Tipo: Apuntes

2015/2016

Subido el 22/10/2016

mll22
mll22 🇪🇸

4.8

(23)

41 documentos

Vista previa parcial del texto

¡Descarga Tema 2. Aplicaciones afines y más Apuntes en PDF de Geometría solo en Docsity! Caṕıtulo 2 Aplicaciones afines Introducción En general, dados dos conjuntos X y X ′ con alguna estructura, es razonable estudiar las aplicaciones f : X → X ′ que “respetan” esa estructura. Por ejemplo: Si (X,≤) y (X ′,≺) son conjuntos ordenados, serán especialmente interesantes las aplicaciones que “conservan” el orden (x ≤ y ⇒ f(x) ≺ f(y)) y las que lo “invierten” (x ≤ y ⇒ f(y) ≺ f(x)). Si V y V ′ sonK-espacios vectoriales, serán interesantes las aplicaciones f : V → V ′ que “conservan” las dos operaciones que dan estructura a los espacios: la suma (f(~v+ ~w) = f(~v)+f(~w)) y el producto por escalares de K (f(λ~v) = λ f(~v)). Éstas son las aplicaciones K-lineales. Este caṕıtulo lo dedicaremos a estudiar aplicaciones que conservan la estructura entre espacios af́ınes. En este caṕıtulo trabajamos con espacios afines E y E ′ generales. Las aplicaciones afines f : E → E ′ serán las que “conservan las operaciones que les dan estructura” en un sentido que haremos preciso en seguida. Estudiaremos algunas propiedades básicas y sus expresiones matriciales (cuando las dimensiones son finitas), que permiten trabajar con ellas algebraicamente. Por su mayor contenido geométrico, serán de especial importancia las transformaciones afines, o sea las aplicaciones afines f : E → E de un espacio af́ın en śı mismo. Analizaremos algunos de los ejemplos más interesantes desde el punto de vista geométrico. 37 CAPÍTULO 2. APLICACIONES AFINES 38 Conceptos, resultados y competencias básicas Conceptos y resultados básicos (lo que hay que saber) Noción de aplicación af́ın y de aplicación lineal asociada. Representación matricial para dimensiones finitas. Una aplicación af́ın queda determinada por la lineal asociada y la imagen de un punto. Propiedades básicas de las aplicaciones afines: composición; inyectividad, suprayectividad, biyecti- vidad e inversas; conservación de puntos medios y paralelismo; conservación y reflejo de variedades. Ejemplos geométricos de transformaciones afines: traslaciones, homotecias, proyecciones, simetŕıas, proyecciones con deslizamiento y simetŕıas con deslizamiento. “Elementos” que caracterizan esas transformaciones: el vector (para una traslación); el centro y la razón (para una homotecia); la base y la dirección (para proyecciones y simetŕıas); la base, la dirección y el vector de deslizamiento (para proyecciones y simetŕıas con deslizamiento). Caracterizaciones de esas transformaciones en términos de la aplicación lineal asociada y de la variedad de puntos fijos. Competencias básicas (lo que hay que saber hacer) Para aplicaciones afines “generales” (en dimensión finita): - Calcular la expresión matricial a partir de una serie de datos. - Usar expresiones matriciales para calcular imágenes y antiimágenes de variedades, variedades de puntos fijos, etc. Para los ejemplos de transformaciones afines (traslaciones, homotecias, proyecciones y simetŕıas, sin y con deslizamiento): - Calcular expresiones matriciales a partir de los elementos. - Dada la expresión matricial de una transformación af́ın, determinar si es de alguno de los tipos anteriores y en ese caso calcular los elementos. CAPÍTULO 2. APLICACIONES AFINES 41 2.1.3. Propiedades básicas Una aplicación af́ın queda determinada por la imagen de un punto y la aplicación lineal asociada: Proposición 2.3 Dados dos espacios afines E y E ′ con espacios vectoriales asociados V y V ′ se tiene: 1. Si dos aplicaciones afines f, g : E → E ′ toman el mismo valor en un punto y tienen la misma lineal asociada entonces son iguales; es decir: f(P ) = g(P ) para cierto P ∈ E y −→ f = −→g ⇒ f = g 2. Dados puntos P ∈ E , P ′ ∈ E ′ y dada una aplicación lineal φ : V → V ′, existe una única aplicación af́ın f : E → E ′ con f(P ) = P ′ y con −→ f = φ, que viene dada por f(Q) := P ′ + φ( −−→ PQ) Demostración: 1. Para Q arbitrario se tiene f(Q) = f(P ) + −→ f ( −−→ PQ) = g(P ) +−→g ( −−→ PQ) = g(Q). 2. La aplicación f del enunciado es af́ın con lineal asociada φ pues f(Q+ ~v) = P ′ + φ( −−−−−−→ P (Q+ ~v)) = P ′ + φ( −−→ PQ+ ~v) = P ′ + φ( −−→ PQ) + φ(~v) = f(Q) + φ(~v) Además se tiene f(P ) = P ′ + φ( −−→ PP ) = P ′, y la unicidad es consecuencia del apartado 1.  Observación “matricial”: En términos de ecuaciones, este resultado nos vuelve a decir que −→ f (o su matriz M) y la imagen del origen de coordenadas (o sus coordenadas X0) determinan la aplicación f . Proposición 2.4 La composición de dos aplicaciones afines g y f es af́ın, y −−→ g ◦ f = −→g ◦ −→ f Demostración: Sean E , E ′, E ′′ espacios afines sobre K con espacios vectoriales asociados V, V ′, V ′′, y sean E f −→ E ′ g −→ E ′′ aplicaciones afines. Entonces, para cualesquiera P ∈ E y ~v ∈ V , se tiene (g ◦ f)(P + ~v) = g(f(P ) + −→ f (~v)) = g(f(P )) +−→g ( −→ f (~v)) = g(f(P )) + (−→g ◦ −→ f )(~v) lo que prueba el enunciado (pues sabemos que −→g ◦ −→ f es lineal).  Observación “matricial”: Si las ecuaciones de f : E → E ′ son X ′ = X0 +MX y las de g : E ′ → E ′′ son X ′′ = Y0 +NX ′ entonces, al aplicarlas sucesivamente, las coordenadas se transforman como sigue: X 7→ X0 +MX 7→ Y0 +N(X0 +MX) = (Y0 +NX0) +NMX lo que muestra que la matriz de la lineal asociada es NM (o sea, como era de esperar, el producto de las matrices de las lineales asociadas a g y f). CAPÍTULO 2. APLICACIONES AFINES 42 Proposición 2.5 Sea f : E → E ′ af́ın. Entonces f es inyectiva o suprayectiva si y sólo si lo es −→ f . Demostración: Si f es inyectiva, hay que ver que ~v ∈ Nuc( −→ f ) implica ~v = ~0. Tomando P ∈ E arbitrario se tiene f(P +~v) = f(P )+ −→ f (~v) = f(P ), y la inyectividad de f implica que P +~v = P , por lo que ~v = ~0. Si −→ f es inyectiva, hay que probar que f(P ) = f(Q) implica P = Q (para P,Q ∈ E). Pero f(P ) = f(Q) implica −→ f ( −−→ PQ) = −−−−−−→ f(P )f(Q) = ~0 y entonces la inyectividad de −→ f nos dice que −−→ PQ = ~0, o sea P = Q. Si f es suprayectiva, se trata de ver que todo ~v ′ ∈ V ′ se escribe como una imagen por −→ f . Tomando P ∈ E arbitrario se tiene f(P )+~v ′ ∈ E ′ y por la suprayectividad de f existe Q ∈ E con f(Q) = f(P )+~v ′, de donde ~v ′ = −−−−−−→ f(P )f(Q) = −→ f ( −−→ PQ). Si −→ f es suprayectiva, se trata de ver que todo Q′ ∈ E ′ se escribe como una imagen por f . Tomando P ∈ E arbitrario se tiene −−−−→ f(P )Q′ ∈ V ′, y por la suprayectividad de −→ f existe ~v ∈ V con −→ f (~v) = −−−−→ f(P )Q′, de donde Q′ = f(P ) + −→ f (~v) = f(P + ~v).  Observación “matricial”: Si las ecuaciones son X ′ = X0 +MX entonces f es inyectiva (suprayectiva) si y sólo si lo es la lineal asociada X 7→ MX, lo que equivale a que rg(M) coincida con el número de columnas (filas) de M . Proposición 2.6 Sea f : E → E ′ af́ın y biyectiva. Entonces f−1 es af́ın y −−→ f−1 = −→ f −1. Demostración: Por el resultado anterior −→ f es biyectiva, y sabemos entonces que −→ f −1 es lineal. Se trata pues de ver que, para P ′ ∈ E ′ y ~v ′ ∈ V ′ arbitrarios, se tiene f−1(P ′ + ~v ′) = f−1(P ′) + −→ f −1(~v ′) Como f es inyectiva, basta observar que al aplicar f a ambos miembros se obtiene una igualdad.  Observación “matricial”: Si f es biyectiva con ecuaciones X ′ = X0 +MX entonces M es invertible, y las ecuaciones de la aplicación inversa f−1 se pueden obtener a partir de las de f “despejando X”: X ′ = X0 +MX ⇒ M −1X ′ = M−1X0 +X ⇒ X = −M −1X0 +M −1X ′ Como cab́ıa esperar, la matriz asociada a −−→ f−1 es la inversa de la matriz asociada a −→ f . Definición 2.7 Un isomorfismo de espacios afines1 es una aplicación af́ın y biyectiva f : E → E ′. Cuando existe un tal f se dice que E y E ′ son espacios afines isomorfos. Si en un espacio af́ın E de dimensión n se fija un referencial cartesiano ℜ = (O,B), entonces la aplicación E → En(K) que lleva un punto a sus coordenadas en ℜ es un isomorfismo de espacios afines cuya lineal asociada consiste en tomar coordenadas en B. Esto permite probar fácilmente: 1El conjunto GLA(E) de todos los isomorfismos afines E → E es un grupo con la composición de aplicaciones (llamado el grupo lineal af́ın de E), y la aplicación f 7→ −→ f es un homomorfismo suprayectivo de grupos GLA(E)→ GL(V ). CAPÍTULO 2. APLICACIONES AFINES 43 Teorema 2.8 Dos espacios afines de dimensión finita sobre el mismo cuerpo son isomorfos si y sólo si tienen la misma dimensión. Otras propiedades sencillas de las aplicaciones afines son: Proposición 2.9 Sea f : E → E ′ una aplicación af́ın; se verifican: 1. Si M es el punto medio de A y B en E entonces f(M) es el punto medio de f(A) y f(B) en E ′. 2. Si L = P +W es una variedad de E, entonces f(L) = f(P ) + −→ f (W ) es una variedad de E ′. 3. Si L1 << L2 (resp. L1‖L2) en E entonces f(L1) << f(L2) (resp. f(L1)‖f(L2)) en E ′. 4. Si L′ = P ′+W ′ es una variedad de E ′ y su imagen inversa f−1(L′) no es el conjunto vaćıo, entonces es una variedad de E. En concreto, si P ∈ f−1(L′) entonces f−1(L′) = P + −→ f −1(W ′). Demostración: 1. Por hipótesis −−→ AB = 2 −−→ AM , luego −−−−−−→ f(A)f(B) = −→ f ( −−→ AB) = −→ f (2 −−→ AM ) = 2 −−−−−−−→ f(A)f(M). 2. Como −→ f (W ) es subespacio, basta establecer la igualdad f(L) = f(P ) + −→ f (W ). La condición Q′ ∈ f(L) equivale a que exista ~w ∈ W con Q′ = f(P + ~w) = f(P ) + −→ f (~w), o sea con −−−−→ f(P )Q′ = −→ f (~w). Esto equivale a que −−−−→ f(P )Q′ ∈ −→ f (W ) y finalmente a que Q′ ∈ f(P ) + −→ f (W ). 3. Se sigue de lo anterior, pues sabemos que −→ f conserva las inclusiones entre subespacios. 4. Como −→ f −1(W ′) es subespacio, basta establecer la igualdad f−1(L′) = P + −→ f −1(W ′) usando que f(P ) ∈ L′, o sea que −−−−→ P ′f(P ) ∈W ′. La condición Q ∈ f−1(L′) equivale a f(Q) ∈ L′, o sea a −−−−→ P ′f(Q) ∈W ′. Como −−−−→ f(P )P ′ ∈W , esto último equivale a que esté en W ′ el vector −−−−→ f(P )P ′+ −−−−→ P ′f(Q) = −−−−−−→ f(P )f(Q) = −→ f ( −−→ PQ), o sea a que −−→ PQ ∈ −→ f −1(W ′) o, finalmente, a que Q ∈ P + −→ f −1(W ′).  Observación “matricial”: Si las ecuaciones de f son X ′ = X0 +MX entonces: Para calcular la imagen f(L) de una variedad de E conviene tener unas ecuaciones paramétricas, pues si L = P+ < ~w1, . . . , ~wm> entonces simplemente f(L) = f(P )+ < −→ f (~w1), . . . , −→ f (~wm)>. Para calcular la imagen inversa f−1(L′) de una variedad de E ′ conviene tener unas ecuaciones impĺıcitas de L′, pues entonces, identificando los puntos con sus coordenadas, se tiene X ∈ f−1(L′) ⇔ X ′ = f(X) ∈ L′ ⇔ X ′ satisface las ecuaciones de L′ por lo que unas ecuaciones de f−1(L′) se obtienen “sustituyendo X ′ en las ecuaciones de L′”. Si el sistema resulta inmcompatible es porque f−1(L′) es vaćıa. CAPÍTULO 2. APLICACIONES AFINES 46 6. Encuentra la expresión matricial de la única aplicación af́ın f : E2(R)→ E4(R) con f(3, 1) = (0, 1, 0, 1) f(5, 5) = (1, 0, 1, 0) f(6,−2) = (1, 0, 1, 0) (existe una única aplicación af́ın aśı por el Problema 3). 7. Se considera E = E3(R) con un referencial cartesiano ℜ = (O; {~e1, ~e2, ~e3}). Se pide, para la aplicación af́ın f : E → E que lleva el punto A de coordenadas (1, 1, 2) al punto f(A) de coordenadas (0, 1, 0) y tal que −→ f (~e1) = 2~e1 − ~e2, −→ f (~e2) = ~e3, −→ f (~e3) = ~e1 − ~e3 a) Encuentra la expresión matricial de f en el referencial ℜ. ¿Es f un isomorfismo af́ın? b) Determina Fix(f). c) Encuentra las ecuaciones cartesianas de f(L), donde L es la recta que pasa por los puntos de coordenadas (1, 1, 0) y (0, 0, 1). d) Encuentra las ecuaciones paramétricas de f−1(L′), donde L′ es el plano x1 − x2 + x3 + 1 = 0. 8. En E = E3(R) se considera el referencial ℜ = (O; {~e1, ~e2, ~e3}), donde O = (1, 0,−1), ~e1 = (1, 1, 0), ~e2 = (0, 1, 1), ~e3 = (1, 0, 1) Se pide, para la aplicación af́ın f : E → E tal que f(O) = (0, 0, 0), −→ f (~e1) = (1,−1, 1), −→ f (~e2) = (−1, 1, 1), −→ f (~e3) = (0, 0, 2) a) Encuentra la expresión matricial de f en el referencial ℜ. ¿Es f inyectiva? b) Encuentra Fix(f). c) Encuentra una recta de E cuya imagen por f sea un punto. CAPÍTULO 2. APLICACIONES AFINES 47 2.2. Ejemplos de aplicaciones afines E → E En esta sección veremos ejemplos “con contenido geométrico” de aplicaciones afines de un espacio af́ın E en śı mismo. Cuando hablemos de referenciales y coordenadas asumimos que la dimensión es finita y que los referenciales “de partida” y “de llegada” son el mismo. 2.2.1. Traslaciones Definición 2.13 Dado ~v ∈ V , la traslación de vector ~v es la aplicación t~v : E → E dada por t~v(P ) = P + ~v ~v P t~v(P ) Geométricamente, cada punto “se traslada según el vector ~v”. Proposición 2.14 Las traslaciones verifican las siguientes propiedades elementales: 1. t~v es af́ın y su lineal asociada es la aplicación identidad en V . O sea, −→ t~v = idV . 2. Rećıprocamente2, si f : E → E es af́ın con −→ f = idV entonces f es la traslación f = t~v, donde el vector ~v se calcula a partir de cualquier punto P como ~v = −−−−→ P f(P ). 3. Si ~v = ~0 entonces t~v = idE . 4. Si ~v 6= ~0 entonces Fix(t~v) = ∅. 5. t~v ◦ t~w = t~w ◦ t~v = t~v+~w. 6. t~v es invertible y su inversa es la traslación de vector opuesto. O sea, t −1 ~v = t−~v. 7. La expresión matricial en un referencial ℜ = (O;B) de t~v es X ′ = X0 +X con X0 = [~v]B. Demostración: Vemos sólo las dos primeras; el resto es trivial. 1. Para ~w arbitrario se tiene: t~v(P + ~w) = P + ~w + ~v = P + ~v + ~w = t~v(P ) + idV (~w). 2. Para P ∈ E arbitrario sea ~v = −−−−→ P f(P ). El enunciado se deduce de la Proposición 2.3, pues f y t~v son dos aplicaciones afines con la misma lineal asociada (idV ) y actúan igual sobre P : t~v(P ) = P + ~v = P + −−−−→ P f(P ) = f(P ) (también se puede observar que f(Q) = f(P + −−→ PQ) = f(P ) + idV ( −−→ PQ) = P + ~v + −−→ PQ = Q+ ~v.)  2De esto se deduce que el conjunto T (E) de las traslaciones es el núcleo del homomorfismo GLA(E)→ GL(V ) dado por f 7→ −→ f . En particular es un subgrupo normal de GLA(E) y el correspondiente cociente es isomorfo a GL(V ). CAPÍTULO 2. APLICACIONES AFINES 48 Veamos que toda aplicación af́ın “conmuta” con las traslaciones de vector invariante por f : Proposición 2.15 Para f : E → E af́ın se tiene: f ◦ t~v = t~v ◦ f ⇔ ~v ∈ Inv( −→ f ). Demostración: Como f ◦ t~v y t~v ◦f tienen la misma lineal asociada ( −→ f ), serán iguales si y sólo si actúan igual sobre un P ∈ E arbitrario. Por tanto f ◦ t~v = t~v ◦ f ⇔ f(t~v(P )) = t~v(f(P )) ⇔ f(P + ~v) = f(P ) + ~v ⇔ f(P ) + −→ f (~v) = f(P ) + ~v y cancelando f(P ) la última condición equivale a −→ f (~v) = ~v, o sea a ~v ∈ Inv( −→ f ).  Observación “matricial”: Podemos dar la siguiente versión para ecuaciones del resultado anterior: Si f tiene ecuación X ′ = X0 +MX, las ecuaciones de f ◦ t~v y de t~v ◦ f son: f ◦ t~v : X 7→ X + ~v 7→ X0 +M(X + ~v) = (X0 +M~v) +MX t~v ◦ f : X 7→ X0 +MX 7→ (X0 +MX) + ~v = (X0 + ~v) +MX Las dos tienen la misma lineal asociada (la misma que f , dada por X 7→ MX) y entonces coinciden si y sólo si actúan igual sobre el origen (2.3), o sea si X0 +M~v = X0 + ~v, o sea si M~v = ~v, o sea si ~v es invariante por la lineal. Otra propiedad interesante de las traslaciones es que, fijado cualquier punto P , toda transformación af́ın se expresa como la composición de una que fija P con una traslación: Proposición 2.16 Dados un punto arbitrario P ∈ E y una aplicación af́ın f : E → E, se tiene f = t~v ◦g, donde ~v = −−−−→ P f(P ) y g es una transformación af́ın con g(P ) = P y −→g = −→ f . Demostración: La aplicación g := t−~v ◦ f es af́ın (composición de afines) con g(P ) = t−~v(f(P )) = f(P )− ~v = f(P ) + −−−−→ f(P )P = P y −→g = −→ t−~v ◦ −→ f = −→ f y componiendo a la izquierda con t~v (para “despejar f”) se obtiene f = t~v ◦ g.  Observación “matricial”: Cuando P = O es el origen de un referencial y la ecuación de f es X ′ = X0 +MX el vector ~v del resultado anterior tiene coordenadas X0 (pág. 40, recordando que ahora R = R ′) y la ecuación de g es simplemente X ′ = MX (pues fija el origen y esa es su lineal asociada), de modo que la expresión X0 +MX se interpreta directamente como la composición del enunciado. CAPÍTULO 2. APLICACIONES AFINES 51 2.2.3. Proyecciones y simetŕıas vectoriales En este apartado analizamos dos tipos de aplicaciones lineales que usaremos en lo que sigue. Definición 2.20 Dado un espacio vectorial como suma directa de dos subespacios, V = W1 ⊕W2, la proyección vectorial π = πW1,W2 y la simetŕıa 4 vectorial σ = σW1,W2 de base W1 y dirección W2 (o sobre W1 y paralelamente a W2) son los endomorfismos 5 de V dados por ~v ∈ V ~v = ~w1 + ~w2 con ~wi ∈Wi π(~v) = ~w1 σ(~v) = ~w1 − ~w2 Por ejemplo, si V = C (como R-espacio vectorial), W1 es el eje real y W2 es el eje imaginario, entonces la proyección consiste en tomar la parte real y la simetŕıa en tomar el conjugado. Otro ejemplo: si W2 = W ⊥ 1 entonces π y σ son la proyección ortogonal y la simetŕıa ortogonal sobre W1 en el sentido del caṕıtulo anterior. La interpretación geométrica para rectas arbitrarias W1 6= W2 en R 2 es similar: W1 W2 ~v ~w1 = π(~v) ~w2 W1 W2 ~v ~w2−~w2 ~w1σ(~v) Las siguientes propiedades (donde “elevar al cuadrado” es “componer consigo misma”) son claras: σ + idV = 2π, lo que permite expresar σ en función de π y viceversa. π es idempotente (π2 = π) y σ es involutiva (σ2 = idV , lo que implica σ −1 = σ). W1 = Inv(π) = Nuc(π − idV ) y W2 = Nuc(π) (subespacios asociados a los autovalores 1 y 0). Por tanto, “una” proyección π es siempre “la” proyección de base Inv(π) y dirección Nuc(π). W1 = Inv(σ) = Nuc(σ − idV ) y W2 = Nuc(σ + idV ) (subespacios de los autovalores 1 y −1). Por tanto, “una” simetŕıa σ es siempre “la” simetŕıa de base Inv(π) y dirección Nuc(π + idV ). Veamos ahora que las condiciones “muy algebraicas” del segundo punto son caracteŕısticas de las proyecciones y las simetŕıas: 4Cuando se hable de simetŕıas se asumirá que el cuerpo tiene caracteŕıstica 6= 2; de lo contrario se tiene σ = idV . 5Se necesita la unicidad en las expresiones de V = W1⊕W2 para ver que están bien definidas y para ver que son lineales. Para el cálculo práctico, lo complicado es encontrar la expresión ~v = ~w1 + ~w2 con cada ~wi ∈ Wi. CAPÍTULO 2. APLICACIONES AFINES 52 Proposición 2.21 Para un endomorfismo φ : V → V se verifican: 1. φ es una proyección ⇔ φ es idempotente (φ2 = φ) ⇔ V = Inv(φ)⊕Nuc(φ). 2. φ es una simetŕıa ⇔ φ es involutiva (φ2 = idV ) ⇔ V = Inv(φ) ⊕Nuc(φ+ 1). Demostración: 1. Ya hemos observado que las proyecciones son idempotentes. Si φ = φ2 se tiene ~v = φ(~v) + [~v − φ(~v)] ∈ Inv(φ) + Nuc(φ) para cualquier ~v ∈ V , por lo que V = Inv(φ) + Nuc(φ). La intersección es nula pues son subespacios propios distintos. Si V = Inv(φ)⊕Nuc(φ) entonces, poniendo un vector arbitrario como ~v = ~w1+ ~w2 con ~w1 ∈ Inv(φ) y ~w2 ∈ Nuc(φ) se tiene φ(~v) = φ(~w1) + φ(~w2) = ~w1 +~0 = ~w1, por lo que φ es la proyección de base Inv(φ) y dirección Nuc(φ). 2. Es similar, usando en la segunda parte la igualdad ~v = 1 2 (~v + φ(~v)) + 1 2 (~v − φ(~v)).  Observación “matricial”: Si V = W1 ⊕ W2 y tenemos una base B1 = {~w1, . . . , ~wm} de W1 y una base B2 = {~u1, . . . , ~up} de W2, entonces B = {~w1, . . . , ~wm, ~u1, . . . , ~up} es una base de V (¿por qué?), y la matriz en esa base B de la proyección π = πW1,W2 y de la simetŕıa σ = σW1,W2 son (con las rayas separando las m primeras filas y columnas de las p últimas): MB(π) = ( Im 0 0 0 ) MB(σ) = ( Im 0 0 −Ip ) Ejemplo 2.22 Matrices de proyecciones y simetŕıas vectoriales. Construyamos las matrices en la base canónica C de la proyección y la simetŕıa de R3 cuya base es el plano W de ecuación 2x− y + 3z = 0 y cuya dirección es la recta W ′ generada por el vector (1, 4, 1). En W podemos tomar una base formada por ~w1 = (1, 2, 0) y por ~w2 = (0, 3, 1), y juntándola con ~w3 = (1, 4, 1) se tiene la base B de la observación, para la que PCB =   1 0 1 2 3 4 0 1 1   (matriz de paso) MB(π) =   1 0 0 0 1 0 0 0 0   MB(σ) =   1 0 0 0 1 0 0 0 −1   Entonces, calculando PBC (la inversa de PCB) y operando se tiene: MC(π) = PCBMB(π)PBC =   −1 1 −3 −8 5 −12 −2 1 −2   MC(σ) = PCBMB(σ)PBC =   −3 2 −6 −16 9 −24 −4 2 −5   Compruébese que ambas matrices fijan ~w1 y ~w2 (al multiplicar las matrices por esos vectores-columna se obtienen los mismos vectores), mientras que a ~w3 la primera lo anula y la segunda le cambia el signo. CAPÍTULO 2. APLICACIONES AFINES 53 2.2.4. Proyecciones afines Definición 2.23 Sea L = A+W1 una variedad af́ın de E y sea W2 un subespacio con V = W1 ⊕W2. La proyección af́ın sobre L paralelamente a W2 (se dice también que L y W2 son la base y la dirección de la proyección) es la aplicación p = pL,W2 : E → E que lleva cada punto Q ∈ E al punto de intersección de las variedades complementarias L y Q+W2 (dibujo de la izquierda). Aśı, p(Q) queda determinado por las condiciones p(Q) ∈ L (ó −−−−→ Ap(Q) ∈W1) y −−−−→ Qp(Q) ∈W2. L Q p(Q) Q+W2 L Q p(Q) A Por tanto, la (única) forma de escribir el vector −→ AQ como suma de uno de W1 y otro de W2 es −→ AQ = −−−−→ Ap(Q) + −−−−→ p(Q)Q ∈ W1 ⊕W2 Visto de otro modo, si se conoce la (única) expresión −→ AQ = ~w1 + ~w2 con cada ~wi ∈Wi entonces p(Q) = A+ ~w1 O sea: p(A+ ~w1 + ~w2) = A+ ~w1 Proposición 2.24 La proyección p = pL,W2 es una aplicación af́ın con lineal asociada π = πW1,W2. De hecho, dado cualquier A ∈ L, p es la única aplicación af́ın f con f(A) = A y −→ f = π. La base es la variedad de puntos fijos (L = Fix(p)) y la dirección el núcleo de la lineal (W2 = Nuc(π)). Demostración: Para la primera afirmación hay que comprobar que p(Q + ~u) = p(Q) + π(~u) para un punto Q y un vector ~u arbitrarios. Para ello tomamos expresiones −→ AQ = ~w1 + ~w2 y ~u = ~u1 + ~u2 en W1 ⊕W2 y, usando las formas de actuar que hemos visto para p y para π, se tiene p(Q+ ~u) = p(A+ (~w1 + ~u1) + (~w2 + ~u2)) = A+ (~w1 + ~u1) = (A+ ~w1) + ~u1 = p(A) + π(~u) Para la segunda afirmación, es claro que p satisface esas condiciones y la unicidad se sigue de 2.3.1. En cuanto a las últimas afirmaciones, ya sabemos que W2 = Nuc(π). Por otra parte, con la notación anterior Q = A+ ~w1 + ~w2 está en Fix(p) si y sólo si ~w2 = 0, si y sólo si Q = A+ ~w1 está en L.  CAPÍTULO 2. APLICACIONES AFINES 56 Ejemplo 2.29 Ecuaciones de una simetŕıa af́ın. Calculemos las ecuaciones en el referencial canónico de la simetŕıa af́ın s de E2(R) cuya base es la recta ℓ de ecuación 2x+ 3y = 5 y cuya dirección es la recta vectorial W2 generada por el vector (2, 1). La base y la dirección son las del ejemplo anterior, luego tenemos PCB = ( 3 2 −2 1 ) y MB(σ) = ( 1 0 0 −1 ) N = MC(σ) = PCBMB(σ)PCB = 1 7 ( −1 −12 −4 1 ) Por tanto las ecuaciones son de la forma X ′ = X0 + NX, y tomando un punto fijo P = (1, 1) tenemos X0 = P −NP = (20/7 , 10/7). En definitiva las ecuaciones son ( x′ y′ ) = 1 7 ( 20 10 ) + 1 7 ( −1 −12 −4 1 )( x y ) ó { x′ = (20 − x− 12y)/7 y′ = (10− 4x+ y)/7 Las simetŕıas también admiten caracterizaciones similares a la de las proyecciones: Proposición 2.30 Para una aplicación af́ın f : E → E las siguientes condiciones son equivalentes: (a) f es una simetŕıa af́ın (de base Fix(f) y dirección Nuc( −→ f + idV )). (b) f es involutiva (f ◦ f = idE). (c) −→ f es una simetŕıa vectorial y f tiene puntos fijos (o sea, −→ f ◦ −→ f = idV y Fix(f) 6= ∅). Demostración: (a)⇒(b). f ◦ f e idE actúan igual sobre los puntos de Fix(f), pues ambas los fijan. Entonces (2.3) basta ver que tienen la misma lineal asociada, y esto es cierto pues −−−→ f ◦ f = −→ f ◦ −→ f = idV , donde la 2a igualdad se tiene porque −→ f es una simetŕıa vectorial. (b)⇒(c). Ahora tenemos −→ f ◦ −→ f = −−−→ f ◦ f = −→ idE = idV , y por lo tanto −→ f es una simetŕıa vectorial. Por otra parte, el punto A := P + f(P ) 2 (con P ∈ E arbitrario) es fijo, pues por 2.9.1 f(A) = f(P ) + f(f(P )) 2 = f(P ) + idE (P ) 2 = f(P ) + P 2 = A (c)⇒(a). Por hipótesis existe A ∈ Fix(f), y entonces (2.11) se tiene Fix(f) = A+ Inv( −→ f ). Por (2.21) sabemos que −→ f es la simetŕıa vectorial de base Inv( −→ f ) y dirección Nuc(f + idV ). Entonces, dados ~wi ∈Wi arbitrarios se tiene f(A+ ~w1 + ~w2) = f(A) + −→ f (~w1 + ~w2) = A+ ~w1 − ~w2 y por tanto f es la simetŕıa de base A +W1 = Fix(f) y dirección Nuc( −→ f + idV ), pues actúa igual que ella según hemos visto tras la definición.  CAPÍTULO 2. APLICACIONES AFINES 57 2.2.6. Proyecciones y simetŕıas con deslizamiento Definición 2.31 Con la notación anterior, si p = pL,W2 es una proyección y ~0 6= ~v ∈W1, la composición f := t~v ◦ p = p ◦ t~v (conmutan por 2.15) se llama proyección con deslizamiento de base L, dirección W2 y vector de deslizamiento ~v. Análogamente se definen las simetŕıas con deslizamiento. En las siguientes interpretaciones geométricas, la imagen de un punto X se representa por X ′: ~v P P ′ Q Q′ proyección con deslizamiento ~v P P ′ Q Q′ simetŕıa con deslizamiento Si f = t~v ◦p es una proyección con deslizamiento, entonces −→ f es idempotente, pues −→ f = −→ t~v ◦ −→ f = −→p , y f no tiene puntos fijos, pues Q = f(Q) = p(Q) + ~v ⇒ ~v = −−−−→ p(Q)Q ∈W1 ∩W2 = 0 ¡contradicción (~v 6= ~0)! y análogamente, si f = t~v ◦ s es una simetŕıa con deslizamiento entonces −→ f = −→s es involutiva y f no tiene puntos fijos. Rećıprocamente, para una aplicación af́ın f : E → E se tienen: Proposición 2.32 Si −→ f ◦ −→ f = −→ f y Fix(f) = ∅, entonces f es una proyección con deslizamiento. Su base, su dirección y el vector de deslizamiento se calculan a partir de la imagen A = f(Q) de un punto arbitrario Q aśı: L = A+ Inv( −→ f ) W2 = Nuc( −→ f ) ~v = −−−−→ Af(A) Demostración: Sea A = f(Q), sea ~v = −−−−→ Af(A) (no nulo, pues Fix(f) = ∅) y sea p := t−~v ◦ f , de modo que f = t~v ◦ p. Entonces −→p = −→ f es idempotente y p(A) = f(A) − ~v = A, por lo que p es una proyección af́ın con base A+ Inv(−→p ) = A+ Inv( −→ f ) y dirección Nuc(−→p ) = Nuc( −→ f ). Sólo falta ver que ~v ∈ Inv(−→p ) = Inv( −→ f ); para ello ponemos ~w = −−−−→ Qf(Q) y entonces ~v = −−−−→ Af(A) = −−−−−−−−−→ f(Q)f(f(Q)) = −→ f ( −−−−→ Qf(Q)) = −→ f (~w) −→ f (~v) = −→ f ( −→ f (~w)) = ( −→ f ◦ −→ f )(~w) = −→ f (~w) = ~v  CAPÍTULO 2. APLICACIONES AFINES 58 Proposición 2.33 Si −→ f ◦ −→ f = idV y Fix(f) = ∅, entonces f es una simetŕıa con deslizamiento. Su base, su dirección y el vector de deslizamiento se calculan a partir del punto medio A = Q+ f(Q) 2 entre un punto arbitrario Q y su imagen f(Q) aśı: L = A+ Inv( −→ f ) W2 = Nuc( −→ f + idV ) ~v = −−−−→ Af(A) Demostración: Tomando A = (Q+ f(Q))/2, la demostración es como antes salvo al final: Para ver que ~v ∈ Inv( −→ f ) ponemos ~w = −→ QA = −−−−→ Af(Q) (iguales por ser A el punto medio de Q y f(Q)); entonces ~v = −−−−→ Af(A) = −−−−→ Af(Q) + −−−−−−−→ f(Q) f(A) = ~w + −→ f ( −→ QA) = ~w + −→ f (~w) y por tanto −→ f (~v) = −→ f (~w + f(~w)) = −→ f (~w) + ( −→ f ◦ −→ f )(~w) = f(~w) + ~w = ~v.  Observaciones “matriciales”: Si la expresión matricial de f es X ′ = X0+MX e identificamos puntos y vectores con sus coordenadas entonces, por los resultados anteriores y sus demostraciones6: Si M2 = M entonces f es una proyección o una proyección con deslizamiento. De hecho: Si (I −M |X0) es compatible, f es la proyección de base Sol(I −M |X0) y dirección Nuc(M). Si (I −M |X0) es incompatible, f es una proyección con deslizamiento. Para Q = 0 se tiene A = f(Q) = X0 y por tanto el vector de deslizamiento es ~v = −−−−→ Af(A) = (X0 +MX0)−X0 = MX0 La base de la proyección es la variedad X0 +Nuc(I −M), y su dirección es el subespacio Nuc(M). Si M2 = I entonces f es una simetŕıa o una simetŕıa con deslizamiento. De hecho: Si (I −M |X0) es compatible, f es la simetŕıa de base Sol(I −M |X0) y dirección Nuc(I +M). Si (I −M |X0) es incompatible, f es una simetŕıa con deslizamiento. Para Q = 0 se tiene A = (Q+ f(Q))/2 = 1 2 X0 y el vector de deslizamiento es ~v = (X0 + 1 2 MX0)− 1 2 X0 = 1 2 (M + I)X0 La base de la simetŕıa es la variedad 1 2 X0+Nuc(I−M), y su dirección es el subespacio Nuc(M+I). 6Sol(A|B) denota el conjunto de soluciones del sistema de ecuaciones lineales con esa matriz ampliada. Nuc(A) denota el conjunto de soluciones del sistema homogéneo de ecuaciones lineales con esa matriz de coeficientes.
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved