´ Algebra tensorial y diferencial Giuseppe i Piero 20-2-2005
2
´Indice General ´ 1 Algebra Lineal Tensorial 1.1 Definiciones. Construcciones . . . . . . . . . . . . . . . 1.2 Espacios vectoriales. Espacio vectorial dual . . . . . . 1.3 Producto tensorial . . . . . . . . . . . . . . . . . . . . ´ 1.4 Algebra exterior n-´esima de un espacio vectorial . . . 1.5 M´etricas . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Producto exterior y contracci´on interior . . . . . . . . ´ 1.7 Algebra tensorial sim´etrica . . . . . . . . . . . . . . . 1.8 M´ odulo de diferenciales. Derivaciones . . . . . . . . . 1.9 Diferencial, contracci´ on por un campo, derivada de Lie 1.10 C´ alculo valorado . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
5 5 7 12 15 20 24 26 28 31 32
2 C´ alculo Tensorial en Geometr´ıa Diferencial 2.1 Desarrollo de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Espacio tangente en un punto . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Derivaciones. M´ odulo de diferenciales . . . . . . . . . . . . . . . . . . . 2.4 Variedades diferenciables. Haces . . . . . . . . . . . . . . . . . . . . . . 2.5 Anillo de funciones diferenciables . . . . . . . . . . . . . . . . . . . . . . 2.6 Localizaci´ on en el ´ algebra tensorial diferencial . . . . . . . . . . . . . . . 2.7 Integraci´ on. F´ ormula de Stokes . . . . . . . . . . . . . . . . . . . . . . . 2.8 Gradiente, divergencia y rotacional . . . . . . . . . . . . . . . . . . . . . 2.9 Ap´endice 1. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10 Ap´endice 2. Teorema de existencia y unicidad en sistemas de ecuaciones 2.11 Ap´endice 3. Inmersi´on de variedades compactas . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . diferenciales . . . . . . .
. . . . . . . . . . .
37 37 39 40 42 47 49 50 54 56 56 61
3 Aplicaciones de la teor´ıa 3.1 Sistemas de ecuaciones lineales. Regla de Cramer 3.2 M´ aximos y m´ınimos bajo condiciones . . . . . . . 3.3 Longitudes, ´ areas y vol´ umenes . . . . . . . . . . 3.4 Ejemplos en F´ısica . . . . . . . . . . . . . . . . .
. . . .
. . . .
63 63 64 65 69
3
. . . .
. . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . . . . . . . .
. . . .
. . . .
4
´INDICE GENERAL
Cap´ıtulo 1
´ Algebra Lineal Tensorial Estas notas son provisionales. El cap´ıtulo 2 todav´ıa no es l´ ogicamente consistente (y puede contener erratas). El c´alculo diferencial tensorial es una de las teor´ıas m´ as hermosas que aparecen en toda la Ma´ tem´atica. En ella conviven en perfecta armon´ıa el Algebra, el An´alisis, la Geometr´ıa Diferencial y La F´ısica. El ochenta por ciento de lo que aqu´ı se dice debiera constituir los conocimientos b´asicos (¡junto con otros!) de todo matem´ atico. Alguna vez he ca´ıdo en la tentaci´on de detenerme en ciertas cuestiones algebraicas que me preocupaban y que al lector quiz´as no le interesen tanto. El que escribe es de formaci´ on algebraica y aunque pueda parecer lo contrario ha renunciado muchas veces a una profundizaci´ on mayor (y compresi´on m´as clara) de los conceptos desarrollados. Por ejemplo, no he escrito las propiedades universales del ´algebra exterior y sim´etrica de un espacio vectorial y no s´e si perdon´ armelo. En los nuevos planes de estudios que se est´an perfilando no aparecen las palabras: producto tensorial, tensores, formas diferenciales, etc. Este hecho por s´ı solo califica a toda la comunidad matem´ atica espa˜ nola.
1.1
Definiciones. Construcciones
1. Comentario: El punto de partida de las Matem´ aticas son los n´ umeros naturales, a partir de ellos vamos definiendo y construyendo toda la Matem´ atica, “Dios nos dio los n´ umeros naturales, el resto de las Matem´ aticas la hicimos los hombres” (creo que dijo Kronecker). La piedra clave de las definiciones y construcciones es la palabra “sea”, y a los matem´ aticos nos parece bien (¡como en el G´enesis!). Demos algunos ejemplos. 1. Los matem´ aticos sabemos sustituir con todo rigor la palabra equivalente por la palabra igual, sabemos identificar una cosa con sus equivalentes. En efecto, consideremos una relaci´ on de equivalencia en un conjunto X. Un punto de X y todos sus equivalentes, los podemos identificar, hacerlos todos una misma cosa, diciendo simplemente: “Sea el subconjunto de X formado por un punto x y todos sus equivalentes. Denotemos este subconjunto por x ¯. Del mismo modo dado un punto y ∈ X y todos sus equivalentes, sea el subconjunto de X formado por y y todos sus equivalentes y denotemos este subconjunto y¯. Ahora tendremos que x es equivalente a y si y s´ olo si x ¯ es igual a y¯. Llamemos ¯ el conjunto que se obtiene al identificar en X cada elemento con sus equivalentes, es decir, X ¯ := {¯ X x, x ∈ X, donde x ¯=x ¯0 si y s´ olo si x es equivalente a x0 } 5
6
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
Misi´ on cumplida”. 1.1 Si establecemos en Z la relaci´ on de equivalencia n ≡ m si y s´ olo si n − m es m´ ultiplo de 5, tendremos que n ¯ =m ¯ si y s´ olo n − m es m´ ultiplo de 5. Si identificamos en Z cada entero con sus ¯ = {¯0, ¯1 . . . , ¯4}. equivalentes, tenemos s´ olo cinco elementos distintos, es decir, Z 1.2 Sea A un anillo. Dado un ideal I ⊂ A, establezcamos la siguiente relaci´ on de equivalencia: a ∈ A es equivalente a a0 ∈ A si y s´ olo si a − a0 ∈ I, es decir, si y s´ olo si existe alg´ un i ∈ I de modo que a = a0 + i. En este caso, A¯ := {¯ a, a ∈ A, de modo que a ¯=a ¯0 si y s´ olo si a − a0 ∈ I} se denota A/I. Resulta que A/I tiene una estructura natural de anillo, definiendo la suma y el producto como sigue a ¯ + ¯b := a + b a ¯ · ¯b := a · b ¯ y para el producto ¯1. el elemento neutro para la suma es 0 2. Dado el anillo de n´ umeros naturales N, definamos o construyamos el anillo de los n´ umero enteros Z. Para ello, en Matem´ aticas, no podremos hablar de grados bajo cero ni de deudas como se hace con los ni˜ nos peque˜ nos. Antes de empezar a construir Z, cualquiera que sea su construcci´ on o definici´ on, sabr´ıamos decir si n − m es igual a n0 − m0 (para n, m, n0 , m0 ∈ N), sabr´ıamos sumar, multiplicar etc. Basta con saber esto, es decir, en saber c´ omo se comporta Z, para que un matem´ atico sepa ya definirlos, gracias a la palabra sea: “Sea Z el conjunto de parejas de n´ umeros naturales (n, m), que preferimos denotar n − m, donde diremos que n − m es igual a n0 − m0 si n + m0 = m + n0 (observemos que con esta definici´ on n − m = n − m, que si n − m = n0 − m0 entonces n0 − m0 = n − m, 0 0 0 y que si n − m = n − m y n − m0 = n00 − m00 entonces n − m = n00 − m00 ). Definido queda Z, ¿c´ omo definimos la suma? (n − m) + (n0 − m0 ) := (n + n0 ) − (m + m0 ). Defina el lector el producto”. M´ as ejemplos. 3. Hemos definido ya el anillo de los n´ umeros enteros Z, definamos el cuerpo de los n´ umeros racionales Q. En Matem´ aticas no podemos hablar de pasteles y porciones de pasteles, como a los ni˜ nos. n0 n 0 0 es igual a m (n, m, n , m ∈ Z) y Pero antes de empezar a construir Q, sabr´ıamos decir cu´ ando m 0 sabemos sumar n´ umero racionales y multiplicarlos. No necesitamos nada m´ as, salvo la palabra “sea”: n Sea Q el conjunto de parejas de n´ umeros enteros (n, m), que preferimos denotar m , donde diremos 0 0 0 n n rn r n 0 que m es igual a m0 si existen r, r 6= 0 tales que rm y r0 m0 tienen el mismo numerador y denominador n n n n0 n0 n n n0 n0 n00 (observemos que m = m , que si m = m 0 entonces m0 = m , y que si m = m0 y m0 = m00 entonces 00 0 0 0 n n n n m n+mn omo definimos la suma? m +m . Defina el lector el 0 := m = m00 ). Definido queda Q ¿c´ mm0 producto. M´ as ejemplos. 3.1 Sea A un anillo y S ⊂ A, un subconjunto que cumpla 1 ∈ S y si s, s0 ∈ S entonces s · s0 ∈ S. Queremos definir el anillo (que denotaremos por AS ) formado por las fracciones a/s, a ∈ A, s ∈ S. Obviamente, queremos que se cumpla que as = ta ts , para todo t ∈ S. No hay mayor problema, digamos que son equivalentes y a los equivalentes hag´ amoslos iguales: a a a0 AS := { , con a ∈ A y s ∈ S | = 0 si existen t, t0 ∈ S tales que las fracciones s s s ta t0 a0 y 0 0 tienen el mismo numerador y denominador } ts ts ¿C´ omo definimos la suma? as + bt := at+bs ¿Y el producto? as · bt := ab st st . 4. Hemos definido Q, definamos ahora R. Aqu´ı a los ni˜ nos se les habla de los n´ umeros reales de un modo muy aproximado a lo que hacemos en Matem´ aticas (la construcci´ on de n´ umero real en Matem´ aticas es la objetivaci´ on formal de la experiencia f´ısica de aproximaci´ on (interminable)). Se les dice algo as´ı como: Vamos a ver cu´ anto mide media circunferencia. Mido y veo que es casi
1.2.
Espacios vectoriales. Espacio vectorial dual
7
3, pero si preciso m´ as es 3, 1, si preciso m´ as es 3, 14 y as´ı sucesivamente nos va saliendo que mide 3, 141592... con infinitas cifras infinitesimales. As´ı, nos dec´ıan que los n´ umeros reales son los n´ umeros con infinitas cifras decimales (despu´es nos dec´ıan que 0, 999999999.... era el mismo n´ umero que 1 ¡Identific´ abamos dos n´ umeros equivalentes!). La construcci´ on que damos en Matem´ aticas de los n´ umeros reales es esencialmente la misma que la que damos para completar cualquier espacio m´etrico (como la construcci´ on de Q a partir de Z, es la misma esencialmente que la que damos para construir AS a partir de A y S). Tenemos claro cuando una sucesi´ on de n´ umeros racionales se aproximan a algo 1 , es decir, definimos primero qu´e es una sucesi´ on de Cauchy. Tenemos claro tambi´en, cu´ ando dos aproximaciones son iguales o equivalentes (cuando la diferencia de las dos sucesiones de Cauchy se aproximen a 0). As´ı pues, dar un n´ umero real equivale a dar las aproximaciones a ´el, siempre que identifiquemos estas aproximaciones. Nos basta con esto para definir R, salvo la palabra sea: “Sea R el conjunto de todas las sucesiones de Cauchy, donde diremos que dos sucesiones de Cauchy son iguales si son equivalentes”. Definido queda R.
1.2
Espacios vectoriales. Espacio vectorial dual
“Un espacio vectorial es un conjunto en el que podemos sumar sus elementos y multiplicar cada elemento por un escalar, y estas operaciones cumplen propiedades muy naturales”. Sea k un cuerpo (ejemplos: k = Q, R ´o C). 1. Definici´ on : Un k-espacio vectorial es un conjunto, E, dotado de dos operaciones, una llamada suma E × E → E y se escribe (e, e0 ) 7→ e + e0 , y otra llamada producto por escalares k × E → E y se escribe (λ, e) 7→ λ · e, verificando: 1. (E, +) es un grupo abeliano, es decir, (a) e + (e0 + e00 ) = (e + e0 ) + e00 , para todo e, e0 , e00 ∈ E. (b) Existe un elemento que denotamos por 0 tal que 0 + e = e + 0 = e, para todo e ∈ E. (c) Para cada e ∈ E existe otro elemento que denotamos −e tal que e + (−e) = 0. (d) e + e0 = e0 + e, para todo e, e0 ∈ E. 2. λ · (e + v) = λ · e + λ · v, ∀λ ∈ k, e, v ∈ E 3. (λ + µ) · e = λ · e + µ · e ∀λ, µ ∈ k, e ∈ E 4. (λ · µ) · e = λ · (µ · e), ∀λ, µ ∈ k, e ∈ E 5. 1 · e = e, ∀e ∈ E. Los elementos de un espacio vectorial se denominan vectores y los de k escalares. Si k es un anillo y no un cuerpo (ejemplo: k = Z) se dice que E es un k-m´odulo. k n , con la suma (λi )+(µi ) := (λi +µi ) y el producto por escalares λ·(λi ) := (λ·λi ) es un k-espacio vectorial. R3 que es el espacio en el que pensamos que vivimos es un ejemplo de R-espacio vectorial. Sea X un conjunto y C(X) = Aplic(X, k). C(X) con la suma est´andar de funciones (f + g)(x) := f (x) + g(x) y producto est´ andar por escalares (λ · f )(x) := λ · f (x) es un k-espacio vectorial. 1 Aunque ese algo no sea un n´ umero racional. En realidad, lo real, real de verdad son las aproximaciones, que ´ estas se aproximen a algo realmente existente es otra cuesti´ on. Ese algo es una abstracci´ on, sin embargo suele pensarse que este algo es muy real y la aproximaci´ on una abstracci´ on matem´ atica, pero esto es otro tema...
8
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
Observemos que 0 · e = (0 + 0) · e = 0 · e + 0 · e y por tanto 0 · e = 0. Observemos que si e + e0 = 0 sumando −e, obtenemos que e0 = −e. Como 0 = (1 − 1) · e = e + (−1) · e, tenemos que (−1) · e = −e. Las aplicaciones que conservan la estructura de espacio vectorial (“los morfismos de la categor´ıa de k-espacios vectoriales”) son las aplicaciones lineales. Con precisi´on: Sean E, E 0 dos k-espacios vectoriales, 2. Definici´ on : Una aplicaci´ on T : E → E 0 es un morfismo de k-espacios vectoriales (o aplicaci´ on k-lineal ) si T (e + v) = T (e) + T (v) y T (λ · e) = λ · T (e) para cualesquiera e, v ∈ E, λ ∈ k. Es claro que la composici´ on T1 ◦ T2 : E → G de dos aplicaciones lineales T2 : E → F , T1 : F → G, es una aplicaci´ on lineal. 3. Definici´ on : Una aplicaci´ on lineal T : E → E 0 es un isomorfismo si existe otra aplicaci´on lineal 0 S : E → E tal que T ◦ S = IdE 0 , S ◦ T = IdE . T es un isomorfismo de espacios vectoriales si y s´olo si es una aplicaci´on biyectiva (lineal). 4. Definici´ on : Decimos que F ⊂ E es un subespacio vectorial de E si f + f 0 ∈ F y λ · f ∈ F , para 0 todo f, f ∈ F y λ ∈ k. F con la suma y producto por escalares es un espacio vectorial y la inclusi´on F ⊂ E es una aplicaci´on k-lineal. Si Fi son subespacios vectoriales de E entonces ∩i Fi es un subespacio vectorial de E. Sea E un espacio vectorial y F ⊂ E un subespacio vectorial. Consideremos la relaci´on de equivalencia que dice que dos vectores e1 , e2 ∈ E son equivalentes si y s´olo si difieren en un vector de F (los vectores de F son equivalentes a 0). Si identificamos cada vector de E con sus equivalentes, obtenemos el conjunto que denotamos E/F , que es el siguiente E/F := {¯ e | e ∈ E, de modo que e¯1 = e¯2 ⇐⇒ e1 − e2 ∈ F } Observemos que e¯ = 0 si y s´ olo si e ∈ F y que e¯ = v¯ si y s´olo si existe un vector e0 ∈ F tal que 0 v =e+e. E/F es de modo natural un espacio vectorial: e¯ + v¯ := e + v y λ · e¯ := λ · e. El morfismo natural π : E → E/F , π(e) := e¯ es una aplicaci´ on lineal epiyectiva. Dada una aplicaci´ on lineal T : E → E 0 , se denomina n´ ucleo de la aplicaci´on lineal T , que denotamos por Ker T , a Ker T := T −1 (0) := {e ∈ E | T (e) = 0} Es f´acil comprobar que Ker T es un subespacio vectorial de E. T (e) = T (v) si y s´olo si T (e) − T (v) = T (e − v) = 0, es decir, e − v ∈ Ker T . Es decir, T (e) = T (v) si y s´olo si existe un e0 ∈ Ker T tal que v = e + e0 . Por tanto, T es inyectiva si y s´olo si Ker T = 0. La aplicaci´ on T¯ : E/ Ker T → E 0 , T¯(¯ e) := T (e), est´a bien definida, pues si e¯ = v¯ existe un 0 e ∈ Ker T tal que v = e + e0 y T (v) = T (e) + T (e0 ) = T (e) (luego T¯(¯ v ) = T¯(¯ e), como ha ser si hablamos con sentido). Adem´ as, la aplicaci´on T¯ : E/ Ker T → E 0 es inyectiva: 0 = T¯(¯ e) = T (e) si y s´olo si e ∈ Ker T , es decir, si y s´ olo si e¯ = 0. Definimos la imagen de T , que denotamos por Im T como Im T := T (E) := {T (e) ∈ E 0 , e ∈ E} Es f´acil comprobar que Im T es un subespacio de E 0 .
1.2.
Espacios vectoriales. Espacio vectorial dual
9
Se tiene el siguiente diagrama conmutativo E
/ E0 O
T
π
E/ Ker T
_e
/ T (e) O
e¯
_ / T¯(¯ e) = T (e)
i T¯ ∼
/ Im? T
Donde la flecha horizontal inferior es isomorfismo porque es epiyectiva e inyectiva. Si C = {ci }i∈I , con ci ∈ E. Llamamos subespacio vectorial de E generado por C al m´ınimo subespacio vectorial de E que contiene a C, y lo denotamos hCi. Es f´acil probar que hCi = {e ∈ E | e = λ1 · c1 + · · · + λn cn , ci ∈ C, λi ∈ k, n ∈ N} Si C = {e1 , . . . , er } entonces denotamos he1 , . . . , er i = hCi y se cumple que he1 , . . . , er i = {λ1 · e1 + · · · + λr er , λi ∈ k}. Se dice que los vectores de C son un sistema generador de E si hCi = E. Decimos que un espacio vectorial E es finito generado si existen e1 , . . . , er ∈ E de modo que he1 , . . . , er i = E. Se dice que los vectores de C son linealmente independientes si λ1 · c1 + · · · + λn · cn 6= 0 si alg´ un λi 6= 0, para todo n y {c1 , . . . , cn } ⊂ C. Se dice que los vectores de C forman una base de E si son un sistema generador de E y son linealmente independientes. Los vectores (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0. . . . , 1) forman una base de k n , denominada “base est´andar” de k n . 5. Teorema de la base: Todo espacio vectorial E 6= 0 contiene alguna base. Todas las bases de E tienen el mismo n´ umero de vectores, tal n´ umero se dice que es la dimensi´ on de E y se denota dimk E. Demostraci´ on. Voy a suponer que E es finito generado, para no embarullar al lector con la teor´ıa de cardinales, lema de Zorn, etc. Supongamos, pues, que E = he1 , . . . , en i. Sea I ⊂ {1, . . . , n} un subconjunto m´aximo con la condici´on de que los vectores {ei }i∈I sean linealmente independientes. Obviamente I 6= ∅, pues si I = ∅ entonces ei = 0 para todo i y E = 0. Veamos que los vectores {ei }i∈I forman una base de E. Tenemos que probar que hei ii∈I = E. Dado ej ,P 1 ≤ j ≤ n, si ej ∈ / hei ii∈I entonces {ej , ei }i∈I ser´ıan linealmente independientes, pues si λ · e + λ e = 0 entonces: 1.PSi λj 6= 0 tendremos j j i i i P que ej = − i λλji · ei y ej ∈ hei ii∈I , contradicci´on. 2. Si λj = 0, entonces i λi ei = 0 y entonces λi = 0, para todo i ∈ I, pues los vectores {ei }i∈I son linealmente independientes. En conclusi´on, λj = λi = 0 para todo i, luego {ej , ei }i∈I son linealmente independientes. Ahora bien, por la maximalidad de I, esto es contradictorio. En conclusi´on, ej ∈ hei ii∈I , para todo 1 ≤ j ≤ n. Por tanto, E = he1 , . . . , en i ⊆ hei ii∈I y E = hei ii∈I . Veamos que todas las bases tienen el mismo n´ umero de vectores. Sea n el n´ umero de vectores de una base (hay muchas) con el m´ınimo n´ umero de vectores. Voy a proceder por inducci´on sobre n. Si n = 1, entonces E = hei para cierto vector no nulo e. Dados dos vectores no nulos cualesquiera e01 , e02 0 tendremos que e01 = λ1 · e y e02 = λ2 · e, con λ1 , λ2 6= 0, entonces λ11 · e1 + −1 λ2 · e2 = e − e = 0, luego e1 y e02 no son linealmente independientes. En conclusi´on, las bases de E han de estar formadas todas por un u ´nico vector. Supongamos que el teorema es cierto hasta n − 1 ≤ 1, veamos que para n. Sea ahoP es cierto 0 ra {e1 , . . . , en } y {e01 , . . . , e0m } dos bases de E. Tenemos que e1 = i λi ei , reordenando la base {e01 , . . . , e0m }, podemos suponer que λ1 6= 0. Pruebe el lector que {¯ e2 , . . . , e¯n } y {¯ e02 , . . . , e¯0m } son bases de E/he1 i (le costar´ a un poco m´ as ver que la segunda lo es). Obviamente, el n´ umero de vectores
10
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
de una base de E/he1 i con el n´ umero m´ınimo de vectores es menor que n. Por inducci´on sobre n, tendremos que n − 1 = m − 1, luego n = m. Si k es un anillo (y no un cuerpo) no es cierto en general que los k-m´odulos tengan bases. Por ejemplo el Z-m´ odulo Z/5Z no tiene bases, pues para todo n ¯ ∈ Z/5Z, 5 · n ¯ = 0. Los k-m´odulos que tienen bases se denominan k-m´odulos libres. k n es un k-m´odulo libre y una base de ´el es la base est´andar. Si {ei }i∈I son linealmente independientes y {¯ ej }j∈J es una base i ii∈I entonces {ei , ej }i∈I,j∈J P de E/heP es una base de E: Son linealmente independientes, pues si λ e + i i i j λj ej = 0 entonces 0 = P P P P ¯j , luego λj = 0, para i λi ei + j λj ej = j λj e i λi ei = 0 y λi = 0 para todo i. P todo j, luego P 0 0 Generan, pues dado e ∈ E, tendremos que e ¯ = λ e ¯ , luego e = j j j j λj ej + e , con e ∈ hei ii∈I , es P P P 0 decir, e = i λi ei y e = j λj ej + i λi ei . Como consecuencias tenemos que si F es un subespacio vectorial de E entonces dim E = dim F + dim E/F , y todo sistema de vectores linealmente independiente se puede ampliar a un sistema de vectores que formen base. Q Dado un conjunto de espacios vectoriales {Ei }i∈I , el conjunto i∈I Ei es de modo natural un espacio vectorial: (ei )i∈I + (e0i )i∈I := (ei + e0i )i∈I λ · (ei )i∈I := (λ · ei )i∈I Q Diremos que i Ei es el producto directo de los espacios vectoriales Ei . Definimos la suma directa de los espacios vectoriales Ei , que denotamos ⊕i∈I Ei , como Y ⊕i∈I Ei = {(ei )i∈I ∈ Ei : todos los ei salvo un n´ umero finito son nulos} i∈I
{ei }i∈I es un sistema generador de E si y s´olo si el morfismo X ⊕i∈I k → E, (λi )i∈I 7→ λi · ei i
es epiyectivo; son linealmente independientes si y s´olo si es inyectivo, y son una base si y s´olo si es un isomorfismo. Por tanto, todo espacio vectorial es isomorfo a un ⊕i∈I k, pues siempre existen bases. Q Observemos que si #I < ∞ entonces ⊕i∈I Ei = i∈I Ei . Si F, F 0 son dos subespacios vectoriales de E se denota F +F 0 como el m´ınimo subespacio vectorial que contiene a F y F 0 . Es f´ acil probar que F + F 0 = {f + f 0 ∈ E, f ∈ F, f 0 ∈ F 0 } El morfismo natural F ⊕ F 0 → F + F 0 , (f, f 0 ) 7→ f + f 0 es epiyectivo y es inyectivo si y s´olo si F ∩ F 0 = 0. Se dice que E es la suma directa de dos subespacios F, F 0 si y s´olo si F ∩ F 0 = 0 y F + F 0 = E, es decir, el morfismo F ⊕ F 0 → E, (f, f 0 ) 7→ f + f 0 es un isomorfismo, es decir, todo vector e ∈ E se escribe de modo u ´nico como suma de un vector f ∈ F y otro vector f 0 ∈ F 0 . Sea Homk (E, E 0 ) el conjunto de aplicaciones lineales de E en E 0 , que es un espacio vectorial de modo natural, con la suma y producto por escalares siguientes: (T + T 0 )(e) := T (e) + T 0 (e) y
(λ · T )(e) := λ · T (e)
Se cumple que el morfismo Y Y Homk (E, Ei0 ) → Homk (E, Ei0 ), (Ti )i∈I 7→ T, T (e) := (Ti (e))i∈I i∈I
i
1.2.
Espacios vectoriales. Espacio vectorial dual
11
Q es un isomorfismo de morfismo inverso T 7→ (πi ◦ T )i∈I , con πi : j Ej0 → Ei0 , πi ((e0j )j∈I ) := e0i . Se cumple que el morfismo Y X Homk (Ei , E 0 ) → Homk (⊕i∈I Ei , E 0 ), (Ti )i∈I 7→ T, T ((ei )i∈I ) := Ti (ei ) i
i i
es isomorfismo de morfismo inverso T 7→ (Ti )i∈I , Ti (ei ) := T ((0, . . . , ei , . . . , 0)). 0 Sea {ei }i∈I una base de E. Toda aplicaci´oP n lineal T : E → E P, est´a determinada por los valores T (ei ), i ∈ I, pues dado e ∈ E entonces e = i λi ei y T (e) = P ıprocamente, dados i λi T (ei ). Rec´ P vi ∈ E 0 , i ∈ I, la aplicaci´ on lineal S : E → E 0 definida por S(e) := i λi vi , para e = i λi ei , cumple que S(ei ) = vi . Formalmente, Y Y Homk (E, E 0 ) = Homk (⊕i∈I k, E 0 ) = Homk (k, E 0 ) = E 0 , T 7→ (T (ei ))i∈I i∈I
{e0j }
0
i∈I 0 j λji ej ,
P
Si es una base de E , entonces T (ei ) = para ciertos λij ∈ k (fijado i, todos los λji son nulos salvo un n´ umero finito) y existe una correspondencia biun´ıvoca entre T y las uplas de escalares (λji )(i,j)∈I×J , “caja” de n´ umeros que es denominada matriz asociada a T en las bases {ei } y {e0j } de E y E 0 respectivamente. “As´ı pues, T , que es una transformaci´on de un espacio en otro que supera f´acilmente nuestra capacidad de ideaci´ on geom´etrica, est´ a determinada por unos cuantos escalares λij ∈ k, que pueden ser mec´anicamente tratados”. Fijada una base P {e1 , . . . , en } (por sencillez digamos que n < ∞) de un espacio vectorial E, dado un vector e = i λi ei suele escribirse de modo abreviado e = (λ1 , . . . , λn ) (es decir, tenemos un 0 0 0 isomorfismo E = k n ). Igualmente, P dada una base } de EP , escribiremos (e) = e0 = P {e1 , . . . , emP P TP 0 0 0 0 ), ahora bien, T (e) = T ( i λi ei ) = (λ1 , . . . , λmP i λi T (ei ) = i λi ( j λji ej ) = j( i λji λi )ej , 0 luego λj = i λji λi , para todo j. Ecuaciones que escribimos de modo abreviado 0 λ11 · · · λ1n λ1 λ1 .. .. .. · .. = . . . . λ0m
λm1
···
λmn
λn
0
o de modo mucho m´ as abreviado e = T (e). Si T : E → E 0 es una aplicaci´ on lineal de matriz asociada (λji ), entonces la matriz asociada a λ · T es (λ · λji ). Escribiremos λ · (λji ) = (λ · λji ) y diremos que es el producto de una matriz por un escalar. Si T, T 0 : E → E 0 son dos aplicaciones lineales de matrices asociadas (λji ) y (λ0ji ) entonces la matriz asociada a T + T 0 es (λji + λ0ji ). Escribiremos (λji ) + (λ0ji ) = (λji + λ0ji ) y diremos que es la suma de matrices. Sea T : E → E 0 y S : E 0 → E 00 dos aplicaciones lineales. Sea {ei }i∈I , {e0j }j∈J y {e00k }k∈K bases de E, E 0 y E 00 respectivamente. Sea respectivas la matriz P (λji ) 0y (µkj P) las matrices P P de T y00 S. Calculemos P P 0 00 (cki ) de S ◦ T : (S ◦ T )(e ) = S( λ e ) = λ S(e ) = λ · ( µ e ) = ( µ j j ji j j ji j ji k kj k k j kj · λji ) · ek . Pi En conclusi´ on, cki = j µkj · λji . Seguiremos la notaci´on, (µkj ) ◦ (λji ) = (cki ) y diremos que (cki ) es el producto de las matrices (µkj ) y (λji ).
12
´ Algebra Lineal Tensorial
Cap´ıtulo 1.
6. Proposici´ on : Una aplicaci´ on lineal T : E → E 0 es inyectiva si y s´ olo si aplica una (o toda) base en un sistema de vectores linealmente independientes. T es epiyectiva si y s´ olo si aplica una base (o toda) en un sistema generador. T es un isomorfismo si y s´ olo si aplica una base (o toda) en una base. 7. Definici´ on : El espacio vectorial formado por el conjunto de aplicaciones lineales de un k-espacio vectorial E en k se denomina espacio vectorial dual de E y se denota E ∗ , es decir, E ∗ := Homk (E, k) Los vectores w ∈ E ∗ se denominan formas lineales. 8. Proposici´ on : Si E es un espacio vectorial de dimensi´ on finita, de base {e1 , . . . , en } entonces las formas lineales {w1 , . . . , wn }, determinadas por wi (ej ) = δij forman una base de E ∗ . Se dice que {w1 , . . . , wn } es la base dual de {e1 , . . . , en }. Demostraci´ on. Dada w ∈ E ∗ se tiene que w = w(e1P )·w1 +. . .+w(en )·wn , porque P ambas formas lineales coinciden sobre los vectores ei de la base de E. Si i λi wi = 0 entonces 0 = ( i λi wi )(ej ) = λj , para todo j. En conclusi´ on, {w1 , . . . , wn } son un sistema generador de E ∗ y son linealmente independientes, es decir, son una base. 9. Teorema de reflexividad: Sea E un espacio vectorial de dimensi´ on finita. La aplicaci´ on lineal can´ onica E → (E ∗ )∗ , e 7→ e˜, e˜(w) := w(e) es un isomorfismo. Demostraci´ on. Sea {e1 , . . . , en } una base de E y {w1 , . . . , wn } la base dual. Es inmediato que {˜ e1 , . . . , e˜n } es la base dual de {w1 , . . . , wn }. La aplicaci´on can´onica aplica la base {e1 , . . . , en } en la base {˜ e1 , . . . , e˜n } y es un isomorfismo. Ser´a usual escribir E = (E ∗ )∗ y e = e˜. Dada una aplicaci´ on lineal T : E → E 0 sea T ∗ : E 0∗ → E ∗ la aplicaci´on lineal definida por T ∗ (w0 ) := 0 w ◦ T . Se dice que T ∗ es el morfismo transpuesto de T . Si {e1 , . . . , en } y {e01 , . . . , e0m } son bases de E y E 0 y (λji ) es la matriz asociada a T en estas P bases, 0 calculemos la matriz (λ∗ij ) de T ∗ , en las bases duales {w1 , . . . , wn }, {w10 , . . . , wm }: T ∗ (wj0 ) = i λ∗ij wi . Entonces, X λ∗ij = T ∗ (wj0 )(ei ) = wj0 (T (ei )) = wj0 ( λki e0k ) = λji k ∗
que se expresa diciendo que la matriz de T es la transpuesta de la matriz de T .
1.3
Producto tensorial
Queremos definir o construir el producto tensorial de dos espacios vectoriales E, E 0 . Veamos qu´e cosas queremos y c´ omo queremos que operen. Quiero un “producto” que denotar´e ⊗, entre los vectores de E (que escribir´e en primer lugar) y los de E 0 (en segundo lugar). Dados e ∈ E y e0 ∈ E 0 , quiero construir e ⊗ e0 . Quiero sumar cosas de ´estas, quiero cosas de la forma λ1 (e1 ⊗ e01 ) + · · · + λn (en ⊗ e0n ), con ei ∈ E y e0i ∈ E 0 , λi ∈ k. Por u ´ltimo quiero que el producto verifique las siguientes propiedades (lineales):
1.3.
Producto tensorial
13
(e1 + e2 ) ⊗ e0 = e1 ⊗ e0 + e2 ⊗ e0 λe ⊗ e0 = e ⊗ λe0 = λ(e ⊗ e0 ) e ⊗ (e01 + e02 ) = e ⊗ e01 + e ⊗ e02 y no quiero imponer ninguna condici´ on m´as (salvo las que se deriven de estas condiciones). Esto es muy f´acil, con la palabra sea. Hablemos con todo rigor. Sean E y E 0 dos k-espacios vectoriales. Consideremos el conjunto de las sumas formales finitas M := {λ1 (e1 ⊗ e01 ) + · · · + λn (en ⊗ e0n ) | ei ∈ E, e0i ∈ E 0 , λi ∈ k, n ∈ N}, es decir, M := ⊕ k E×E 0
e1 ×e01
en ×e0n
λ1 (e1 ⊗ e01 ) + · · · + λn (en ⊗ e0n ) ↔ (0, . . . , 0, λ1 , 0, . . . , 0, λn , 0 . . . , 0)
M es un k-espacio vectorial (con la suma obvia de sumas formales y el producto obvio por escalares). “Queremos identificar (e1 + e2 ) ⊗ e0 con e1 ⊗ e0 + e2 ⊗ e0 ; λe ⊗ e0 con e ⊗ λe0 y con λ(e ⊗ e0 ); y e ⊗ (e01 + e02 ) con e ⊗ e01 + e ⊗ e02 .” Sea N el subespacio vectorial de M , generado por las sumas formales, (e1 +e2 )⊗e0 −e1 ⊗e0 −e2 ⊗e0 , λe ⊗ e0 − e ⊗ λe0 , λ(e ⊗ e0 ) − λe ⊗ e0 , y e ⊗ (e01 + e02 ) − e ⊗ e01 − e ⊗ e02 , es decir, (e1 + e2 ) ⊗ e0 − e1 ⊗ e0 − e2 ⊗ e0 0 0 0 0 λe ⊗ e − e ⊗ λe , λ(e ⊗ e ) − λe ⊗ e N := e,e1 ,e2 ∈E,e0 ,e01 e02 ∈E 0 ,λ∈k e ⊗ (e01 + e02 ) − e ⊗ e01 − e ⊗ e02
(∗)
1. Definici´ on : Llamaremos producto tensorial de E por E 0 , que denotaremos por E ⊗k E 0 , a E ⊗k E 0 := M/N 2. Notaci´ on: Dado e ⊗ e0 ∈ M , denotaremos e ⊗ e0 ∈ M/N = E ⊗ E 0 por e ⊗ e0 . Pues bien, E ⊗ E 0 est´ a generado por los vectores e ⊗ e0 , variando e ∈ E y e0 ∈ E 0 (porque los 0 vectores e ⊗ e son una base de M y E ⊗ E 0 = M/N ). Tomando clases en (∗) se tienen las igualdades (e1 + e2 ) ⊗ e0 = e1 ⊗ e0 + e2 ⊗ e0 λe ⊗ e0 = e ⊗ λe0 = λ(e ⊗ e0 ) e ⊗ (e01 + e02 ) = e ⊗ e01 + e ⊗ e02
(∗)
Calculemos las aplicaciones lineales de E ⊗ E 0 en otro espacio vectorial V . Como E ⊗ E 0 = M/N , dar una aplicaci´ on lineal ϕ : E ⊗ E 0 → V equivale a dar una aplicaci´on lineal φ : M → V que se anule en N (de modo que ϕ(e ⊗ e0 ) = φ(e ⊗ e0 )). Ahora bien, M es un k-espacio vectorial de base {e ⊗ e0 }e∈E,e0 ∈E 0 , as´ı pues, φ est´ a determinado por φ(e ⊗ e0 ) (variando e ∈ E, e0 ∈ E 0 ) y se anula en N si y s´olo si φ((e1 + e2 ) ⊗ e0 ) = φ(e1 ⊗ e0 ) + φ(e2 ⊗ e0 ) φ(λe ⊗ e0 ) = φ(e ⊗ λe0 ) = λφ(e ⊗ e0 ) φ(e ⊗ (e01 + e02 )) = φ(e ⊗ e01 ) + φ(e ⊗ e02 ) En conclusi´ on, dar ϕ : E ⊗k E 0 → V , equivale a definir ϕ(e ⊗ e0 ) (para todo e ∈ E, e0 ∈ E 0 ) de modo que se cumpla ϕ((e1 + e2 ) ⊗ e0 ) = ϕ(e1 ⊗ e0 ) + ϕ(e2 ⊗ e0 ) ϕ(λe ⊗ e0 ) = ϕ(e ⊗ λe0 ) = λϕ(e ⊗ e0 ) ϕ(e ⊗ (e01 + e02 )) = ϕ(e ⊗ e01 ) + ϕ(e ⊗ e02 )
14
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
(De un modo m´ as elegante, esta conclusi´on se expresa en los textos diciendo que se tiene la igualdad Homk (E ⊗k E 0 , V ) = Bilk (E, E 0 ; V )). Dadas dos aplicaciones lineales T : E → V , T 0 : E 0 → V 0 podemos definir el morfismo E ⊗ E 0 → V ⊗ V 0 , e ⊗ e0 7→ T (e) ⊗ T 0 (e0 ), morfismo que lo denotaremos por T ⊗ T 0 . 3. Proposici´ on :
1. E ⊗k E 0 = E 0 ⊗k E.
2. (E ⊕ E 0 ) ⊗k V = (E ⊗k V ) ⊕ (E 0 ⊗k V ). 3. ( ⊕ Ei ) ⊗k V = ⊕(Ei ⊗ V ). i∈I
i
4. k ⊗k E = E. Demostraci´ on. 1. Tenemos el morfismo E ⊗E 0 → E 0 ⊗E, e⊗e0 7→ e0 ⊗e y su inverso E 0 ⊗E → E ⊗E 0 , e0 ⊗ e 7→ e ⊗ e0 . 2. Tenemos el morfismo (E ⊕ E 0 ) ⊗ V → (E ⊗ V ) ⊕ (E 0 ⊗ V ), (e, e0 ) ⊗ v 7→ (e ⊗ v, e0 ⊗ v) y el inverso (E ⊗ V ) ⊕ (E 0 ⊗ V ) → (E ⊕ E 0 ) ⊗ V , (e ⊗ v, e0 ⊗ v 0 ) 7→ (e, 0) ⊗ v + (0, e0 ) ⊗ v 0 . 3. Idem que 2. 4. Tenemos el morfismo k ⊗ E → E, λ ⊗ e 7→ λe y el inverso E → k ⊗ E, e 7→ 1 ⊗ e.
4. Teorema : Si E es un espacio vectorial de base {e1 , . . . , en } y E 0 es un espacio vectorial de base {e01 , . . . , e0m } entonces E ⊗k E 0 es un espacio vectorial de base {ei ⊗ e0j }1≤i≤n,1≤j≤m . Demostraci´ on. E ⊗k E 0 = he ⊗ e0 ie∈E,e0 ∈E 0 . Dados e ∈ E y e0 ∈ E 0 entonces e =
P P λi ei y e0 = λ0j e0j i
y
j
X X X e ⊗ e0 = ( λi ei ) ⊗ ( λj e0j ) = λi λ0j · ei ⊗ e0j i
j
i,j
Por tanto, E ⊗ E 0 = hei ⊗ e0j i1≤i≤n,1≤j≤m . m
m
Adem´ as, E ⊗ E 0 = k n ⊗ k m = (k ⊗ k m ) ⊕ · · · ⊗ (k ⊗ k m ) = k m ⊕ · · · ⊕ k m = k nm , luego E ⊗ E 0 es un espacio vectorial de dimensi´ on nm, de base {ei ⊗ e0j }1≤i≤n,1≤j≤m (de hecho puede comprobar el lector que esta base se aplica v´ıa las igualdades en la base est´andar de k nm ).
Del mismo modo que hemos definido el producto tensorial de dos espacios vectoriales podr´ıamos haber definido el producto tensorial de tres espacios vectoriales, e igualmente dar una aplicaci´on lineal φ : E1 ⊗k E2 ⊗k E3 → V equivale a definir los φ(e1 ⊗ e2 ⊗ e3 ), para todo e1 ∈ E1 , e2 ∈ E2 , e3 ∈ E3 , de modo que sea k-lineal en cada uno de los tres factores, es decir, Homk (E1 ⊗k E2 ⊗k E3 , V ) = Multilin(E1 ×E2 ×E3 , V ). Igualmente podemos definir el producto tensorial de n-espacios vectoriales. 5. Proposici´ on : Homk (E ⊗k E 0 , E 00 ) = Homk (E, Homk (E 0 , E 00 )). Demostraci´ on. Asignamos a φ ∈ Homk (E ⊗k E 0 , E 00 ), φ˜ ∈ Homk (E, Homk (E 0 , E 00 )), definido por ˜ φ(e) := φ(e ⊗ −), donde φ(e ⊗ −)(e0 ) := φ(e ⊗ e0 ). Rec´ıprocamente, asignamos al morfismo ϕ ∈ Homk (E, Homk (E 0 , E 00 )), ϕ˜ ∈ Homk (E ⊗k E 0 , E 00 ), definido por ϕ(e ˜ ⊗ e0 ) := (ϕ(e))(e0 ). 0 0 6. Proposici´ on : (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em ) = E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em .
1.4.
´ Algebra exterior n-´esima de un espacio vectorial
15
Demostraci´ on. Sea 0 0 φ ∈ Homk (E1 ⊗k · · · ⊗k En , Homk (E10 ⊗k · · · ⊗k Em , E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em ))
definido por φ(e1 ⊗ · · · ⊗ en )(e01 ⊗ · · · ⊗ e0m ) := e1 ⊗ · · · ⊗ en ⊗ e01 ⊗ · · · ⊗ e0m . Por la proposici´on anterior 0 0 tenemos el morfismo (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em ) → E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em , 0 0 0 0 definido por (e1 ⊗ · · · ⊗ en ) ⊗ (e1 ⊗ · · · ⊗ em ) 7→ e1 ⊗ · · · ⊗ en ⊗ e1 ⊗ · · · ⊗ em . 0 0 El morfismo E1 ⊗k · · · ⊗k En ⊗k E10 ⊗k · · · ⊗k Em → (E1 ⊗k · · · ⊗k En ) ⊗k (E10 ⊗k · · · ⊗k Em ), 0 0 0 0 e1 ⊗ · · · ⊗ en ⊗ e1 ⊗ · · · ⊗ em 7→ (e1 ⊗ · · · ⊗ en ) ⊗ (e1 ⊗ · · · ⊗ em ) es el morfismo inverso. Hemos demostrado, adem´ as, la propiedad asociativa del producto tensorial, pues f´acilmente tenemos que E1 ⊗k (E2 ⊗k E3 ) = E1 ⊗k E2 ⊗k E3 = (E1 ⊗k E2 ) ⊗k E3 7. Teorema : Sean Ei k-espacios vectoriales de dimensi´ on finita. La aplicaci´ on lineal φ
E1∗ ⊗k . . . ⊗k En∗ → (E1 ⊗k · · · ⊗k En )∗ = Multilink (E1 × · · · × En , k) w1 ⊗ · · · ⊗ wn 7→ w1 ⊗ · ˜· · ⊗ wn con w1 ⊗ · ˜· · ⊗ wn (e1 ⊗ · · · ⊗ en ) := w1 (e1 ) · · · wn (en ), es un isomorfismo lineal. Demostraci´ on. Sea {eij }i una base de Ej y {wij }i la base dual. Por tanto, una base de E1∗ ⊗k · · ·⊗k En∗ es {wi1 1 ⊗ · · · ⊗ win n }i1 ,...,in , que resulta ser v´ıa φ la base dual de la base {ei1 1 ⊗ · · · ⊗ ein n }i1 ,...,in de E1 ⊗k · · · ⊗k En . 8. Notaci´ on: Por abuso de notaci´ on suele denotarse w1 ⊗ · ˜· · ⊗ wn por w1 ⊗· · ·⊗wn . Rec´ıprocamente, w1 ⊗ · · · ⊗ wn suele pensarse como la aplicaci´ on multilineal w1 ⊗ · ˜· · ⊗ wn . Otra f´ ormula importante es: 9. Proposici´ on : Sea E 0 un k-espacio vectorial de dimensi´ on finita. Entonces E 0∗ ⊗k E = Homk (E 0 , E) Demostraci´ on. Si E 0 = k es obvio. En general, E 0 = k n . Como Homk (−, E) y − ⊗k E conmutan con sumas directas finitas, hemos concluido. ˜ e, donde w ⊗ ˜ e(e0 ) := w(e0 )·e, Expl´ıcitamente, el morfismo E 0∗ ⊗k E → Homk (E 0 , E), w ⊗e 7→ w ⊗ es un isomorfismo can´ onico.
1.4
´ Algebra exterior n-´ esima de un espacio vectorial
“Queremos definir ahora un producto ∧, con las propiedades multilineales de ⊗ y de modo que v1 ∧ · · · ∧ vr sea cero si y s´ olo v1 , . . . , vn ∈ E no son linealmente dependientes. Basta imponer s´olo que v1 ∧ . . . ∧ vr es nulo si dos de los vi son iguales”. n Sea V el k-subespacio vectorial de E ⊗k · · · ⊗k E, generado por los vectores e1 ⊗ · · · ⊗ ej−1 ⊗ e ⊗ · · · ⊗ ek−1 ⊗ e ⊗ · · · ⊗ en variando ei , e, j, k.
16
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
1. Definici´ on : Llamaremos ´ algebra exterior n de E, que denotaremos por Λn E, a n
Λn E := (E ⊗k · · · ⊗k E)/V n
2. Notaci´ on: Denotaremos e1 ⊗ e2 ⊗ · · · ⊗ en ∈ (E ⊗k · · · ⊗k E)/V = Λn E por e1 ∧ e2 ∧ · · · ∧ en . Observemos que ∧ adem´ as de las propiedades de multilinealidad heredadas de ⊗, cumple que e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en = 0. Si ei es combinaci´on lineal de los {ej }j6=i , entonces e1 ∧ e2 ∧ · · · ∧ P λj ej , luego ei ∧ · · · ∧ en = 0: ei = j6=i
P e1 ∧ e2 ∧ · · · ∧ en = e1 ∧ · · · ∧ ei−1 ∧ ( λj ej ) ∧ ei+1 ∧ · · · ∧ en j6=i P = λj e1 ∧ · · · ∧ ei−1 ∧ ej ∧ ei+1 ∧ · · · ∧ en = 0 j6=i
Como 0 = e1 ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ (e + e0 ) ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en + e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e0 ∧ · · · ∧ en = e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en + e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en obtenemos que e1 ∧ · · · ∧ e ∧ · · · ∧ e0 ∧ · · · ∧ en = −e1 ∧ · · · ∧ e0 ∧ · · · ∧ e ∧ · · · ∧ en j
j
k
k
Recordemos que toda permutaci´ on es producto de transposiciones y que el signo de la permutaci´on es igual a −1 elevado al n´ umero de las transposiciones. Por tanto, dada una permutaci´on σ, de {1, . . . , n}, tenemos que eσ(1) ∧ eσ(2) ∧ · · · ∧ eσ(n) = signo(σ) · e1 ∧ e2 ∧ · · · ∧ en n
3. Como Λn E = (E ⊗ · · · ⊗ E)/V , dar un morfismo lineal φ : Λn E → F equivale a dar un morfismo n E⊗ · · ·⊗E → F , que se anule en V , es decir, equivale a definir φ(e1 ∧· · ·∧en ) (para todo e1 , . . . , en ∈ E) que sea k-lineal en cada factor y de modo que φ(e1 ∧ · · · ∧ e ∧ · · · ∧ e ∧ · · · ∧ en ) = 0. Dada una aplicaci´ on lineal T : E → E 0 induce el morfismo Λn T : Λn E → Λn E 0 , definido por Λ T (e1 ∧ · · · ∧ en ) := T (e1 ) ∧ · · · ∧ T (en ). n
4. Notaci´ on: Diremos que Λ0 E = k y que Λ1 E = E. 5. Teorema: Sea E un espacio vectorial de base {e1 , . . . , en }. Entonces {ei1 ∧· · ·∧eir }1≤i1
Demostraci´ on. Sabemos que {ei1 ⊗ · · · ⊗ eir }1≤ij ≤n es una base de E ⊗ · · · ⊗ E. Por tanto, tomando clases tenemos que {ei1 ∧ · · · ∧ eir }1≤ij ≤n es un sistema generador de Λr E. Si en el producto exterior de r-vectores aparecen vectores repetidos entonces es nulo. Adem´as eσ(1) ∧ eσ(2) ∧ · · · ∧ eσ(r) = signo(σ) · e1 ∧ e2 ∧ · · · ∧ er Por tanto, {ei1 ∧ · · · ∧ eir }1≤i1
alg´ un λi1 ,i2 ,··· ,ir 6= 0. Reordenando la base, podemos suponer que λ1,2,··· ,r 6= 0.
1.4.
´ Algebra exterior n-´esima de un espacio vectorial
17
Sea {wi } la base dual de {ei }. Consideremos la aplicaci´on lineal w : Λr E → k, v1 ∧ · · · ∧ vr 7→
X
signo(σ) · w1 (vσ(1) ) · · · wr (vσ(r) )
σ
Se cumple que 0 = w(
P
λi1 ,i2 ,··· ,ir ei1 ∧ · · · ∧ eir ) = λ1,2,··· ,r .
1≤i1
6. Corolario : v1 , . . . , vn ∈ E son linealmente independientes si y s´ olo si v1 ∧ · · · ∧ vn 6= 0. Demostraci´ on. Si v1 , . . . , vn ∈ E son linealmente independientes entonces forman parte de una base, luego v1 ∧ · · · ∧ vn forma parte de una base de Λn E y es distinto de cero. Si E es un espacio vectorial de dimensi´on n y base {e1 , . . . , en } entonces Λn E es un espacio vectorial P de dimensi´ on 1 de base e1 ∧ · · · ∧ en . Dados v1 , · · · , vn ∈ E, con vi = λij ej , tendremos que j
P v1 ∧ · · · ∧ vn = (λ11 e1 + · · · + λ1n en ) ∧ · · · ∧ (λn1 e1 + · · · + λnn en ) = λ1i1 · · · λnin ei1 ∧ · · · ∧ ein i1 6=···6=in P P = λ1σ(1) · · · λnσ(n) · eσ(1) ∧ · · · ∧ eσ(n) = ( signo(σ)λ1σ(1) · · · λnσ(n) ) · e1 ∧ · · · ∧ en σ∈Sn
σ∈Sn
7. Definici´ on : Sea E un espacio vectorial de dimensi´on n y T : E → E un endomorfismo lineal. Entonces Λn E = k y Λn T : Λn E → Λn E es la homotecia por cierto escalar de k, que llamaremos determinante de T y denotaremos det(T ). (
Si {e1 , . . . , en } es una base de E y la matriz de T en esa base es (λij ), entonces T (e1 )∧· · ·∧T (en ) = P P signo(σ)λ1σ(1) · · · λnσ(n) ) · e1 ∧ · · · ∧ en , luego det(T ) = signo(σ)λ1σ(1) · · · λnσ(n) .
σ∈Sn
σ∈Sn
8. Proposici´ on : Sea E un espacio vectorial de dimensi´ on finita. T : E → E es un isomorfismo si y s´ olo si det(T ) 6= 0. Demostraci´ on. Sea {e1 , . . . , en } una base de E. T es un isomorfismo ⇐⇒ T (e1 ), . . . , T (en ) son linealmente independientes ⇐⇒ T (e1 ) ∧ · · · ∧ T (en ) 6= 0 ⇐⇒ det(T ) 6= 0. 9. Teorema : det(T ◦ T 0 ) = det(T ) · det(T 0 ). Demostraci´ on. Se verifica que Λn (T ) ◦ Λn (T 0 ) = Λn (T ◦ T 0 ): (Λn (T ) ◦ Λn (T 0 ))(e1 ∧ · · · ∧ en ) = Λn (T )(T 0 (e1 ) ∧ · · · ∧ T 0 (en )) = (T ◦ T 0 )(e1 ) ∧ · · · ∧ (T ◦ T 0 )(en ) = Λn (T ◦ T 0 )(e1 ∧ · · · ∧ en ). Por tanto, multiplicar (en Λn E = k) por det(T 0 ) y despu´es multiplicar por det(T ) es igual a multiplicar por det(T ◦ T 0 ). Es decir, det(T ◦ T 0 ) = det(T ) · det(T 0 ). 10. Definici´ on : Dada una matriz A = (aij ) llamaremos menor pq de la matriz, que denotaremos por Aqp , al determinante de la matriz que se obtiene suprimiendo en (aij ) la columna p y la fila q. P 11. Proposici´ on : det(aij ) = (−1)q a1q Aq1 . q
18
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
Demostraci´ on. Sea {ei } una base. Entonces P P P P P det(aij )e1 ∧ · · · ∧ en = ( a1j ej ) ∧ · · · ∧ ( anj ej ) = a1k ek ∧ ( a2j ej ) ∧ · · · ∧ ( anj ej ) j j j j k P P P P = a11 e1 ∧ ( a2j ej ) ∧ · · · ∧ ( anj ej ) + · · · + a1n en ∧ ( a2j ej ) ∧ · · · ∧ ( anj ej ) j6=1
j6=1
j6=n
j6=n
= a11 A11 · e1 ∧ · · · ∧ en + · · · + a1n An1 · en ∧ e1 ∧ · · · ∧ en−1 P = ( (−1)j a1j Aj1 ) · e1 ∧ · · · ∧ en j
y hemos concluido. Sea T : E → E un isomorfismo lineal y sea A = (aij ) la matriz de T en una base {ej } de E. P Calculemos la matriz B = (bij ) de T −1 : T −1 (ei ) = bij ej , luego j
T −1 (ei ) ∧ e1 ∧ · · · ∧ eˆj ∧ · · · ∧ en = bij ej ∧ e1 ∧ · · · ∧ eˆj ∧ · · · ∧ en = (−1)j bij e1 ∧ · · · ∧ en Aplicando Λn T , obtenemos ei ∧ T (e1 ) ∧ · · · ∧ eˆj ∧ · · · ∧ T (en ) = bij (−1)j det(T )e1 ∧ · · · ∧ en Como ei ∧ T (e1 ) ∧ · · · ∧ eˆj ∧ · · · ∧ T (en ) = Aij · (−1)i e1 ∧ · · · ∧ en , entonces bij = (−1)i+j
Aij det(aij )
Hablemos, primero sin rigor, de orientaci´on de un R-espacio vectorial, para ligar la intuici´on vaga que tenemos de orientaci´ on con la definici´on matem´atica de orientaci´on que daremos m´as adelante. “Decimos que un espacio vectorial E de dimensi´on 1 (una recta) lo tenemos orientado, si sabemos decir qu´e est´ a a la derecha del cero y qu´e est´a a la izquierda del cero. Para esto es necesario y suficiente con que tengamos un vector no nulo e ∈ E, de modo que diremos que un punto e0 ∈ E distinto de 0, est´a a la derecha de 0 si e0 = λ · e, con λ > 0, diremos que est´a a la izquierda si λ < 0. Otro vector, v define la misma orientaci´ on que e si y s´olo si v = µe, con µ > 0. En conclusi´on, dar una orientaci´on en E, equivale a dar un e ∈ E (o cualquier otro λe, con λ > 0). Sea ahora E un plano. Decimos que en el plano E estamos orientados, si siempre que tengamos una recta (pongamos que pasa por el origen) orientada sabemos decir qu´e est´a a la derecha de la recta o qu´e est´ a a la izquierda de la recta. As´ı si tenemos una recta orientada r = hei ⊂ E (donde e orienta la recta), dado e0 (que no yazca en la recta) sabemos decir si est´a a la derecha o a la izquierda de la a a la derecha de la recta, entonces los puntos de la derecha son de la forma recta. Adem´ as, si e0 est´ 0 λe + µe , con µ > 0. As´ı si fijamos la recta orientada r = hei y decimos que e0 est´a a la derecha de r, definamos e ∧ e0 que es una base de Λ2 E, entonces v = αe + βe0 est´a a la derecha de r, si y s´olo si e ∧ v = β · e ∧ e0 con β > 0. En conclusi´on, dada una dos coforma c2 ∈ Λ2 E, tenemos una orientaci´on en E: Dada una recta orientada r = hei (donde e, o λe con λ > 0, orienta la recta) diremos que e0 est´a a la derecha de la recta r, si e ∧ e0 = β · c2 , con β > 0. As´ı pues, dar una orientaci´on en E, es dar una c2 ∈ Λ2 E (o cualquier otra λ · c2 , con λ > 0). Sea ahora E un R-espacio vectorial de dimensi´on 3. Decimos que estamos orientados en E, si dado un plano orientado sabemos decir qu´e est´a a su derecha y qu´e est´a a su izquierda. Dar un plano V ⊂ E orientado, es dar una dos coforma c2 ∈ Λ2 V (o cualquier otra λc2 , con λ > 0). As´ı si tengo, una tres coforma c3 ∈ Λ3 E (o cualquier otra λ · c3 , con λ > 0), dado e0 ∈ E, dir´e que est´a a la derecha
1.4.
´ Algebra exterior n-´esima de un espacio vectorial
19
de V si c2 ∧ e0 = α · c3 , con α > 0. Observemos, que si e00 = µe0 + v, con µ > 0 y con v ∈ V , entonces c2 ∧ e00 = µ · c2 ∧ e0 = µλc3 . En conclusi´on, dar una orientaci´on en E, es dar una c3 ∈ Λ3 E (o cualquier otra λ · c3 , con λ > 0)”. 12. Definici´ on : Dar una orientaci´ on en un R-espacio vectorial E de dimensi´on n, es dar una ncoforma no nula cn ∈ Λn E. Decimos que dos orientaciones cn y c0n son iguales si cn = λ · c0n , con λ > 0. Como Λn E ' R, en E s´ olo podemos dar dos orientaciones, “una y su opuesta”. Dada una orientaci´ on cn ∈ Λn E existe una u ´nica wn ∈ Λn E ∗ , salvo un factor multiplicativo positivo, de modo que wn (cn ) ≥ 0. Equivalentemente, dada una n-forma wn , salvo un factor multiplicativo positivo, tenemos definida una orientaci´on. Sea E un R-espacio vectorial de dimensi´on n orientado, y e1 ∧ . . . ∧ en ∈ Λn E una n-coforma que orienta E (o equivalentemente una n-forma wn que orienta E). 13. Definici´ on : Diremos que una base ordenada {e01 , . . . , e0n } est´a positivamente ordenada si e01 ∧ 0 · · · ∧ en = λ · e1 ∧ · · · ∧ en , con λ > 0 (o equivalentemente si wn (e01 , . . . , e0n ) > 0). P 14. Proposici´ on : Sea e0i = λij ej . Entonces {e01 , . . . , e0n } est´ a positivamente ordenada si y s´ olo si j
det(λij ) > 0. Demostraci´ on. e01 ∧ · · · ∧ e0n = det(λij ) · e1 ∧ · · · ∧ en . 15. Definici´ on : Una aplicaci´ on multilineal H : E × . . . × E → V es una aplicaci´on hemisim´etrica si H(e1 , · · · , en ) = 0 si ei = ej , para un i 6= j. Observemos que si ei es combinaci´ on lineal de los dem´as ej , por la multilinealidad y hemisimetr´ıa de H, se cumple que H(e1 , . . . , en ) = 0. Por otra parte, 0 = H(e1 , · · · , e + v, · · · , e + v, · · · , en ) = H(e1 , · · · , e, · · · , v, · · · , en ) + H(e1 , · · · , v, · · · , e, · · · , en ) Luego H(e1 , · · · , e, · · · , v, · · · , en ) = −H(e1 , · · · , v, · · · , e, · · · , en ) y en general H(e1 , · · · , · · · , en ) = signo(σ) · H(eσ(1) , · · · , eσ(n) ) Denotemos Hemk (E × · · · × E, V ), el conjunto de aplicaciones hemisim´etricas de E × · · · × E en V. m 16. Proposici´ on : Hemk (E × · · · × E, k) = (Λm E)∗ . m
Demostraci´ on. Estamos repitiendo 1.4.3. Toda aplicaci´on hemisim´etrica H : E × · · · × E → k, define ˜ : E ⊗ .m. . ⊗ E → k, H(e ˜ 1 ⊗ · · · ⊗ em ) = H(e1 , . . . , em ), que factoriza v´ıa Λm E → k, la aplicaci´ on H e1 ∧ · · · ∧ em 7→ H(e1 , . . . , em ). Rec´ıprocamente, dada una aplicaci´on lineal, Λm E → k, la composici´on m E × · · · × E → Λm E → k es hemisim´etrica. 17. Proposici´ on : Sea E un espacio vectorial de dimensi´ on finita. Entonces, Λm E ∗ = (Λm E)∗ φ Demostraci´ on. La aplicaci´ on, Λm E ∗ → (Λm E)∗ , ω1 ∧ · · · ∧ ωm 7→ ω1 ∧ · ·˜· ∧ ωm , donde
ω1 ∧ · ·˜· ∧ ωm (v1 ∧ · · · ∧ vm ) :=
X σ∈Sm
signo(σ) · ω1 (vσ(1) ) · · · ωm (vσ(m) )
20
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
es un isomorfismo. Porque si e1 , . . . , en es una base de E y w1 , . . . , wn la base dual, entonces φ aplica la base {wi1 ∧ · · · ∧ wim }i1 <···
Λm E ∗ = Hemk (E × · · · × E, k) Expl´ıcitamente, Λm E ∗ → Hemk (E × · · · × E, k), w1 ∧ · · · ∧ wm 7→ w1 ∧ · ·˜· ∧ wm , donde w1 ∧ · ·˜· ∧ wm (e1 , . . . , em ) := w1 ∧ · ·˜· ∧ wm (e1 ∧ . . . ∧ em ) =
X
signo(σ) · w1 (eσ(1) ) · · · wm (eσ(m) )
σ∈Sm
es un isomorfismo lineal. Sea E un R-espacio vectorial de dimensi´on n, con una orientaci´on. La funci´on F : E × · · · × E → R que asigna a n-vectores el volumen del parelelep´ıpedo definido por los n-vectores, multiplicado por (−1) si los n vectores no est´ an positivamente orientados, es una funci´on hemisim´etrica. Por tanto, podemos definir F : Λn E → R, que asigna a e1 ∧ · · · ∧ en el volumen del paralelep´ıpedo definido por P e1 , . . . , en (multiplicado por (−1) si los n vectores no est´an positivamente orientados). Si e0i = λij ej , j
como e01 ∧ · · · ∧ e0n = det(λij ) · e1 ∧ · · · ∧ en , tendremos que F (e01 ∧ · · · ∧ e0n ) = F (det(λij ) · e1 ∧ · · · ∧ en ) = det(λij )F (e1 ∧ · · · ∧ en ) En conclusi´ on, el volumen del paralelep´ıpedo definido por los vectores e01 , · · · , e0n es | det(λij )| por el volumen del paralelep´ıpedo definido por los vectores e1 , . . . , en . Λn E ∗ = hF i. Al hablar de volumen hemos cometido un error. Debemos fijar una unidad de volumen. Debemos decir que cierto paralelep´ıpedo tiene volumen 1. Debemos fijar un generador de Λn E ∗ . A los vectores de Λn E ∗ se les llama formas de volumen.
1.5
M´ etricas
Uno de los conceptos dif´ıciles de definir en la ense˜ nanza b´asica es la noci´on de ´angulo. Se dice algo as´ı como que el ´ angulo entre dos semirectas concurrentes es (el ´area de) la regi´on que hay entre las dos rectas. ¿Qu´e es la regi´ on? Como se dice que una regi´ on es mayor que otra ¿es un n´ umero? ¡Pero la regi´ on es muy grande! Intentemos asignar a cada par de semirectas concurrentes un n´ umero: “Consideremos un vector de m´ odulo uno sobre cada semirecta. Midamos la longitud de la proyecci´on ortonormal de un vector de una recta en la otra. Esta medida, ´este n´ umero, nos dar´a una idea exacta del ´angulo. Esta asignaci´ on de un n´ umero a cada par de semirectas concurrentes, puede extenderse a una asignaci´ on de un n´ umero a cada par de vectores. En efecto, dados dos vectores e1 , e2 sean |e1 | y |e2 | sus m´ odulos y consideremos e01 = |ee11 | y e02 = |ee22 | . Sea N (e1 , e2 ) el n´ umero que se obtiene de 0 0 multiplicar la longitud de la proyecci´ on de e1 sobre e2 por |e1 | y |e2 |”. Resulta que N : E × E → R, (e1 , e2 ) 7→ N (e1 , e2 ) es una aplicaci´ on bilineal. En conclusi´on, la noci´on de ´angulo en un espacio eucl´ıdeo est´ a estrechamente relacionada con la noci´on de aplicaci´on bilineal. Veamos como a partir de una aplicaci´ on bilineal definimos lo que es espacio eucl´ıdeo, ´angulo y m´odulo.
1.5.
M´etricas
21
Sea E un k-espacio vectorial de dimensi´on finita. Sea e1 , . . . , en una base de E y w1 , . . . , wn ∈ E ∗ la base dual. Sabemos que Bilk (E × E, k) = E ∗ ⊗k E ∗ Una base de E ∗ ⊗k E ∗ es {wi ⊗ wj }. As´ı pues, dada una aplicaci´on bilineal T2 ∈ Bilk (E × E, k), P tendremos que T2 = λij wi ⊗ wj y i,j
T2 (e, e0 ) =
X
λij wi (e) · wj (e0 )
i,j
En particular, T2 (ei , ej ) = λij . P Por otra parte, E ∗ ⊗ E ∗ = Homk (E, E ∗ ). Expl´ıcitamente, dada T2 = λij wi ⊗ wj tenemos un i,j
morfismo, denominado la polaridad asociada a T2 y que denotamos tambi´en T2 , T2 : E → E ∗ definido por X T2 (e) := λij · wi (e) · wj ij
P En particular, T2 (ei ) = λij wj , luego la matriz de T2 es (λij ). Observemos que T2 (e)(e0 ) = T2 (e, e0 ). j
Rec´ıprocamente, dado una aplicaci´on lineal T2 : E → E ∗ , podemos definir una aplicaci´on bilineal que seguimos denotando T2 , T2 (e, e0 ) := T2 (e)(e0 ). 1. Definici´ on : Se dice que T2 es no singular si det(λij ) 6= 0, es decir, T2 : E → E ∗ es un isomorfismo. Si T2 : E → E ∗ es un isomorfismo, entonces T 2 := (T2 )−1 : E ∗ → E es un isomorfismo. Por tanto, ∗ ∗ ∗ T define una aplicaci´ on bilineal la matriz de T2 es (λij ) la matriz de T 2 P en E (pues E = (E ) 2). Si ij ij −1 es (λ ) := (λij ) . Si T2 = ij λij wi ⊗ wj , entonces T = λ ei ⊗ ej . Por u ´ltimo observemos que si w = T2 (e) y w0 = T2 (e0 ) entonces 2
T 2 (w, w0 ) = T 2 (w)(w0 ) = T 2 (T2 (e))(T2 (e0 )) = e(T2 (e0 )) = T2 (e0 )(e) = T2 (e0 , e) 2. Definici´ on : Se dice que T2 es una m´etrica sim´etrica si T2 (e, e0 ) = T2 (e0 , e), para todo e, e0 ∈ E. Si T2 es sim´etrica entonces λij = T2 (ei , ej ) = T2 (ej , ei ) = λji . Rec´ıprocamente, si λij = λji , para todo i, j, entonces T2 (e, e0 ) = T2 (e0 , e) para todo e, e0 ∈ E. Es decir, T2 es sim´etrica si y s´olo si la polaridad T2 coincide con su morfismo transpuesto T2∗ . Supongamos a partir de ahora que T2 es sim´etrica. Se dice que e es ortogonal a e0 (respecto de T2 ) si T2 (e, e0 ) = 0. Se dice que dos subespacios E 0 , E 00 de E son ortogonales si T2 (e0 , e00 ) = 0 para todo e0 ∈ E 0 y e00 ∈ E 00 . Se dice que E es la suma ortogonal de dos subespacios E 0 y E 00 si son ortogonales y E es la suma directa de los dos subespacios. En este caso escribiremos E = E 0 ⊥E 00 . Observemos que T2 (e01 + e001 , e02 + e002 ) = T2 (e01 , e02 ) + T2 (e001 , e002 ) para todo e01 , e02 ∈ E 0 y e001 , e002 ∈ E 00 . Si E 0 y E 00 son dos espacios vectoriales con sendas m´etricas T20 y T200 entonces podemos definir en E = E 0 ⊕ E 00 la m´etrica T2 (e0 + e00 , v 0 + v 00 ) := T20 (e0 , v 0 ) + T200 (e00 , v 00 ) Obviamente, E es la suma ortogonal de E 0 y E 00 .
22
´ Algebra Lineal Tensorial
Cap´ıtulo 1.
3. Definici´ on : Se denomina radical de T2 , que denotaremos Rad T2 , al n´ ucleo de la polaridad T2 , es decir, Rad T2 := {e ∈ E | T2 (e, e0 ) = 0 para todo e0 ∈ E} Si E 0 es cualquier subespacio suplementario de Rad T2 entonces E = Rad T2 ⊥E 0 . La restricci´on de T2 a Rad T2 es la m´etrica nula. La restricci´on de la m´etrica T2 a E 0 es no singular, porque dado e0 ∈ E 0 si T2 (e0 , v) = 0 para todo v ∈ E 0 , entonces T2 (e0 , e) = 0 para todo e ∈ E y tendr´ıamos que e0 ∈ Rad T2 y por tanto e0 = 0. En general, si E = E 0 ⊥E 00 entonces Rad T2 = Rad T2|E 0 ⊕ Rad T2|E 00 . Dado un subespacio V ⊆ E diremos que V ⊥ := {e ∈ E | T2 (v, e) = 0 para todo v ∈ V } es el espacio ortogonal de V . Dado un subespacio vectorial V ⊆ E diremos que V 0 := {w ∈ E ∗ | w(v) = 0 para todo v ∈ V } es el subespacio (de E ∗ ) incidente de V . Si tomamos una base {e1 , . . . , er } de V y la ampliamos a una base {e1 , . . . , en } de E y consideramos la base de E ∗ dual {w1 , . . . , wn } entonces {wr+1 , . . . , wn } es una base de V 0 . Por tanto, dim V 0 = dim E − dim V . V´ıa el teorema de reflexividad, dado W ⊂ E ∗ se tiene que W 0 = {e ∈ E | w(e) = 0 para todo w ∈ W }. Dado V ⊆ E se tiene que V ⊥ = {e ∈ E | 0 = T2 (v, e) = T2 (v)(e) para todo v ∈ V } = T2 (V )0 “Si dado un subespacio W ⊂ E ∗ pensamos de modo inmediato en W 0 , entonces podremos decir que la polaridad T2 aplica cada subespacio vectorial de E en su ortogonal´´ 4. Proposici´ on : Si T2 es una m´etrica sim´etrica no singular de un espacio vectorial de dimensi´ on finita E y V ⊆ E es un subespacio vectorial entonces dim V ⊥ = dim E −dim V . Adem´ as, (V ⊥ )⊥ = V . Demostraci´ on. dim V ⊥ = dim T2 (V )0 = dim E ∗ − dim T2 (V ) = dim E − dim V . ⊥ ⊥ (V ) = V . Si v 0 ∈ V ⊥ entonces T2 (v 0 , v) = 0 para todo v ∈ V . Por tanto, V ⊆ (V ⊥ )⊥ . Por otra parte, dim(V ⊥ )⊥ = dim E − dim V ⊥ = dim E − (dim E − dim V ) = dim V . Por dimensiones, (V ⊥ )⊥ = V . 5. Definici´ on : Se dice que una base {e1 , . . . , en } de E es ortonormal si T2 (ei , ej ) = 0 si i 6= j y T2 (ei , ei ) = ±1. 6. Teorema : Sea E un R-espacio vectorial de dimensi´ on finita y T2 una m´etrica sim´etrica no singular en E. Entonces existe una base ortonormal {e1 , . . . , en } de E, luego matriz asociada a T2 en esta base es ±1 0 0 0 ... 0 0
0
±1
Demostraci´ on. Veamos en primer lugar que si T2 (e, e) = 0 para todo e ∈ E entonces T2 = 0: Sean e, e0 ∈ E, 0 = T2 (e + e0 , e + e0 ) = T2 (e, e) + T2 (e, e0 ) + T2 (e0 , e) + T2 (e, e0 ) = 2T2 (e, e0 ), luego T2 = 0. Sea, pues, e ∈ E tal que T2 (e, e) 6= 0. Sea E 0 = hei⊥ . Se tiene que hei ∩ E 0 = 0, por tanto, por dimensiones, E = hei⊥E 0 . La restricci´on de T2 a E 0 es no singular, pues 0 = Rad T2 = Rad T2|hei ⊕ Rad T2|E 0 . Por inducci´ on sobre la dimensi´on, existe una base ortonormal {e2 , . . . , en } en E 0 . Si 1 · e tenemos que {e1 , . . . , en } es una base ortonormal de E. consideramos e1 = √ |T2 (e,e)|
7. Definici´ on : Se dice que E con la m´etrica sim´etrica T2 es un espacio eucl´ıdeo si T2 (e, e) > 0 para todo vector no nulo de E.
1.5.
M´etricas
23
En particular, en los espacios eucl´ıdeos, T2 es no singular. Reordenando la base, podemos suponer en el teorema anterior 1 r . .. 1 T2 ≡ −1 .. .
que
−1
Veamos que el n´ umero r no depende de la base escogida: para todo e ∈ E 0 = he1 , . . . , er i, no nulo, se tiene que T2 (e, e) > 0; del mismo modo para todo e ∈ E 00 = her+1 , . . . en i no nulo se cumple que T2 (e, e) < 0. Supongamos que existe un subespacio vectorial V tal que para todo v ∈ V no nulo T2 (v, v) > 0. Obviamente V ∩ E 00 = 0, luego dim V ≤ dim E − dim E 00 = dim E 0 = r. En conclusi´ on, r es la dimensi´ on m´ axima de los subespacios eucl´ıdeos de E. p 8. Definici´ on : Se define el m´ odulo de un vector e como |T2 (e, e)|. Supongamos que E es eucl´ıdeo, se define el ´ angulo entre dos vectores no nulos e, e0 como el n´ umero 0 ≤ α < π tal que cosα = T2 (e, e0 ). Por ejemplo, dos vectores (no nulos) son perpendiculares si y s´olo si el ´angulo entre ellos es π/2. Toda m´etrica en E extiende de modo natural a Λm E: Dar una m´etrica T2 en E, equivale a definir “la polaridad” T2 : E → E ∗ , T2 (e)(e0 ) := T2 (e, e0 ). La polaridad T2 define el morfismo, Λm T2 : Λm E → Λm E ∗ , e1 ∧ · · · ∧ em 7→ T2 (e1 ) ∧ · · · ∧ T2 (em ). Ahora bien, Λm E ∗ = (Λm E)∗ , luego tengo un morfismo Λm E → (Λm E)∗ , luego una m´etrica Λm T2 en Λm E definida por Λm T2 (e1 ∧ · · · ∧ em , e01 ∧ · · · ∧ e0m ) = (T2 (e1 ) ∧ · · · ∧ T2 (em ))(e01 ∧ · · · ∧ e0m ) X = signo(σ) · T2 (e1 )(e0σ(1) ) · · · T2 (em )(e0σ(m) ) σ∈Sm
=
X
signo(σ) · T2 (e1 , e0σ(1) ) · · · T2 (em , e0σ(m) )
σ∈Sm
Si T2 es una m´etrica sim´etrica en E, entonces Λm T2 tambi´en lo es, porque (Λm T2 )∗ = Λm T2∗ = Λ T2 . Si e1 , . . . , en es una base ortonormal de E entonces {ei1 ∧· · ·∧eim }i1 <···
Λn T2 (e1 ∧ · · · ∧ en , e1 ∧ · · · ∧ en ) = (T2 (e1 ) ∧ · · · ∧ T2 (en ))(e1 ∧ · · · ∧ en ) = det(λij ) · w1 ∧ · · · ∧ wn (e1 ∧ · · · ∧ en ) = det(λij ) As´ı pues, la coforma de volumen es √
1 | det(λij )|
· e1 ∧ · · · ∧ en . Igualmente, la forma de volumen es
1 wE = p · w1 ∧ · · · ∧ wn = | det(λij )|
q | det(λij )| · w1 ∧ · · · ∧ wn
24
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
Observemos que si e1 , . . . , en es una base ortonormal de E entonces wE = ± · w1 ∧ · · · ∧ wn y wE (e1 , . . . , en ) = ±1. Sea E un R-espacio vectorial eucl´ıdeo de dimensi´on 3 orientado. Sea w3 ∈ Λ3 E ∗ la u ´nica 3-forma que sobre una base ortonormal e1 , e2 , e3 positivamente orientada, vale w3 (e1 , e2 , e3 ) = 1. Es decir, si w1 , w2 , w3 es la base dual de e1 , e2 , e3 entonces w3 = w1 ∧ w2 ∧ w3 (que con la m´etrica inducida por la m´etrica de E ∗ , w3 es de m´ odulo 1 y w3 define la orientaci´on dada en E). Dados dos vectores v1 , v2 ∈ E, llamamos producto vectorial de v1 por v2 , que denotamos por v1 × v2 , al vector determinado por T2 (v1 × v2 , e) = w3 (v1 , v2 , e) Observemos que v1 × v2 es ortogonal a v1 y v2 . El producto vectorial, ×, es multilineal hemisim´etrico. Si v1 y v2 son linealmente independientes entonces v1 , v2 , v1 × v2 es una base positivamente orientada, pues 0 < λ = T2 (v1 × v2 , v1 × v2 ) = w3 (v1 , v2 , v1 × v2 ). Si v1 y v2 son ortogonales, entonces v1 ×v2 es el vector ortonormal a v1 y v2 , de m´odulo el producto de los m´odulos de v1 y v2 , de modo que v1 , v2 , v1 × v2 est´ an positivamente orientados: por la multilinealidad del producto vectorial podemos suponer que v1 y v2 son de m´ odulo 1. Sea v3 , tal que v1 , v2 , v3 sea una base ortonormal positivamente orientada. Entonces, e1 ∧ e2 ∧ e3 = v1 ∧ v2 ∧ v3 y T2 (v1 × v2 , v3 ) = w3 (v1 , v2 , v3 ) = w3 (e1 , e2 , e3 ) = 1. Por tanto, v1 × v2 = v3 y hemos terminado. P Observemos que si vi = λij ej , entonces T2 (v1 × v2 , v3 ) = det(λij ), pues v1 ∧ v2 ∧ v3 = det(λij ) · j
e1 ∧ e2 ∧ e3 y T2 (v1 × v2 , v3 ) = w3 (v1 , v2 , v3 ) = det(λij ).
1.6
Producto exterior y contracci´ on interior
Si un morfismo φ : E ⊗ E 0 → E 00 se anula sobre los elementos e ⊗ e0 para todo e ∈ V ⊂ E y e0 ∈ E 0 ¯ e ⊗ e0 ) := φ(e ⊗ e0 ). entonces factoriza v´ıa el morfismo φ¯ : (E/V ) ⊗ E 0 → E 00 , φ(¯ El morfismo composici´ on n
m
n+m
(E ⊗ · · · ⊗ E) ⊗ (E ⊗ · · · ⊗ E) = E ⊗ · · · ⊗ E → Λn+m E (e1 ⊗ · · · ⊗ en ) ⊗ (en+1 ⊗ · · · ⊗ en+m ) 7→ e1 ∧ · · · ∧ en+m factoriza v´ıa el morfismo, que llamaremos producto exterior de formas, Λn E ⊗ Λm E → Λn+m E, (e1 ∧ · · · ∧ en ) ⊗ (en+1 ∧ · · · ∧ en+m ) 7→ e1 ∧ · · · ∧ en+m . 1. Proposici´ on : El producto exterior de formas es asociativo: (Ωn ∧ Ωm ) ∧ Ωr = Ωn ∧ (Ωm ∧ Ωr ), con Ωi ∈ Λi E. El producto exterior de formas es anticonmutativo: Ωn ∧ Ωm = (−1)n·m Ωm ∧ Ωn , para toda Ωn ∈ Λn E y Ωm ∈ Λm E. Demostraci´ on. La asociatividad es clara, en cuanto a la anticonmutatividad digamos s´olo que (e1 ∧ · · · ∧ en ) ∧ (en+1 ∧ · · · ∧ en+m ) = (−1)n·m (en+1 ∧ · · · ∧ en+m ) ∧ (e1 ∧ · · · ∧ en )
Dado w ∈ E ∗ y E ⊗ E 0 consideremos el morfismo “de contracci´on interior por w en el primer n factor” i1w : E ⊗ E 0 → E 0 , i1w (e ⊗ e0 ) := w(e) · e0 . Por otra parte, sea en E ⊗ · · · ⊗ E X ˆiw : E ⊗ · n· · ⊗ E → E ⊗ n−1 · · · ⊗ E, ˆiw (e1 ⊗ · · · ⊗ en ) := (−1)i−1 · w(ei ) · e1 ⊗ · · · ⊗ eˆi ⊗ · · · ⊗ en i
1.6.
Producto exterior y contracci´on interior
25
que llamaremos contracci´ on interior hemisim´etrica, que es la suma de la contracci´on interior por w en cada factor afectada de un signo. n T E := k ⊕ E ⊕ (E ⊗ E) ⊕ · · · ⊕ (E ⊗ · · · ⊗ E) ⊗ . . ., con la suma, +, y con el producto, ⊗, se dice que es el ´ algebra tensorial asociada a E. ΛE := k ⊕ E ⊕ (Λ2 E) ⊕ · · · ⊕ (Λn E) ⊗ . . ., con la suma, +, y con el producto, ∧, se dice que es el ´algebra exterior asociada a E. El epimorfismo T E → ΛE, e1 ⊗ · · · ⊗ en 7→ e1 ∧ · · · ∧ en es un morfismo de ´algebras (= de anillos). 2. Proposici´ on : La contracci´ on interior hemisim´etrica es una antiderivaci´ on del ´ algebra tensorial, n m es decir, dadas Tn ∈ (E ⊗ · · · ⊗ E) y Tm ∈ (E ⊗ · · · ⊗ E), entonces ˆiw (Tn ⊗ Tm ) = (ˆiw Tn ) ⊗ Tm + (−1)n Tn ⊗ (ˆiw Tm ) Demostraci´ on. Basta demostrar la proposici´on para Tn = e1 ⊗ · · · ⊗ en y Tm = e01 ⊗ · · · ⊗ e0m . Ahora bien, la suma de las contracciones interiores por w en cada factor (afectado por un signo) es contraer primero en los n-primeros factores m´ as contraer despu´es en los u ´ltimos m factores. La cuesti´on del signo se la dejamos al lector. La contracci´ on interior hemisim´etrica en el ´algebra tensorial define por paso al cociente un aplicaci´on lineal que denominaremos “la contracci´on interior” en el ´algebra exterior. En efecto, si vi = vj (i < j) entonces ˆiw (v1 ⊗ · · · ⊗ vr ) = = (−1)i−1 w(vi ) · v1 ∧ · · · ∧ vˆi ∧ · · · ∧ vj ∧ · · · ∧ vr + (−1)j−1 w(vj ) · v1 ∧ · · · ∧ vi ∧ · · · ∧ vˆj ∧ · · · ∧ vr = ((−1)i−1 + (−1)j−1 · (−1)j−i−1 )w(vi )v1 ∧ · · · ∧ vˆi ∧ · · · ∧ vj ∧ · · · ∧ vr = 0 Tenemos pues el morfismo iw : Λr E → Λr−1 E,
iw (v1 ∧ · · · ∧ vr ) := ˆiw (v1 ⊗ · · · ⊗ vr ) =
X
(−1)i−1 w(vi ) · v1 ∧ · · · ∧ vˆi ∧ · · · ∧ vr
i
3. Corolario : La contracci´ on interior es una antiderivaci´ on del ´ algebra exterior, es decir, dadas Ωn ∈ Λn E y Ωm ∈ Λm E, entonces iw (Ωn ∧ Ωm ) = (iw Ωn ) ∧ Ωm + (−1)n Ωn ∧ (iw Ωm ) Las n-formas se identifican con las aplicaciones hemisim´etricas de orden n. Veamos qu´e es la contracci´ on interior por un vector de una aplicaci´on hemisim´etrica: Sea e ∈ E y Ωn = w1 ∧ · · · ∧ wn ∈ Λn E ∗ = Hemk (E × . n. . × E, k) entonces (ie1 Ωn )(e2 , . . . , en ) = (ie (w1 ∧ · · · ∧ wn ))(e2 , . . . , en ) X = ( (−1)i−1 wi (e1 )w1 ∧ · · · ∧ w ˆi ∧ · · · ∧ wn ))(e2 , . . . , en ) i 1
=
X X
(−1)i−1 signo(σ)w1 (eσ(2) ) · · · wi (e1 ) · · · wn (eσ(n) )
i σ∈Sn−1 2
= w1 ∧ · · · ∧ wn (e1 , e2 , . . . , en ) = Ωn (e1 , e2 , . . . , en ) 1
= Consideramos Sn−1 como el subgrupo de Sn formado por las permutaciones que dejan el 1 fijo.
26
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
2
= Si definimos τi ∈ Sn , la permutaci´on ` que transforma {1, . . . , n} en {2, . . . , i − 1, 1, i, . . . , n}, ` entonces signo(τ ) = (−1)i−1 y Sn = Sn−1 · τ1 · · · Sn−1 · τn (porque Sn−1 · τi son las permutaciones que transforman el 1 en el i). Para los ejercicios que siguen observemos que dado un subespacio vectorial V ⊆ E, tomando duales tenemos el morfismo “de restricci´on” E ∗ → V ∗ , w 7→ w|V (w|V (v) := w(v), para toda v ∈ V ), tenemos pues morfismos Λi E ∗ → Λi V ∗ , w1 ∧ · · · ∧ wi 7→ (w1 ∧ · · · ∧ wi )|V := w1|V ∧ · · · ∧ wi|V . 4. Ejercicio : Sea E un espacio eucl´ıdeo orientado de dimensi´on n y E 0 ⊆ E un hiperplano. Sea N un vector normal a E 0 de m´ odulo 1. Sea wE la forma de volumen de E. 1. Probar que iN wE restringida a E 0 es igual a la forma de volumen wE 0 de E 0 que lo orienta, de modo que si e2 , . . . , en es una base positivamente orientada de E 0 entonces N, e2 , . . . , en es una base positivamente orientada de E. 2. Dado e ∈ E, (ie wE )|E 0 = T2 (e, N ) · wE 0 . 5. Ejercicio : Sea (E, T2 ) un espacio vectorial eucl´ıdeo y R ⊂ E un subespacio vectorial de dimensi´on 1. Sea r un vector de R de m´ odulo 1 que oriente a R y sea wR la forma de “longitud” de R. Dado e ∈ E probar que (ie T2 )|R = T2 (e, r) · wR .
1.7
´ Algebra tensorial sim´ etrica
“Queremos definir ahora un producto conmutativo, con las propiedades multilineales de ⊗”. n Sea V el k-subespacio vectorial de E ⊗ · · · ⊗ E, generado por los vectores j
j
e1 ⊗ · · · ⊗ ej ⊗ · · · ⊗ ek ⊗ · · · ⊗ en − e1 ⊗ · · · ⊗ ek ⊗ · · · ⊗ ej ⊗ · · · ⊗ en variando ei , j, k. 1. Definici´ on : Llamaremos ´ algebra exterior n de E, que denotaremos por S n E, a n
S n E := (E ⊗k · · · ⊗ E)/V n
2. Notaci´ on: Denotaremos e1 ⊗ · · · ⊗ en ∈ (E ⊗k · · · ⊗ E)/V = S n E por e1 · · · en . Observemos que · adem´ as de las propiedades multilineales heredadas de ⊗, cumple que e1 · · · en = eσ(1) · · · eσ(n) para todo σ ∈ Sn . n
3. Como S n E = (E ⊗ · · · ⊗ E)/V , dar un morfismo lineal φ : S n E → F equivale a dar un morfismo n E ⊗ · · · ⊗ E → F que se anule en V , es decir, equivale a definir φ(e1 · · · en ) (para todo e1 , . . . , en ∈ E) que sea k-lineal en cada factor y de modo que φ(e1 · · · en ) = φ(eσ(1) · · · eσ(n) ) para todo σ ∈ Sn . Es decir, n
Homk (S n E, F ) = {T ∈ M ultk (E × · · · × E, F ) | T (e1 , · · · , en ) = T (eσ(1) , · · · , eσ(n) ), ∀σ ∈ Sn } n
= Aplic. n-mult. sim´etricas de E en F =: Simk (E × · · · × E, F ) 4. Teorema : Sea E un espacio de base {e1 , . . . , en }. Entonces {ei1 · · · eir }1≤i1 ≤···≤ir ≤n es una base de S r E.
´ Algebra tensorial sim´etrica
1.7.
27 r
Demostraci´ on. Sabemos que {ei1 ⊗· · ·⊗eir }1≤ij ≤n es una base de E ⊗ · · ·⊗E. Por tanto, tomando clases tenemos que {ei1 · · · eir }1≤ij ≤n es un sistema generador de S r E. Como ei1 · · · eir = eiσ(1) · · · eiσ(r) para todo σ ∈ Sr , tendremos que {ei1 · · · eir }1≤i1 ≤···≤ir ≤n es un sistema generador de S r E. P λi1 ,...,ir ei1 · · · eir = 0. Nos falta probar que son linealmente independientes. Sea t = 1≤i1 ≤···≤ir ≤n
Sea {w1 , . . . , wn } la base dual de {e1 , . . . , en }. Dado i1 ≤ · · · ≤ ir sea J el conjunto de todas las P combinaciones con repetici´ on de este conjunto y w = wj1 ⊗ · · · ⊗ wjr ∈ Homk (S r E, k). {j1 ,...,jr }∈J
Entonces, λi1 ,...,ir = w(t) = 0
n
Sn opera de modo natural en E ⊗ · · · ⊗ E permutando los factores: dada σ ∈ Sn y e1 ⊗ · · · ⊗ en , σ(e1 ⊗ · · · ⊗ en ) := eσ(1) ⊗ · · · ⊗ eσ(n) . Sea n
n
(E ⊗ · · · ⊗ E)Sn := {T ∈ E ⊗ · · · ⊗ E | σ(T ) = T para todo σ ∈ Sn } El morfismo composici´ on n
m
n+m
(E ⊗ · · · ⊗ E) ⊗ (E ⊗ · · · ⊗ E) = E ⊗ · · · ⊗ E → S n+m E (e1 ⊗ · · · ⊗ en ) ⊗ (en+1 ⊗ · · · ⊗ en+m ) 7→ e1 · · · en+m factoriza v´ıa el morfismo, que llamaremos producto sim´etrico de tensores sim´etricos, S n E ⊗ S m E → S n+m E, (e1 · · · en ) ⊗ (en+1 · · · en+m ) 7→ e1 · · · en+m =: (e1 · · · en ) · (en+1 · · · en+m ). 5. Proposici´ on : El producto sim´etrico de tensores sim´etricos es asociativo: (Tn · Tm ) · Tr = Tn · (Tm · Tr ), con Ti ∈ S i E. El producto sim´etrico de tensores sim´etricos es conmutativo: Tn ·Tm = Tm ·Tn , para toda Tn ∈ S n E y Tm ∈ S m E. S · E := k ⊕ E ⊕ (S 2 E) ⊕ · · · ⊕ (S n E) ⊗ . . ., con la suma, +, y con el producto, ·, se dice que es el ´algebra sim´etrica asociada a E. El epimorfismo T E → S · E, e ⊗ · · · ⊗ e 7→ e · · · e es un morfismo 1
n
1
n
de a´lgebras (= de anillos). Denotaremos S 0 E = k y S 1 E = E. Sea w ∈ E ∗ , llamaremos al morfismo ˜iw : E ⊗ · n· · ⊗ E → E ⊗ n−1 · · · ⊗ E, ˜iw (e1 ⊗ · · · ⊗ en ) :=
X
w(ei ) · e1 ⊗ · · · ⊗ eˆi ⊗ · · · ⊗ en
i
contracci´ on interior sim´etrica, que es la suma de la contracci´on interior por w en cada factor. 6. Proposici´ on : La contracci´ on interior sim´etrica es una derivaci´ on del ´ algebra tensorial, es decir, n m dadas Tn ∈ (E ⊗ · · · ⊗ E) y Tm ∈ (E ⊗ · · · ⊗ E), entonces ˜iw (Tn ⊗ Tm ) = (˜iw Tn ) ⊗ Tm + Tn ⊗ (˜iw Tm ) Demostraci´ on. Basta demostrar la proposici´on para Tn = e1 ⊗ · · · ⊗ en y Tm = e01 ⊗ · · · ⊗ e0m . Ahora bien, la suma de las contracciones interiores por w en cada factor es contraer primero en los n-primeros factores m´ as contraer despu´es en los u ´ltimos m factores.
28
´ Algebra Lineal Tensorial
Cap´ıtulo 1.
La contracci´ on interior sim´etrica en el ´algebra tensorial define por paso al cociente un aplicaci´on lineal que denominaremos “la contracci´on interior” en el ´algebra sim´etrica. En efecto, el morfismo iw : S r E → S r−1 E,
iw (v1 · · · vr ) :=
X
w(vi ) · v1 · · · vˆi · · · vr
i
est´a bien definido. 7. Corolario : La contracci´ on interior es una derivaci´ on del ´ algebra sim´etrica, es decir, dadas Tn ∈ S n E y Tm ∈ S m E, entonces iw (Tn · Tm ) = (iw Tn ) · Tm + Tn · (iw Tm ) n
Sea E un espacio vectorial de dimensi´on finita. V´ıa el isomorfismo lineal E ⊗ · · ·⊗E ' M ultk (E ∗ × n n n · · · × E ∗ , k), tenemos que (E ⊗ · · · ⊗ E)Sn = Simk (E ∗ × · · · × E ∗ , k). 8. Proposici´ on : Supongamos que la caracter´ıstica de k es primo con n!. El morfismo S : S n E → P n n E ⊗ · · · ⊗ E, S(e1 · · · en ) = σ∈Sn eσ(1) · · · eσ(n) establece un isomorfismo entre S n E y (E ⊗ · · · ⊗ E)Sn (cuyo morfismo inverso es precisamente de paso a cociente).
1 n!
n
· π, donde π : E ⊗ · · · ⊗ E → S n E es el morfismo natural
Demostraci´ on. Es una comprobaci´ on inmediata. En caracter´ıstica cero, los tensores sim´etricos de orden n se identifican con las aplicaciones sim´etricas de orden n. Veamos qu´e es la contracci´on interior por un vector de una aplicaci´on sim´etrica: Sea e ∈ E y Tn = w1 · · · wn ∈ S n E ∗ = Simk (E × . n. . × E, k) entonces (ie1 Tn )(e2 , . . . , en ) = (ie (w1 · · · wn ))(e2 , . . . , en ) X = ( wi (e1 ) · w1 · · · w ˆi · · · wn )(e2 , . . . , en ) i 1
=
X X
w1 (eσ(2) ) · · · wi (e1 ) · · · wn (eσ(n) )
i σ∈Sn−1 2
= w1 · · · wn (e1 , e2 , . . . , en ) = Tn (e1 , e2 , . . . , en ) 1
= Consideramos Sn−1 como el subgrupo de Sn formado por las permutaciones que dejan el 1 fijo. 2 = Si definimos τi ∈` Sn , la ` permutaci´on que transforma {1, . . . , n} en {2, . . . , i − 1, 1, i, . . . , n}, entonces Sn = Sn−1 · τ1 · · · Sn−1 · τn (porque Sn−1 · τi son las permutaciones que transforman el 1 en el i).
1.8
M´ odulo de diferenciales. Derivaciones
Sea k un cuerpo, A un anillo y k ,→ A un morfismo de anillos (en este caso se dice que A es una k-´algebra y escribiremos λ 7→ λ). Sea E el A-m´odulo libre de base {db, para todo b ∈ A}, es decir, P E son las sumas formales finitas ab db (ab ∈ A y casi todos nulos). Sea E 0 el A-subm´odulo de E b∈B
generado por los elementos d(b + b0 ) − db − db0 , d(λb) − λdb y d(bb0 ) − b0 db − bdb0 (para todo b, b0 ∈ A y λ ∈ k).
1.8.
M´ odulo de diferenciales. Derivaciones
29
1. Definici´ on : Llamaremos A-m´ odulo de diferenciales de Kahler de A sobre k, que denotaremos por ΩA/k , a ΩA/k := E/E 0 2. Notaci´ on:: Denotaremos adb por adb. Observemos que d(b + b0 ) = db + db0 , dλb = λdb y d(bb0 ) = b0 db + bdb0 . Dar un morfismo de A-m´ odulos φ : ΩA/k → M , equivale a dar un morfismo de A-m´odulos E → M , que se anule sobre E 0 , es decir, equivale a dar φ(db), para todo b ∈ A, de modo que φ(d(b + b0 )) = φ(db) + φ(db0 ), φ(dλb)) = λφ(db) y φ(dbb0 ) = b0 φ(db) + bφ(db0 ). 3. Definici´ on : Sea A una k-´ algebra y M un A-m´odulo. Diremos que una aplicaci´on D : A → M es una k-derivaci´ on si verifica las siguientes condiciones: 1. D es un morfismo de k-m´ odulos. 2. D(ab) = bD(a) + aD(b) para todo a, b ∈ B. Observemos que D(1) = D(1 · 1) = 1D(1) + 1D(1) = 2D(1), luego D(1) = 0. Adem´as, dado λ ∈ k, D(λ) = λD(1) = 0. El conjunto de todas las k-derivaciones de A en M se denota por Derk (A, M ). Si definimos (D + D0 )(a) := D(a) + D0 (a)
(aD)(b) := aDb
tenemos que el conjunto de todas las k-derivaciones de A en M tiene estructura de A-m´odulo. 4. Proposici´ on : Sea A una k-´ algebra y M un A-m´ odulo. Se cumple que HomA (ΩA/k , M ) = Derk (A, M ) Demostraci´ on. Dado un morfismo de A-m´odulos T : ΩA/k → M consideremos la derivaci´on DT : A → M , DT (a) := T (da). Rec´ıprocamente, dada una derivaci´on D : A → M , consideremos el morfismo de A-m´odulos TD : ΩA/k → M , TD (db) = Db. Las asignaciones D TD , T DT son inversas entre s´ı. El morfismo natural d : A → ΩA/k , a 7→ da, es una derivaci´on, es decir, verifica que d(a + a0 ) = da + da0 , d(ab) = adb + bda. Adem´ as d se anula sobre k. Sea A = k[x1 , . . . , xn ] el anillo de polinomios y M un A-m´odulo. Si una k-derivaci´on D : k[x1 , . . . , xn ] → M se anula sobre los xi entonces D = 0: Por linealidad basta probar que es nula sobre los monomios xα y para ello procedamos por inducci´ on sobre |α| = α1 + . . . + αn . Supongamos α1 6= 0, sea β, tal que β1 = α1 −1 y βi = αi , para i > 1 (luego |β| < |α|), entonces D(xα ) = D(x1 ·xβ ) = xβ ·Dx1 +x1 ·Dxβ = 0 + 0 = 0. ∂ ∂ Dado m ∈ M , sea m ∂x la derivaci´ on definida por m ∂x (p(x)) := ∂p(x) on D ∂xi ·m. Dada una derivaci´ i i P ∂ entonces D = (Dxi ) · ∂xi , pues la diferencia entre los dos t´erminos de la igualdad es una derivaci´on i
que se anula en todos los xi . Ahora ya es claro el teorema siguiente. ∂ ⊕ · · · ⊕ M ∂x∂n . 5. Teorema : Derk (k[x1 , . . . , xn ], M ) = M ∂x 1
6. Corolario : Ωk[x1 ,...,xn ]/k = k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn .
30
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
P ∂ Demostraci´ on. La diferencial d : k[x1 , . . . , xn ] → Ωk[x1 ,...,xn ]/k es una derivaci´on, luego d = i dxi · ∂x i P ∂p(x) por el teorema anterior y dp(x) = · dx . Por tanto, dx , . . . dx es un sistema generador de i 1 n ∂xi i
Ωk[x1 ,...,xn ]/k . Por otra parte, el morfismo Ωk[x1 ,...,xn ]/k → k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn , P dp(x) 7→ ∂p(x) a bien definido, lo que muestra que dx1 , . . . dxn es una base. ∂xi · dxi , est´ i
Otro m´etodo de demostraci´ on est´ andar en Matem´aticas, que esencialmente hemos seguido, dice: de la igualdad (funtorial) para todo M , de los dos extremos de las igualdades, ∂ ∂ ⊕ ··· ⊕ M ∂x1 ∂xn = Homk[x1 ,...,xn ] (k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn , M )
Homk[x1 ,...,xn ] (Ωk[x1 ,...,xn ]/k , M ) = Derk[x1 ,...,xn ] (k[x1 , . . . , xn ], M ) = M
se deduce que Ωk[x1 ,...,xn ]/k = k[x1 , . . . , xn ]dx1 ⊕ · · · ⊕ k[x1 , . . . , xn ]dxn . Sea mα ⊂ A un ideal maximal tal que A/mα = k como k-´algebras. Dado a ∈ A, denotemos a(α) = a ¯ ∈ k = A/mα . La aplicaci´ on dα : A → mα /m2α ,
dα a := a − a(α)
es una k-derivaci´ on: Observemos que mα /m2α es un A-m´odulo, a · m ¯ := am = a(α) · m ¯ (porque (a − a(α)) · m ∈ m2α ). Ahora ya, dα (a · b) = a · b − a(α) · b(α) = a · (b − b(α)) + b(α) · (a − a(α)) = a(α) · dα b + b(α) · dα a Dado un A-m´ odulo M , denotemos M (α) = M/mα · M . 7. Teorema : ΩA/k (α) = mα /m2α . Demostraci´ on. El morfismo ΩA/k (α) → mα /m2α , adb 7→ a(α)dα b est´a bien definido y el morfismo inverso es mα /m2α → ΩA/k (α), ¯b 7→ db. Dado α ∈ k n , el n´ ucleo del morfismo k[x1 , . . . , xn ] → k, p(x1 , . . . , xn ) 7→ p(α), es el ideal maximal mα = (x1 − α1 , . . . , xn − αn ). El morfismo natural, Ωk[x1 ,...,xn ]/k (α) = mα /m2α , asigna dp 7→ dα p = P ∂p P ∂p p(x) − p(α). Como dp = i ∂x dxi entonces dα p = i ∂x (α) · dα xi . i i Si M es un A-m´ odulo e I ⊂ A un ideal entonces ΛrA M/I · ΛrA M = ΛA/I (M/I · M ), pues los morfismos m1 ∧ · · · ∧ mr 7→ m ¯1 ∧ ··· ∧ m ¯ r, m ¯1 ∧ ··· ∧ m ¯ r 7→ m1 ∧ · · · ∧ mr son inversos entre s´ı. Por lo tanto, (ΛrA ΩA/k )(α) = Λrk mα /m2α Si N es un A-m´ odulo anulado por un ideal I, en particular es un A/I-m´odulo, a ¯ · n := a · n. Rec´ıprocamente, si N es un A/I-m´ odulo es en particular un A-m´odulo a · n := ¯·n. Si N 0 es otro A/Im´odulo entonces HomA (N, N 0 ) = HomA/I (N, N 0 ). Si M y N son A-m´odulos y N es un A-m´odulo anulado por un ideal I, entonces todo morfismo de A-m´odulos f : M → N se anula en I · M , luego podemos definir f¯: M/I · M → N , m ¯ 7→ f (m) y f = f¯ ◦ π, donde π : M → M/I · M , π(m) := m. ¯ Tenemos HomA (M, N ) = HomA (M/I · M, N ), f 7→ f¯. 8. Teorema : Sea N un A-m´ odulo anulado por mα (es decir, un A/mα -m´ odulo). Entonces, Homk (mα /m2α , N ) = Derk (A, N )
1.9.
Diferencial, contracci´on por un campo, derivada de Lie
31
Demostraci´ on. Homk (mα /m2α , N ) = HomA (mα /m2α , N ) = HomA (ΩA/k (α), N ) = HomA (ΩA/k , N ) = Derk (A, N ). Expl´ıcitamente, dado f : mα /m2α → N tenemos f ◦ dα : A → N ; dado D : A → N , tenemos mα /m2α → N , dα b 7→ Db.
1.9
Diferencial, contracci´ on por un campo, derivada de Lie
1. Teorema : El morfismo natural d : A → ΩA/k extiende de modo u ´nico a una antiderivaci´ on de grado 1 del ´ algebra exterior de ΩA/k de cuadrado nulo, es decir, existen morfismos u ´nicos di : Λi ΩA/k → Λi+1 ΩA/k , de modo que d0 = d, di+1 ◦ di = 0 y dn+m (Ωn ∧ Ωm ) = (dn Ωn ) ∧ Ωm + (−1)n Ωn ∧ (dm Ωm ) Demostraci´ on. Estamos obligados a definir d1 : ΩA/k → Λ2 ΩA/k , adb 7→ da ∧ db (que est´a bien P definida) y en general dn (w1 ∧ · · · ∧ wn ) := (−1)i−1 · w1 ∧ · · · ∧ d1 (wi ) ∧ · · · wn . i
Obs´ervese que dn (adb1 ∧ · · · ∧ dbn ) = da ∧ db1 ∧ · · · ∧ dbn , luego di+1 ◦ di = 0. 2. Notaci´ on: Denotaremos dn = d, si no induce a equivocaci´ on, Ωi = Λi ΩA/k , siendo Ω0 = A. ∞ Denotaremos Ω· = ⊕ Ωi . Ω· , con el producto exterior es un ´ algebra “anticonmutativa”. i=0
3. Proposici´ on : Sea D ∈ Derk (A, A) = HomA (ΩA/k , A). Entonces DL := iD ◦ d + d ◦ iD es una derivaci´ on de grado cero de Ω· , que sobre A es D (sobrentendemos que iD sobre A es nulo). Demostraci´ on. Por ser iD y d antiderivaciones de grado −1 y 1 respectivamente entonces DL es una derivaci´on de grado cero (compru´ebese). 4. Proposici´ on : D L ◦ d = d ◦ D L . Demostraci´ on. DL ◦ d = (iD ◦ d + d ◦ iD ) ◦ d = d ◦ iD ◦ d. d ◦ DL = d ◦ (iD ◦ d + d ◦ iD ) = d ◦ iD ◦ d. Por tanto, DL (adb1 ∧ · · · ∧ dbn ) = Da · db1 ∧ · · · ∧ dbn +
P adb1 ∧ · · · ∧ d(Dbi ) ∧ · · · ∧ dbn . i
Dadas D, D0 ∈ Derk (A, A), definamos [D, D0 ] := D ◦ D0 − D0 ◦ D que resulta ser una derivaci´on de A. Por otra parte, la derivaci´on DL sobre ΩA/k induce de modo natural una derivaci´ on, denot´emosla tambi´en DL , sobre Derk (A, A) = HomA (ΩA/k , A): Dada D0 definimos DL D como sigue, ∗ (DL D0 )(w) := D(w(D0 )) − (DL w)(D0 ), para cada w ∈ ΩA/k . Se cumple que DL D0 = [D, D0 ]: basta comprobar la igualdad para w = db, [D, D0 ](db) = (D ◦ D0 − D0 ◦ D)(b) (DL D0 )(db) = D(db(D0 )) − (DL (db))(D0 ) = D(D0 b) − (dDb)(D0 ) = D(D0 b) − D0 (Db) De hecho, podr´ıamos haber definido DL D0 := [D, D0 ], despu´es podr´ıamos haber definido DL w, para toda w ∈ ΩA/k (suponiendo que ΩA/k = Derk (A, A)∗ ) y despu´es podr´ıamos haber extendido DL como antiderivaci´ on sobre el ´ algebra exterior de ΩA/k . Por u ´ltimo, nos quedar´ıa probar que DL = iD ◦ d + d ◦ iD .
32
Cap´ıtulo 1.
´ Algebra Lineal Tensorial
5. Proposici´ on : Sean D, D0 ∈ Derk (A, A) dos derivaciones. Entonces DL ◦ iD0 − iD0 ◦ DL = i[D,D0 ] Demostraci´ on. Por ser DL una derivaci´on de grado cero y iD0 una antiderivaci´on de grado −1. enL tonces D ◦ iD0 − iD0 ◦ DL es una antiderivaci´on de grado −1, que estar´a determinada por lo que vale ∗ sobre ΩA/k , que es i[D,D0 ] , por =. 6. F´ ormula de Cartan : Dada w ∈ ΩA/k entonces dw(D, D0 ) = D(w(D0 )) − D0 (w(D)) − w([D, D0 ]) Demostraci´ on. dw(D, D0 ) = iD0 (iD dw) = iD0 ((DL − d ◦ iD )(w)) = (DL ◦ iD0 − i[D,D0 ] )w − D0 w(D) = 0 D(w(D )) − w([D, D0 ]) − D0 w(D).
1.10
C´ alculo valorado
1. Definici´ on : Una aplicaci´ on d : M → M ⊗A ΩA/k diremos que es una diferencial en M , si 1. d(m + m0 ) = dm + dm0 . 2. d(am) = adm + m ⊗ da. La diferencial d : M → M ⊗ ΩA/k extiende a M ⊗ Ω·A/k : d(m ⊗ Ωi ) := dm ∧ Ωi + m ⊗ dΩi P P (observemos que dm = mj ⊗ wj , con wj ∈ ΩA/k y denotamos dm ∧ ωi = mj ⊗ wj ∧ Ωi ). Los j
j
elementos de M ⊗ Ωi los llamaremos i-formas valoradas en M . Dada otra diferencial d : M 0 → M 0 ⊗ΩA/k , tenemos la diferencial d : M ⊗A M 0 → M ⊗A M 0 ⊗A ΩA/k , d(m⊗m0 ) := dm⊗m0 +m⊗dm0 (reordenando en el primer sumando los factores del producto tensorial para que todo tenga sentido). Dadas m ⊗ Ωi ∈ M ⊗ Ωi y m0 ⊗ Ωj denotemos (m ⊗ Ωi ) ∧ (m0 ⊗ Ωj ) := m ⊗ m0 ⊗ Ωi ∧ Ωj ∈ M ⊗ M 0 ⊗ Ωi+j . Tenemos un morfismo (M ⊗ Ω· ) ⊗ (M 0 ⊗ Ω· ) → M ⊗ M 0 ⊗ Ω· wi ⊗ wj 7→ wi ∧ wj ∧
Se cumple que d(wi ∧ wj ) = dwi ∧ wj + (−1)i wi ∧ dwj . Dado D ∈ Derk (A, A), sea iD : M ⊗ Ω· → M ⊗ Ω· , iD (m ⊗ Ωi ) = m ⊗ iD Ωi . Obviamente, iD (wi ∧ wj ) = iD wi ∧ wj + (−1)i wi ∧ iD wj . Definamos DL := iD ◦ d + d ◦ iD , que resulta ser una derivaci´on, es decir DL (wi ∧ wj ) = DL wi ∧ wj + wi ∧ DL wj Denotaremos DL m = iD dm =: D∇ m. Es sencillo comprobar que DL ◦ iD0 − iD0 ◦ DL = i[D,D0 ] Dada una 1-forma valorada w ∈ M ⊗ Ω, tenemos que dw(D1 , D2 ) = iD2 (iD1 dw) = iD2 (−d(w(D1 )) + D1L w) = −D2∇ (w(D1 )) + D1∇ (w(D2 )) − w([D1 , D2 ])
1.10.
C´alculo valorado
33
2. Definici´ on : Una conexi´ on ∇ en un A-m´odulo M es una aplicaci´on Derk (A, A) × M → M , donde seguimos la notaci´ on (D, m) 7→ D∇ m, cumpliendo ∇
1. (D + D0 )∇ m = (D∇ m) + (D0 m). 2. (aD)∇ m = a(D∇ m). 3. D∇ (am) = (Da) · m + aD∇ m. 4. D∇ (m + m0 ) = D∇ m + D∇ m0 . Para todo a ∈ A, m, m0 ∈ M , D, D0 ∈ Derk (A, A). Toda diferencial d : M → M ⊗A ΩA/k , define la conexi´on ∇ dada por D∇ m := iD (dm), que cumple que D∇ (am) = iD (d(am)) = iD (m ⊗ da + adm) = (Da)m + aiD dm = (Da)m + aD∇ m y las dem´as propiedades exigidas a las conexiones. A partir de ahora supondremos que ΩA/k es un A-m´ odulo libre finito generado Derk (A, A) es un A-m´ odulo libre finito generado y ΩA/k y Derk (A, A) son duales entre s´ı. Adem´as, M ⊗A ΩA/k = HomA (Derk (A, A), M ), m ⊗ w pensado en HomA (Derk (A, A), M ) es la aplicaci´on lineal (m ⊗ w)(D) := w(D)m. 3. Proposici´ on : Supongamos que ΩA/k es un A-m´ odulo libre finito generado. Existe una correspondencia biun´ıvoca entre conexiones en M y diferenciales de M . Demostraci´ on. A cada diferencial le hemos asignado ya una conexi´on lineal. Rec´ıprocamente, dada la conexi´on ∇ sea d(m), tal que dm(D) = D∇ m. Si tenemos dos m´ odulos M, N con sendas diferenciales, podemos definir una diferencial en HomA (M, N ): d : HomA (M, N ) → HomA (M, N ) ⊗ ΩA/k = HomA (M, N ⊗ ΩA/k ) d(T )(m) := d(T (m)) − (T ⊗ 1)(dm). Como sabemos esta diferencial extiende a HomA (M, N ) ⊗ Ω· . Se cumple que dado T ∈ HomA (M, N ) ⊗ Ωn = HomA (M, N ⊗ Ωn ) su diferencial como elemento de HomA (M, N ) ⊗ Ω· coincide con la diferencial de T pensado como elemento de HomA (M, N ⊗ Ωn ). Un morfismo T : M → N de A-m´ odulos diremos que es diferencial si dT = 0, es decir, d ◦ T = T ◦ d. Si el morfismo T es diferencial, entonces T : M ⊗ Ω· → M 0 ⊗ Ω· conmuta con d, iD , DL y (T ⊗ T )(w ∧ w0 ) = T (w) ∧ T (w0 ). El morfismo HomA (M, N ) ⊗ M → N , φ ⊗ m 7→ φ(m), resulta ser diferencial. Cuando tengamos una n-forma wn valorada en HomA (M, N ) y otra m-forma wm valorada en N , entendemos v´ıa este morfismo que wn ∧ wm es una n + m-forma valorada en N . 4. Definici´ on : El morfismo A-lineal d2 : M → M ⊗ Ω2 diremos que es el tensor de curvatura. 5. Proposici´ on : d2 (m)(D1 , D2 ) = D1∇ D2∇ m − D2∇ D1∇ m − [D1 , D2 ]∇ m. Demostraci´ on. iD2 (iD1 d2 m) = iD2 (D1L dm−diD1 dm) = D1L (iD2 (dm))−dm([D1 , D2 ])−(dD1∇ m)(D2 ) = ∇ ∇ D1 D2 m − D2∇ D1∇ m − [D1 , D2 ]∇ m. Si ΩA/k es un A-m´ odulo libre finito generado, entonces HomA (M, M ⊗ Ω2 ) = EndA M ⊗ Ω2 . Denotar´e por R ∈ EndA (M ) ⊗ Ω2 al tensor correspondiente a d2 . Observemos que R(D1 , D2 , m) = D1∇ D2∇ m − D2∇ D1∇ m − [D1 , D2 ]∇ m. 6. Proposici´ on : Dada w ∈ M ⊗ Ωi , entonces d2 w = R ∧ w
34
´ Algebra Lineal Tensorial
Cap´ıtulo 1.
Demostraci´ on. Escribamos w = m ⊗ Ωi . Entonces, d2 (m ⊗ Ωi ) = d(dm ⊗ Ωi + m ⊗ dΩi ) = d2 m ⊗ Ωi − dm ⊗ dΩi + dm ⊗ dΩi + m ⊗ d2 Ωi ) = d2 m ⊗ Ωi = R ∧ w. 7. Identidad diferencial de Bianchi : dR = 0. d2
Demostraci´ on. La diferencial del morfismo M → M ⊗ Ω2 es nula ya que el cuadrado / M ⊗ Ω2
d2
M d
d 2
M ⊗Ω
d
/ M ⊗ Ω3
es conmutativo. 8. Definici´ on : Una conexi´ on sobre M = Derk (A, A) se llama conexi´on lineal. Supongamos que ΩA/k es un A-m´ odulo libre finito generado y que tenemos una conexi´on lineal. Pensemos Id ∈ HomA (ΩA/k , ΩA/k ) = Derk (A, A) ⊗ Ω como una 1-forma valorada (no como endomorfismo). Denotemos d Id = Tor∇ ∈ Derk (A, A) ⊗ Ω2 y calculemos Tor∇ (D1 , D2 ) = D1∇ (Id(D2 )) − D2 (Id(D1 )) − Id([D1 , D2 ]) = D1∇ D2 − D2∇ D1 − [D1 , D2 ] Supongamos que ∇ es una conexi´ on lineal sim´etrica, es decir, Tor∇ = 0. Entonces, 0 = d2 (Id) = R ∧ Id. 9. Identidad lineal de Bianchi : Si ∇ es una conexi´ on lineal sim´etrica entonces R ∧ Id = 0 Interpretemos esta igualdad: 0 = R ∧ Id(D1 , D2 , D3 ) = (iD1 (R ∧ Id))(D2 , D3 ) = (iD1 R) ∧ Id +R ∧ iD1 Id)(D2 , D3 ) = R(D1 , D2 )(Id(D3 )) − R(D1 , D3 )(Id(D2 )) + R(D2 , D3 )(Id(D1 )). Luego, R(D1 , D2 )(D3 ) + R(D3 , D1 )(D2 ) + R(D2 , D3 )(D1 ) = 0 10. Proposici´ on : Sea ∇ una conexi´ on lineal, d : Ω → Ω ⊗ Ω la diferencial definida por ∇ y π : Ω ⊗ Ω → Ω2 el morfismo natural de paso al cociente. Sea dC la diferencial de Cartan. Se cumple que π ◦ d − dC = Tor∇ ∈ Derk (A, A) ⊗ Ω2 Una conexi´ on lineal es sim´etrica si y s´ olo si π ◦ d = dC Demostraci´ on. π(d(w))(D1 , D2 ) = D1∇ w(D2 ) − D2∇ w(D1 ) = D1 (w(D2 )) − w(D1∇ D2 ) − D2 (w(D1 )) + ∇ w(D2 D1 ). Por la f´ ormula de Cartan, dC (w)(D1 , D2 ) = D1 (w(D2 )) − D2 (w(D1 )) − w([D1 , D2 ]). Por tanto, (π ◦ d − dC )(w, D1 , D2 ) = Tor∇ (w, D1 , D2 ). 0
Si definimos D∇ D0 = D∇ D − 21 Tor∇ (D, D0 ), se tiene que ∇0 es sim´etrica. Consideremos los morfismos can´ onicos π1 : Ω ⊗ Ω → Ω2 , π2 : Ω ⊗ Ω → S 2 Ω. Consideremos el 2 2 isomorfismo φ : Ω ⊗ Ω = Λ Ω ⊕ S Ω, φ(w) = (π1 (w), π2 (w)). Dada una conexi´on lineal sim´etrica y el morfismo diferencial d : Ω → Ω ⊗ Ω, tenemos que π1 ◦ d = dC y π2 ◦ d = ds , con ds (w)(D1 , D2 ) = (D1∇ w)(D2 ) + (D2∇ w)(D1 ). Se cumple que ds es k-lineal y ds (f · w) = (df ) · w + f · ds w y diremos que ds es una diferencial sim´etrica.
1.10.
C´alculo valorado
35
Dar la conexi´ on lineal sim´etrica ∇ equivale aPdar la diferencial sim´etrica ds : Ω → S 2 Ω. m Sea ds : S Ω → S m+1 Ω, ds (w1 · · · wm ) := i w1 · · · wi−1 · ds wi · · · wm . Para m = 0 definimos ds = d. Supongamos que A es una k-´ algebra lisa, es decir, el morfismo natural S n Ω → ∆n /∆n+1 es un isomorfismo, para todo n. 11. Teorema : Los morfismos φn
(A ⊗ A)/∆n+1 → A ⊕ Ω ⊕ · · · ⊕ S n Ω,
a ⊗ b 7→ a · (b, db, d2s b/2, . . . , dns b/n!)
son isomorfismos de A-´ algebras y los diagramas 0
/ ∆n /∆n+1
/ (A ⊗ A)/∆n
/ (A ⊗ A)/∆n+1
φn−1
φn
/ SnΩ
0
/0
/ A ⊕ Ω ⊕ · · · ⊕ SnΩ
/ A ⊕ Ω ⊕ · · · ⊕ S n−1 Ω
/0
son conmutativos. Demostraci´ on. Es f´ acil comprobar que φn es un morfismo de A-´algebras. Obviamente φn (a ⊗ 1 − 1 ⊗ a) = (0, da, −, ..., −), luego, φn es la identidad sobre ∆n /∆n+1 . Ahora es f´acil ver que el diagrama es conmutativo y demostrar por inducci´ on que los φn son isomorfismos. n i P ds f 12. Corolario : El morfismo A/mn+1 → k ⊕ mx /m2x ⊕ · · · ⊕ mnx /mn+1 , f¯ → 7 x x i! (x), es un i=0
isomorfismo de k-´ algebras. d2 f
Se dice que s2 (x) es el Hessiano de f en x. Sea M un A-m´ odulo. Se dice que F : A → M es un operador diferencial de orden 0 si F (a) = a · F (1), para todo a ∈ A, es decir, si F es un morfismo de A-m´odulos. 13. Definici´ on : Una aplicaci´ on k-lineal F : A → M se dice que es un operador diferencial de orden n − 1 si X (−1)r ai1 · · · air · F (aj1 · · · ajn−r ) = 0 {i1 ,...,ir }∪{j1 ,...,jn−r }={1,...,n}
para todo a1 , . . . , an ∈ A. Las derivaciones son operadores diferenciales de orden 1. 14. Proposici´ on : F : A → M es un operador diferencial de orden n > 0 si y s´ olo si [F, a] := F ◦ a · − a · F es un operador diferencial de orden n − 1 para todo a ∈ A. 15. Proposici´ on : HomA (A ⊗k A/∆n+1 , M ) = Diff nk (A, M ). Tenemos la cadena de inclusiones (en Homk (A, A)) Diff 1k (A, A) ,→ Diff 2k (A, A) ,→ · · · ,→ Diff nk (A, A) ,→ · · · El dual de la sucesi´ on exacta 0 → S n Ω → (A ⊗ A)/∆n+1 → (A ⊗ A)/∆n → 0 es π
n 0 → Diff n−1 (A, A) → Diff nk (A, A) → S n Derk (A, A) → 0 k
Se dice que πn (F ) es el s´ımbolo del operador F .
36
´ Algebra Lineal Tensorial
Cap´ıtulo 1. ∞
16. Definici´ on : Diff k (A, A) = ∪ Diff ik (A, A). i=0 ϕ
17. Teorema : S · Derk (A, A) = Diff k (A, A), ϕ(D1 · · · Dn )(a) := diagrama conmutativo n−1
0
/ ⊕ S i Derk (A, A) i=0
n
/ ⊕ S i Derk (A, A) i=0
ϕ
0
/ Diff nk (A, A)
k
/ S n Derk (A, A)
y se tiene el
/0
Id
ϕ
/ Diff n−1 (A, A)
dn sa n! (D1 , . . . , Dn )
/ S n Derk (A, A)
/0
Adem´ as se verifica la “f´ ormula de Leibnitz”
ϕ(D1 · · · Dn )(a · b) =
X
ϕ(Di1 · · · Dir )(a) · ϕ(Dj1 · · · Djn−r )(b)
{i1 ,...,ir }∪{j1 ,...,jn−r }={1,...,n}
Ahora, Diff k (A, A) v´ıa ϕ, tiene estructura de ´algebra conmutativa graduada: 0 0 ϕ(D1 · · · Dn ) ∗ ϕ(D10 · · · Dm ) := ϕ(D1 · · · Dn · D10 · · · Dm )
Sea T2 ∈ Ω⊗Ω una m´etrica sim´etrica no singular y denotemos la polaridad tambi´en por T2 : Derk (A, A) → Ω. Sea ds : Ω → S 2 Ω, ds (w) := T 2 (w)L T2 . Tenemos pues definida una conexi´on lineal sim´etrica en Derk (A, A), denominada conexi´ on de Levi-Civita asociada a T2 .
Cap´ıtulo 2
C´ alculo Tensorial en Geometr´ıa Diferencial 2.1
Desarrollo de Taylor
El teorema de Bolzano afirma que si f es una funci´on continua en [a, b] tal que f (a) > 0 y f (b) < 0 (o al rev´es) entonces existe un ξ ∈ (a, b) tal que f (ξ) = 0 (la ξ se obtiene por el m´etodo de bisecci´ on). Si f 0 (c) > 0 para un c ∈ (a, b), entonces existe un c > 0 de modo que f (c + t) > f (c) y f (c) > f (c − t), para todo 0 ≤ t < c . Si f 0 > 0 en (a, b) entonces f es creciente en (a, b). Como consecuencia se obtiene el teorema de Rolle que dice que si f es una funci´on continua en [a, b], derivable en (a, b) y f (a) = f (b), entonces existe c ∈ (a, b) tal que f 0 (c) = 0: Si f 0 > 0 en (a, b) entonces f ser´ıa creciente y f (a) < f (b), si f 0 < 0 en (a, b) entonces f ser´ıa decreciente y f (a) > f (b). Por tanto, f 0 es negativa en alg´ un punto y positiva en alg´ un otro, por Bolzano f 0 se anula en alg´ un punto intermedio. Recordemos el Teorema del valor medio: si f (x), g(x) son funciones derivables en (a, b) y continuas en [a, b], dados a < b existe ξ ∈ (a, b) tal que (f (b) − f (a))g 0 (ξ) − (g(b) − g(a))f 0 (ξ) = 0 (si g 0 (ξ) 6= 0 y g(b) − g(a) 6= 0, habr´ıamos escrito (f (b) − f (a))/(g(b) − g(a)) = f 0 (ξ)/g 0 (ξ)): Sea H(x) = (f (b) − f (a))g(x) − (g(b) − g(a))f (x), como H(a) = H(b), entonces existe un ξ ∈ (a, b) tal que H 0 (ξ) = 0. En particular, si f 0 (x) existe para todo x 6= a y existe limx→a f 0 (x), entonces f 0 (a) existe y coincide (a) = limx→a f 0 (ξ) = limx→a f 0 (x). con este l´ımite : f 0 (a) = limx→a f (x)−f x−a Lema de L’Hˆ opital: Si F, G son funciones diferenciables tales que F (0) = G(0) = 0, G0 no se F 0 (x) anule en un entorno de 0 (salvo quiz´ as en 0), y limx→0 G 0 (x) existe, entonces por el Teorema del valor medio limx→0
F (x) G(x)
= limx→0
F 0 (x) G0 (x) .
Sea C n (U ) el anillo de las funciones n veces derivables de derivadas continuas en un abierto 0 ∈ U ⊂ R. 1. Lema fundamental: Dada f (x) ∈ C n (U ), si f (0) = 0, entonces existe h(x) ∈ C n−1 (U ), tal que f (x) = x · h(x).1 Demostraci´ on. Demos una demostraci´on con el m´ınimo de conocimientos de An´alisis de Funciones. 0 La funci´on, h(x) = f (x) on continua, que tenemos que probar que x (donde h(0) := f (0)) es una funci´ 1 Hay una demostraci´ on maravillosa de este teorema, que hace uso alisis: Derivemos R pero R de ciertos resultados R de An´ ∂ e integremos y ¡saquemos algo! f (x) = f (x) − f (0) = 01 ∂t f (tx) · dt = 01 f 0 (tx) · x · dt = x · 01 f 0 (tx)dt
37
38
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
pertenece a C n−1 (U ). Considerando en vez de f , f −
n P
1 i) i! f (0),
ai xi , con ai =
i=1
podemos suponer que f (0) = f 0 (0) =
. . . = f n) (0) = 0. Tenemos que probar que h0 = f 0 /x − f /x2 ∈ C n−2 (U ). Por inducci´on sobre n, podemos suponer que f 0 /x ∈ C n−2 (U ). Tenemos que probar que f /x2 ∈ C n−2 (U ). Probemos que si f (0) = f 0 (0) = . . . = f n) (0) = 0 entonces f /x2 ∈ C n−2 (U ). Observemos que f /x2 es continua pues por L’Hopital limx7→0 f /x2 = f 00 (0)/2. Tenemos que probar que (f /x2 )0 = f 0 /x2 − f /2x3 ∈ C n−3 (U ). Por inducci´on sobre n, podemos suponer que f 0 /x2 ∈ C n−3 (U ). Tenemos que probar que f /x3 ∈ C n−3 (U ). Argumentando as´ı sucesivamente llegaremos a que tenemos que probar que f /xn ∈ C 0 (U ), lo cual es cierto porque aplicando L’Hopital sucesivamente tenemos que limx7→0 f /xn = f n) (0)/n!. 2. Corolario : Si f (x) ∈ C ∞ (U ) cumple que f (0) = 0, entonces existe h(x) ∈ C ∞ (U ) tal que f (x) = h(x) · x. Entonces, por cambio de variable x ¯ = x − α, tendremos que si α ∈ U y f (α) = 0 entonces existe h(x) ∈ C ∞ (U ) de modo que f (x) = h(x) · (x − α). As´ı dada f (x) ∈ C n (U ), entonces f (x) − f (α) = g(x) · (x − α) con g(x) ∈ C n−1 (U ). Luego f (x) = f (α) + (x − α) · g(x). Repitiendo el argumento con g(x), tendremos que f (x) = f (α) + (x − α) · (g(α) + (x − α) · h(x)) = f (α) + g(α)(x − α) + h(x)(x − α)2 , (con h(x) ∈ C n−2 (U )). As´ı sucesivamente, tendremos que f (x) = a0 + a1 (x − α) + · · · + an−1 (x − α)n−1 + z(x) · (x − α)n f (x)−
i−1 P
aj (x−α)j
(i
ai ∈ R, z(x) ∈ C (U ). Adem´ as, ai = limx→α = f i!(α) . (x−α)i Ahora en varias variables. 3. Definici´ on : Se dice que una funci´on real f definida en un entorno de un punto α ∈ Rn es diferenciable en α si existe una matriz A = (a1 , . . . , an ) de modo que j=0
0
f (x) − f (α) − A · (x − α)t =0 x→α ||x − α|| lim
Observemos que en tal caso, tomando x = (x1 + h, α2 , . . . , αn ) tenemos que f (α1 + h, α2 , . . . , αn ) − f (α) − A · (h, 0, . . . , 0)t f (α1 + h, α2 , . . . , αn ) − f (α) − a1 · h = lim h→0 h→0 |h| |h|
0 = lim
∂f ∂f Luego, limh→0 f (α1 +h,α2 ,...,αhn )−f (α)−a1 ·h = 0 y a1 = ∂x (α). Igualmente, ai = ∂x (α). Si las de1 i rivadas parciales existen en un entorno de α y son continuas entonces f es derivable, con A = ∂f ∂f ( ∂x (α), . . . , ∂x (α)): 1 n P P f (x)−f (α)− i ai (xi −αi ) f (x)−f (a1 ,x2 ,...,xn )+f (a1 ,x2 ,...,xn )−f (α)− i ai (xi −αi ) = lim x→α ||x−α|| ||x−α|| P (f (ξ,x ,...,xn )−a1 )(x1 −α1 )+f (α1 ,x2 ,...,xn )−f (α)− i>1 ai (xi −αi ) limx→α x1 2 ||x−α|| P f (α1 ,x2 ,...,xn )−f (α)− i>1 ai (xi −αi ) (f (ξ,x ,...,xn )−a1 )(x1 −α1 ) + limx→α limx→α x1 2 ||x−α|| ||x−α||
limx→α = =
que es igual a cero, por inducci´ on sobre n (observando que ||(x − α)|| es mayor que |x1 − α1 | y que ||(x2 , . . . , xn ) − (α2 , . . . , αn )||).
2.2.
Espacio tangente en un punto
39
Es obvio quer si f es derivable en α entonces es continua en α. Se dice que f es de clase r en un abierto si ∂ m x1 ∂···∂fmn xn son continuas en el abierto para todo m1 + · · · + mn = r. 1
2
2
∂ f ∂ f Sea U un entorno abierto de α y f ∈ C 2 (U ). Se verifica que ∂y∂x (α) = ∂x∂y (α): Por cambio de variable podemos suponer que α = (0, 0). Sustituyendo f (x, y), por f (x, y) − f (0, y), podemos suponer que f (0, y) = 0.
fxy (0, 0) =
limx→0 ∂ f (x, y) ( lim )(y = 0) = lim y→0 ∂y x→0 x
= lim
limx→0
f (x,y)−f (x,0) x
y
y→0
f (x,y) x
− limx→0 y
f (x,0) x
fy (x, ξ) · y = fyx (0, 0) y→0 x→0 xy
= lim lim
Por simplificar notaciones supongamos que α = 0. De nuevo, dada f (x, y) ∈ C n (U ) si f (0, y) = 0 entonces fx ∈ C n−1 (U ). As´ı, dada f ∈ C n (U ), tendremos que f (x, y) = f (0, y) + x · g(x, y), con g(x, y) ∈ C n−1 (U ). Por tanto, si f (0, 0) = 0, entonces f (0, y) = y · h(y), con h(y) ∈ C n−1 (U ), en conclusi´on f (x, y) = x · h1 + yh2 , con h1 , h2 ∈ C n−1 (U ). 4. P Proposici´ on : Sea U ⊆ Rm un abierto y f (x1 , . . . , xm ) ∈ C n (U ). Si f (α) = 0, entonces f = i hi · (xi − αi ) con hi ∈ C n−1 (U ). 5. Corolario : Dada f (x1 , . . . , xm ) ∈ C n (U ) y b ∈ U entonces f =(
X
aα · (x − b)α ) +
|α|
donde hα ∈ C n−r (U ) y aα =
2.2
1 α!
·
X
hα · (x − b)α
|α|=r
|α|
∂ f ∂ α1 x1 ···∂ αn xn (b).
Espacio tangente en un punto
Sea U ⊆ Rm un abierto. 1. Corolario : El ideal mα ⊂ C ∞ (U ) de todas las funciones que se anulan en α ∈ U est´ a generado por x1 − α1 , . . . , xm − αm , es decir, mα = (x1 − α1 , . . . , xm − αm ) mα /m2α
2. Corolario : Una base de es dα x1 = x1 − α1 , . . . , dα xm = xm − αm . Por el teorema 1.8.8 se tiene que DerR (C ∞ (U ), R) = HomR (mα /m2α , R) =: (mα /m2α )∗ . Expl´ıcitamente, dada D ∈ DerR (C ∞ (U ), R) y λdα f entonces D(λdα f ) = λ · Df . Denotemos por D = P P ∂f ∂ ) la derivaci´ o n definida por Df := λ λ ( α i i i i ∂xi ∂xi (α). La base dual de dα x1 , . . . , dα xm es ∂ ∂ ( ∂x ) , . . . , ( ) . α ∂xm α 1 P ∂ )α se interpreta como el vector (λ1 , . . . , λn ) en el punto Geom´etricamente, la derivaci´ on i λi ( ∂x i ∞ m α ∈ U y se dice que DerR (C (U ), R) = (mα /m2α )∗ es el espacio tangente (intr´ Pınseco) a U ⊆ R en 2 m α. Se dice que mα /mα es el espacio cotangente (intr´ınseco) a R en α. As´ı, i λi dα xi se interpreta como el plano de Rm que pasa por α de ecuaciones λ1 · (x1 − α1 ) + · · · + λm · (xm − αm ) = 0 P ∂f P (α)(xi − αi ) + ij fij (x)(xi − αi ) · (xj − α). El plano Dada f ∈ C ∞ (Rm ) entonces f = f (α) + i ∂x i P ∂f tangente a la superficie de U , f − f (α) = 0, en α es claramente i ∂x (α)(xi − αi ) = 0, es decir, el i plano correspondiente a dα f ∈ mα /m2α .
40
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
Sean U ⊆ Rm , V ⊆ Rn sendos abiertos. 3. Definici´ on : Una aplicaci´ on F : U → V se dice que es diferenciable en α ∈ U si existe una matriz F 0 (α) = (aij ) de m-columnas y n-filas tal que ||F (x) − F (α) − F 0 (α) · (x − α)t || =0 x→α ||x − α|| lim
Es f´acil ver que F = (f1 , . . . , fn ) es diferenciable si y s´olo si f1 , . . . , fn son diferenciables y que ∂fi A = ( ∂x (α)). j P Desarrollando por Taylor, tenemos que F (x) = F (α)+F 0 (α)·(x−α)t + ij Gij (x)(xi −αi )·(xj −αj ). Consideremos la recta {α + tv, t ∈ R} que pasa por α y de vector director v, entonces F (α + tv) = F (α) + F 0 (α)(tv) + t2 · H(t, v). Para t peque˜ no F (α + tv) es aproximadamente F (α) + F 0 (α)(tv). Es decir, F aplica el vector infinitesimal tv, de origen α, en el vector infinitesimal F 0 (α)(tv) de origen F (α).
2
R v
a
F
F'(a)(v) F(a)
Por otra parte, el morfismo F induce en los anillos el morfismo de anillos F ∗ : C ∞ (V ) → C ∞ (U ), F (g) := g ◦ F y por tanto el morfismo mF (α) → mα , g 7→ (g ◦ F ). En conclusi´on, tenemos el morfismo (intr´ınseco) F ∗ : mF (α) /m2F (α) → mα /m2α , dF (α) g 7→ dα (g ◦ F ) P ∂fi F ∗ (dF (α) xi ) = dα (xi ◦ F ) = j ∂x (α) · dα xj . Por tanto, la matriz del morfismo F ∗ : mF (α) /m2F (α) → j ∗
∂fi mα /m2α es ( ∂x (α)). Tomando duales tenemos “la aplicaci´on lineal tangente en α asociada a F ” j (intr´ınseca)
F∗ : (mα /mα )∗ = DerR (C ∞ (U ), R) → DerR (C ∞ (V ), R) = (mF (α) /m2F (α) )∗ que aplica (como puede comprobarse) cada derivaci´on D en F∗ (D) definida por F∗ (D)(g) = D(F ∗ (g)) = ∂fi (α)). GeoD(g ◦ F ). Directamente, o por dualidad, tenemos que la matriz de F∗ es F 0 (α) = ( ∂x j m´etricamente, F∗ aplica en el vector tangente v = (λ1 , . . . , λn ) en α en el vector tangente en F (α), F 0 (α) · v.
2.3
Derivaciones. M´ odulo de diferenciales
Sea U ⊆ Rm un abierto y Ω = ΩC ∞ (U )/R . Dada w ∈ Ω desear´ıa que cumpliera la propiedad de que si w(α) = w ¯ ∈ Ω/mα · Ω es nulo para todo α entonces w = 0 y que esta propiedad se mantuviera al tomar la diferencial.
2.3.
Derivaciones. M´odulo de diferenciales
Sea M un C ∞ (U )-m´ odulo. Denotemos Nul(M ) =
∩
α∈U,n>0
41
˜ = M/ Nul(M ). Se cumple mnα · M y M
˜˜ = M ˜ . Tambi´en es claro que C ∞˜(U ) = C ∞ (U ). que M 1. Teorema : Sea M tal que Nul(M ) = 0 (por ejemplo si M es un m´ odulo libre). Entonces, ∂ ∂ ⊕ .m. . ⊕ M · ∂x1 ∂xm P ∂ Demostraci´ on. Asignemos a cada derivaci´on D ∈ DerR (C ∞ (U ), M ), i (Dxi ) · ∂x . i Veamos que esta asignaci´ on es inyectiva: Tenemos que ver que si Dxi = 0, para todo i, entonces P ,...,xm ) D(xi ) D = 0. Sobre los polinomios p(x1 , . . . , xm ) es f´acil ver que D(p(x1 , . . . , xn )) = i ∂p(x1∂x i n n−1 (argumentando por inducci´ on sobre el grado del polinomio). Es claro que D(mα ) ⊆ mα · M . Toda f ∈ C ∞ (U ) es igual a un polinomio p de grado n m´odulo mnα , f = p + g, g ∈ mnα . Por tanto, D(f ) = D(p) + D(g) = 0 + D(g) ∈ mn−1 · M , para P todo n y α, luego D(f ) = 0 y D = 0. α ∂ es la imagen de la derivaci´on D definida La asignaci´ on es obviamente epiyectiva, porque i mi ∂x i P ∂p por D(p) := ∂xi · mi . DerR (C ∞ (U ), M ) = M ·
i
Por tanto, si Nul M = 0 entonces toda D ∈ DerR (C ∞ (U ), M ) es D =
P
i
Dxi ·
∂ ∂xi .
˜ C ∞ (U )/R = C ∞ (U ) · dx1 ⊕ · · · ⊕ C ∞ (U ) · dxn 2. Teorema : Ω Demostraci´ on. ˜ C ∞ (U ) , M ) = HomC ∞ (U ) (ΩC ∞ (U )/R , M ) = DerR (C ∞ (U ), M ) HomC ∞ (U,R (Ω ∂ = M ∂x1 ⊕ · · · ⊕ M ∂x∂n = HomC ∞ (U ) (C ∞ (U )dx1 ⊕ · · · ⊕ C ∞ (U )dxn , M )
Por tanto, ˜ C ∞ (U )/R = Λn Ω
⊕
C ∞ (U ) · dxi1 ∧ · · · ∧ dxin
1≤i1 <···
˜ C ∞ (U )/R y ΩrU = Λr ΩU . 3. Notaci´ on : A partir de ahora escribiremos ΩU = Ω Observemos que ΩU (α) = ΩC ∞ (U )/R (α) = mα /m2α . En general el morfismo ΩrU (α) → Λr (mα /m2α ), df1 ∧ · · · ∧ dfr 7→ dα f1 ∧ · · · ∧ dα fr es un isomorfismo. Todo morfismo de k-´ algebras f : A → B induce el morfismo ΩA/k → ΩB/k , adb 7→ f (a)df (b). Sean U ⊆ Rm , V ⊆ RN sendos abiertos. Dado un morfismo F : U → V diferenciable, tenemos el morfismo de anillos F ∗ : C ∞ (V ) → C ∞ (U ), F ∗ (g) = g ◦ F , que induce el morfismo F ∗ : ΩV → ΩU , F ∗ (gdh) = (g ◦ F )d(h ◦ F ) que induce el morfismo mF (α) /m2F (α) = ΩRm (F (α)) → ΩRn (α) = mα /m2α , ya conocido. Tomando ´algebras exteriores tenemos un morfismo natural F ∗ : ΩrV → ΩrU 4. Lema de Poincar´ e : Una r-forma diferenciable wr ∈ ΩrRn es cerrada, es decir, cumple que dwr = 0 si y s´ olo si es exacta, es decir, existe una r − 1-forma diferenciable wr−1 ∈ Ωr−1 Rn tal que wr = dwr−1 .
42
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
Demostraci´ on. ConsideremosPel grupo uniparam´etrico τ : R × Rn → Rn , τ ((t, x)) = et · x, cuya ∂ . Sea τt (x) = τ (t, x) y denotemos τt∗ wr =: wr (t). Se cumple derivaci´on asociada es D = i xi · ∂x i que wr (t)0 = (DL wr )(t). Entonces Z
0
wr (t)0 · dt =
wr = wr (0) − wr (−∞) = −∞
Z
0
−∞
2.4
0
(DL wr )(t) · dt =
−∞
Z
Z
0
(iD ◦ d + d ◦ iD )wr (t) · dt −∞
0
d ◦ iD wr (t) · dt = d
=
Z
iD wr (t) · dt = dwr−1 −∞
Variedades diferenciables. Haces
1. Definici´ on : Sean f1 , . . . , fn ∈ C n (U ), U ⊆ Rn abierto. Se dice que f1 , . . . , fn es un sistema de coordenadas en U , si la aplicaci´ on F : U → Rn ,
F (x) := (f1 (x), . . . , fn (x))
cumple que F (U ) = V es un abierto, F establece un homeomorfismo entre U y V , y la aplicaci´on inversa de F es diferenciable de clase n, es decir, F es un difeomorfismo de clase n. En tal caso, el morfismo de anillos F ∗ : C n (V ) → C n (U ), F ∗ (g) = g ◦ F es un isomorfismo, luego para cada funci´ on diferenciable g en U existe una (´ unica) funci´on diferenciable h(y1 , . . . , yn ) ∈ C n (V ) de modo que g(x) = h(f1 (x), . . . , fn (x)) (“las funciones diferenciables en U son las funciones diferenciables en las coordenadas f1 , . . . , fn ”). 2. Definici´ on : Se dice que f1 , . . . , fn son un sistema de coordenadas en un punto x, si existe un entorno de x en el que f1 , . . . , fn son un sistema de coordenadas. ∂fi Dado F = (f1 , . . . , fn ) denotemos por F 0 = ( ∂x ). j
3. Teorema de la funci´ on inversa: Sean U, V sendos abiertos de Rn y F : U → V un morfismo de clase n. Dado α ∈ U , si det(F 0 (α)) 6= 0, entonces F es un difeomorfismo de clase n en un entorno de α. Con otras palabras, si f1 , . . . , fn son funciones diferenciables de clase n en un entorno de α ∈ Rn . Entonces, f1 , . . . , fn es un sistema de coordenadas en α si y s´ olo si dα f1 , . . . , dα fn son linealmente ∂fi independientes, es decir, det( ∂x (α))) = 6 0. j Demostraci´ on. Sin p´erdida de generalidad podemos suponer que α = 0. 1. Probemos que la aplicaci´ on F = (f1 , . . . , fn ) :P U → Rn en un entorno abierto peque˜ no U de (0) es inyectiva: Tenemos que fi (x) − fi (y) = H (x, y) · (x − y ), pues en general si ij j j j P g(x1 , . . . , xr , 0, . . . , 0) = 0 para todo x1 , . . . , xr entonces g = j gr+j · xr+j . Escribamos de forma reducida F (x) − F (y) = H(x, y) · (x − y), donde H(x, y) es la matriz (Hij (x, y)) y (x − y) el vector ∂fi (x1 − y1 , . . . , xn − yn ). Observemos que H(0, 0) = ( ∂x (0)). Consideremos un entorno V de 0, de j modo que para todo (x, y) ∈ V × V , det(H(x, y)) 6= 0. Si 0 = F (x) − F (y) = H(x, y) · (x − y), para alg´ un (x, y) ∈ V × V , entonces x − y = 0 y x = y. 2. F (U ) es un entorno de F (0): Reduciendo U , podemos suponer que F es inyectiva en U y que det(F 0 (x)) 6= 0 para todo x ∈ U . Sea B una bola centrada en el origen, tal que su cierre est´e incluido en U , y sea Sn el borde. Por ser F inyectiva F (Sn ) no contiene a F (0). Sea m = ´ınfimo
2.4.
Variedades diferenciables. Haces
43
{d(0, F (s)) | s ∈ Sn } que es mayor estricto que cero porque d(0, F (Sn )) es un compacto (imagen de compacto) de R+ que no contiene a 0. Sea B 0 una bola centrada en F (0) de radio m/2. Basta que probemos que B 0 ⊆ F (B). ¯ La funci´on continua g alcanza un m´ınimo Sea y ∈ B 0 y g(x) := d(F (x), y) que la definimos sobre B. ¯ que no yace en Sn , puesto que d(F (s), y) + m/2 ≥ d(F (s), y) + d(F (0), y) ≥ d(F (0), F (s)) ≥ sobre B, m, luego d(F (s), y) ≥ m/2 ≥ d(F (0), y). As´ı pues, la funci´on, g 2 = (F (x) − y) · (F (x) − y) alcanza un m´ınimo en B. Si c ∈ B es tal que g 2 (c) es m´ınimo, entonces 0 = (g 2 )0 (c) = 2(F (c) − y) · F 0 (c). Por tanto, F (c) = y y B 0 ⊆ F (B). 3. La aplicaci´ on F : F −1 (B 0 ) → B 0 es un homeomorfismo: Es biyectiva y continua. Dado un −1 ¯ ∩ B 0 es un cerrado porque C¯ es compacto, cerrado C ⊂ F (B 0 ) ⊂ B, tenemos que F (C) = F (C) ¯ es un cerrado. En conclusi´ luego F (C) on, F es homeomorfismo. 4. Aconsejamos al lector que rescriba este apartado suponiendo n = 1, luego F = f (x) es una funci´on real en una s´ ola variable. Supongamos ya que tenemos un homeomorfismo F : U → V . Reduciendo U , podemos suponer ¯ y V¯ son compactos, que F : U ¯ → V¯ es homeomorfismo. Recordemos que F (x0 ) − F (x) = que U H(x, x0 ) · (x0 − x). Podemos suponer tambi´en, que det(H(x, x0 )) 6= 0 y2 ||H(x, x0 )−1 || ≤ m (para cierto m > 0) para todo x, x0 ∈ U . En particular, ||(H(x, x)−1 = (F 0 (x))−1 || ≤ m. Veamos que G = F −1 es diferenciable de clase n. ||G(y 0 )−G(y)−(F 0 (x))−1 ·h|| Dado y = F (x), probemos que la matriz (F 0 (x))−1 cumple que lim = 0. ||y 0 −y|| 0 y →y
Sea x0 tal que F (x0 ) = y 0 , entonces ||G(F (x0 ))−G(F (x))−(F 0 (x))−1 ·(F (x0 )−F (x))|| ||F (x0 )−F (x)|| x →x 0 −1 0 0 −1 0 (x)) ·(F (x )−F (x))|| ||(F (x)) ·[(F 0 (x))·(x0 −x)−(F (x0 )−F (x))]|| lim ||(x −x)−(F = lim ||F (x0 )−F (x)|| ||F (x0 )−F (x)|| x0 →x x0 →x ||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))|| ||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))|| ||x0 −x|| m · lim = m · lim · ||F (x 0 )−F (x)|| 0 −x|| 0 )−F (x)|| ||F (x ||x 0 0 x →x x →x ||(F 0 (x))·(x0 −x)−(F (x0 )−F (x))|| 2 m · lim =0 ||x0 −x|| x0 →x
lim
y 0 →y
= ≤ ≤
||G(y 0 )−G(y)−(F 0 (x))−1 ·(y 0 −y)|| ||y 0 −y||
= lim 0
Por tanto, G0 (y) = (F 0 (x))−1 y G es derivable. Como G0 (y) := (F 0 (x))−1 = (F 0 (G(y)))−1 es continua ⇒ G es C 1 ⇒ G0 (y) es C 1 ⇒ G(y) es C 2 , etc. Veamos que la esfera unidad S 2 ≡ x2 + y 2 + z 2 = 1 localmente es “difeomorfa” a abiertos de R2 : Sea α = (α1 , α2 , α3 ) ∈ S 2 , supongamos α1 6= 0. Las funciones f1 = x2 + y 2 + z 2 − 1, f2 = y, f3 = z forman un sistema de coordenadas en α, por el teorema de la funci´on inversa. Existe un entorno abierto U ⊂ R3 de α, y un abierto V ⊆ R3 de modo que la aplicaci´on F : U → V , F (x) = (f1 (x), f2 (x), f3 (x))) es un homeomorfismo. V´ıa F , U ∩ S 2 es homeomorfo a V ∩ (0 × R2 ) = 0 × V 0 , (para el correspondiente abierto V 0 ⊂ R2 ). Tenemos pues el homeomorfismo U ∩ S2 → V 0,
x 7→ (f2 (x), f3 (x))
“Se dice que la restricci´ on de f2 y f3 a U ∩ S 2 es un sistema de coordenadas en U ∩ S 2 ”. 4. Definici´ on : Un cerrado Y ⊆ Rn se dice que es una subvariedad diferenciable de dimensi´on m de n R , si para cada punto y ∈ Y existe un sistema de coordenadas f1 , . . . , fn de en un entorno U ⊂ Rn en y, de modo que U ∩ Y = {x ∈ U tales que f1 (x) = . . . = fn−m (x) = 0}. 2 Dada
una aplicaci´ on lineal T : Rn → Rn , se define ||T || := sup{||T (e)||, para todo e ∈ Rn tal que ||e|| = 1}
44
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
5. Definici´ on : Sea Y ⊆ Rn un cerrado. Se dice que una funci´on f : Y → R es diferenciable si para cada y ∈ Y existe un entorno abierto U ⊆ Rn de y y una funci´on F ∈ C ∞ (U ) de modo que F|Y ∩U = f|Y ∩U . 6. Proposici´ on : Toda funci´ on diferenciable sobre un subespacio cerrado Y ⊆ Rn es la restricci´ on a dicho cerrado de una funci´ on diferenciable de Rn . Es decir, C ∞ (Y ) = C ∞ (Rn )/I donde C ∞ (Y ) es el anillo de funciones diferenciables de Y e I es el ideal de las funciones diferenciables de Rn que se anulan en Y . Demostraci´ on. Sea f : Y → R una funci´on diferenciable. Existen abiertos {Ui } y funciones fi ∈ C ∞ (Ui ) de modo que {Ui ∩ Y } recubren Y y f|Ui ∩Y ) = f|Ui ∩Y . Sea {φi , φ} una partici´ on de la unidad subordinada al recubrimiento {Ui , Rn − Y }. Prolongando por 0 el producto φi fi en el complementario de Ui , se obtiene una funci´on diferenciable y la familia P de soportes de tales funciones es localmente finita. Luego, la suma F = φ f es una funci´on i i i diferenciable en Rn . La restricci´ on de F a Y es f , pues dado y ∈ Y X X F (y) = φi (y)fi (y) = φi (y)f (y) = f (y) i
i
7. Definici´ on : Se define variedad diferenciable como las subvariedades diferenciables de los Rn . Puede darse una definici´ on en principio m´as general de variedad diferenciable (el teorema de Whitney afirma que es equivalente a la anterior): Un espacio topol´ogico X se dice que es una variedad diferenciable de dimensi´ on m si existe un recubrimiento por abiertos {Ui } de X y homeomorfismos φi : Ui → Vi (Vi abierto de Rm ) de modo que los homeomorfismos (“de cambio de sistema de coordenadas”) φj ◦ φ−1 j : φi (Ui ∩ Uj ) → φj (Ui ∩ Uj ) son aplicaciones diferenciables (entre abiertos de Rm ). El lector, al pensar en la variedad X, debe identificar Ui con Vi . Debe pensar que un espacio topol´ogico X es una variedad diferenciable si y s´olo si localmente es difeomorfo a abiertos de Rn . Una aplicaci´ on continua f : X → R se dice que es diferenciable si localmente lo es, es decir, con rigor, f se dice que es diferenciable si las composiciones φ−1 i
f|U
Vi ' Ui →i R son diferenciables. Una aplicaci´ on continua entre variedades diferenciables f : X → X 0 se dice que es diferenciable si localmente lo es, es decir, las composiciones φ−1
f
φ0j
i φi (Ui ∩ f −1 (Uj0 )) → Ui ∩ f −1 (Uj0 ) → Uj0 → Vj0
son diferenciables. Resulta que f es diferenciable si y s´olo si para toda funci´on diferenciable g : X 0 → R, entonces g ◦ f : X → R es diferenciable. Veamos la estructura de “haz” de DerX : Dada una derivaci´ on D ∈ DerX y f ∈ C ∞ (X) si f es nula en un entorno abierto U de un punto α ∈ X entonces Df tambi´en es nula en dicho entorno: Basta ver que (Df )(α) = 0. Sea h ∈ C ∞ (X)
2.4.
Variedades diferenciables. Haces
45
nula en X − U e igual a 1 en un entorno de α. Entonces 0 = h · f y 0 = f · Dh + h · Df , luego 0 = f (α) · (Dh)(α) + h(α) · (Df )(α) = (Df )(α). Por tanto, si f = g en un entorno de α entonces D(f ) = D(g) en ese entorno. Tenemos un morfismo natural DerX → DerU , D 7→ D|U donde (D|U f )(α) := D(F )(α), siendo F ∈ C ∞ (X) cualquier funci´on que es igual a f en un entorno abierto de α. 1. Si Ui es un recubrimiento por abiertos de X y D|Ui = 0 para todo i entonces D = 0, pues (Df )|Ui = D|Ui f|Ui = 0, para todo i, luego Df = 0 y D = 0. Por tanto, D = D0 si y s´olo si 0 D|Ui = D|U para todo i. i 2. Por otra parte, si tenemos para cada i, una derivaci´ on Di ∈ DerUi de modo que (Di )|Ui ∩Uj = (Dj )|Ui ∩Uj , para todo i, j, entonces podemos definir una D ∈ DerX , tal que D|Ui = Di , para todo i: D(f ) se define como la funci´ on que cumple que (Df )|Ui = Di f|Ui . Las propiedades 1. y 2. se expresan diciendo que DerX es un haz. Por ejemplo, C ∞ (X) tambi´en es un haz. Igualmente Der∗X es un haz (el C ∞ (X)-m´odulo de las aplicaciones n-multilineales es un haz): Dado w ∈ Der∗X y D ∈ DerX , si D|U = 0 entonces w(D)|U = 0. En efecto, dada α ∈ U basta probar que w(D)(α) = 0. Sea h nula en X − U e igual a 1 en un entorno de α). Entonces 0 = h · D y 0 = w(h · D) = h · w(D), luego 0 = h(α) · w(D)(α) = w(D)(α). Por tanto si D = D0 en un entorno abierto de α entonces w(D) = w(D0 ) en dicho entorno. Tenemos un morfismo natural Der∗X → Der∗U , w 7→ w|U ˜ ˜ ∈ DerX es cualquier derivaci´on que coincide con D en un donde (w|U (D))(α) := w(D)(α), donde D entorno de α. 1. Si Ui es un recubrimiento por abiertos de X y w|Ui = 0 para todo i entonces w = 0, pues para todo D, (w(D))|Ui = w|Ui (D|Ui ) = 0, para todo i, luego w(D) = 0 y w = 0. Por tanto, w = w0 si y 0 s´olo si w|Ui = w|U para todo i. i 2. Por otra parte, si tenemos para cada i, una wi ∈ Der∗Ui de modo que (wi )|Ui ∩Uj = (wj )|Ui ∩Uj , para todo i, j, entonces podemos definir una w ∈ Der∗X , tal que w|Ui = wi , para todo i: w(D) se define como la funci´ on que cumple que (w(D))|Ui = wi (D|Ui ). Sea mx ⊂ C ∞ (X) el ideal de funciones de X que se anulan en x y m0x ⊂ C ∞ (U ) el ideal de 2 funciones de U que se anulan en x. El morfismo natural π : mx /m2x → m0x /m0 x , π(f¯) = f|U es un ∞ isomorfismo: sea h ∈ C (X) igual a 1 en un entorno abierto de x y nula en un entorno de X − U , 2 entonces el morfismo m0x /m0 x → mx /m2x , f¯ 7→ hf es el morfismo inverso. Dada una 1-forma diferencial w ∈ ΩX , si 0 = w(x) = w ¯ ∈ ΩX (x) = mx /m2x , para todo x ∈ X, entonces w ∈ Nul(ΩX ) = 0. Sea {Ui } un recubrimiento por abiertos de X, si w|Ui = 0 para todo i, 0 entonces w(x) = 0 para todo x ∈ X y w = 0. (∗) Por tanto, si w|Ui = w|U para todo i, entonces i 0 w=w. Consideremos X como subvariedad cerrada de un Rn . ΩX es cociente del C ∞ (Rn )-m´odulo ΩRn , que est´a generado por dx1 , . . . , dxn , por tanto, ΩX es un C ∞ (X)-m´odulo generado por dx1|X , . . . , dxn|X , luego es finito generado. Sea dim X = r. Dadas w1 , . . . , wr ∈ ΩX sea U = {y ∈ Y tales que {wi (y) = w ¯i ∈ ΩX (y) = my /m2y } sea una base de my /m2y }. Se cumple que U es un abierto de X y que ΩU es un C ∞ (U )m´odulo libre de base {wi|U }: Sea y1 , . . . , yr un sistema de coordenadas en un entorno abierto Vy de y. Tendremos que wi = fij dyj (en tal entorno Vy ). Entonces {wi (y)} es una base de my /m2y si y s´olo si det(fij (y)) 6= 0. Es claro que
46
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
U es un abierto. Adem´ as, en Vy podemos despejar las dyj en funci´on de los que P{wi } y es f´acil probar en Vy las {wi } son base. Por tanto, dada w ∈ ΩU , tendremos que w|Vy = i gi · wi ,P para gi ∈ C ∞ (Vy ) u ´nicas. Por ser C ∞ (U ) un haz, existen Gi ∈ C ∞ (U ) u ´nicas de modo que w = i Gi wi|U , lo que muestra que {wi|U } son una base. 8. Lema : Sea π : M → N un epimorfismo de A-m´ odulos. Si s : N → M es una secci´ on de π, es decir, π ◦ s = Id, entonces M ' Ker π ⊕ N . Demostraci´ on. El morfismo N ⊕ Ker π → M , (n, n0 ) 7→ s(n) + n0 es un isomorfismo: Es inyectiva, porque si s(n) + n0 = 0, aplicando π tenemos que n = 0 y por tanto n0 = 0. Es epiyectiva, porque dado m, tenemos que m − s(π(m)) ∈ Ker π y m = s(π(m)) + (m − s(π(m))). Si M = M 0 ⊕M 00 y M es un A-m´ odulo finito generado entonces M 0 es un A-m´odulo finito generado: 00 Consideremos la inclusi´ on M ,→ M , m00 7→ (0, m00 ) y denotemos la imagen de esta inclusi´on M 00 . El 0 00 morfismo M → M/M , m0 7→ (m0 , 0) es un isomorfismo. M/M 00 es finito generado porque lo es M , entonces M 0 es finito generado. 9. Definici´ on : Se dice que un A-m´odulo P es proyectivo si es sumando directo de un A-m´odulo libre. Si P es un A-m´ odulo proyectivo entonces tenemos un isomorfismo P ⊕ P 0 = An . En tal caso el epimorfismo An → P , (p, p0 ) 7→ p, tiene secci´on (p 7→ (p, 0)). Rec´ıprocamente si un epimorfismo π : An → P tiene secci´ on entonces P es proyectivo porque An = P ⊕ Ker π. 10. Proposici´ on : ΩX es un es un C ∞ (X)-m´ odulo finito generado proyectivo. Demostraci´ on. Consideremos de nuevo el epimorfismo π : C ∞ (X) · dx1 ⊕ · · · ⊕ C ∞ (X) · dxn → ΩX . Dado α = {i1 , . . . , ir } ⊂ {1, . . . , n} sea Uα = {y ∈ X | dy xi1 , . . . , dy xir sea una base de my /m2y }. Sea {φα } una partici´ on de la unidad subordinada al recubrimiento de X, {Uα }#α=r . Sea sα la composici´on de los morfismos φα ·
ΩX → ΩUα = C ∞ (Uα ) · dxi1 ⊕ · · · ⊕ C ∞ (Uα ) · dxir −→ C ∞ (X) · dxi1 ⊕ · · · ⊕ C ∞ (X) · dxir P se tiene que s = α sα es una secci´ on del epimorfismo π. Como Nul(C ∞ (X)) = 0 todo subm´ odulo M de un C ∞ (X)-m´odulo libre cumple que Nul(M ) = 0. El producto tensorial de m´ odulos proyectivos es proyectivo: si P ⊕P 0 = An , Q⊕Q0 = Am entonces nm n m 0 A = A ⊗A A = (P ⊕ P ) ⊗A (Q ⊕ Q0 ) = (P ⊗ Q) ⊕ (P ⊗ Q0 ) ⊕ (P 0 ⊗ Q) ⊕ (P 0 ⊗ Q0 ), luego P ⊗ P 0 es proyectivo. ∗ Si P es proyectivo entonces P ∗ es proyectivo, pues si P ⊕P 0 = An entonces P ∗ ⊕P 0 = (P ⊕P 0 )∗ = (An )∗ = An . Si P es un A-m´ odulo proyectivo finito generado entonces P = P ∗∗ , como se deduce del diagrama conmutativo P ⊕ P0 An
(P ⊕ P )∗∗ = P ∗∗ ⊕ P 0
∗∗
(An )∗∗
Igualmente, si P es un A-m´ odulo proyectivo finito generado P ∗ ⊗A M = HomA (P, M ). Si P es proyectivo entonces Λr P es proyectivo: Si la composici´on de dos morfismos de A-m´odulos n s π P → An → P es el morfismo identidad, entonces la composici´on Λr P → Λr An = A( r ) → Λr P es la identidad.
2.5.
Anillo de funciones diferenciables
47
En conclusi´ on, Λr ΩX =: ΩrX y Ω∗X = DerX , etc., son C ∞ (X)-m´odulos finito generados proyectir vos, Nul(ΩX ) = Nul(DerX ) = 0, Der∗X = Ω∗∗ X = ΩX , etc. Con los mismos argumentos que para ΩX Todas las proposiciones de las secciones 1.9 y 1.10 son igualmente v´alidas sustituyendo A por C ∞ (X) y Ωi por ΩiX .
2.5
Anillo de funciones diferenciables
Sea (X, d) un espacio m´etrico. Si F : R+ → R+ es una funci´on estrictamente creciente y de crecimiento cada vez m´ as peque˜ no (F 0 > 0 y F 00 ≤ 0) y F (0) = 0 entonces d0 = F ◦ d es una distancia y (X, d0 ) d(p,q) x es homeomorfo a (X, d). Consideremos F = 1+x , en este caso d0 (p, q) = 1+d(p,q) y d0 (p, q) < 1 para todo p, q ∈ X. Sean ahora dos distancias d1 , d2 en X y consideremos en X la topolog´ıa menos fina que contenga a las topolog´ıas definidas por d1 y d2 , que es justamente la topolog´ıa definida por d1 + d2 . Como la topolog´ıa definida por una distancia d es la misma que la definida por λ · d, λ > 0, entonces la topolog´ıa definida por d1 + d2 es la misma que la definida por λ1 · d1 + λ2 · d2 , λ1 , λ2 > 0. Sea ahora un conjunto numerable {di }i∈N de distancias en X y supongamos (como podemos) que di ≤ 1/2i , para cada i ∈ N. La topolog´ıa menos fina que contiene P a las topolog´ıas definidas por todos los di coincide con la topolog´ıa definida por la distancia d := i di . ¯i ⊂ Ui+1 y son Sea U ⊆ Rn un abierto y {U1 , U2 , . . .} abiertos tales que sus cierres cumplen que U compactos, y tales que ∪i Ui = U . Sea C k (U ) las funciones en U de clase k. Para cada compacto K ⊆ U sea dK : C k (U ) → R la distancia definida por dkK (f, g) := max{|Dα (f − g)(x)|, |α| ≤ k, x ∈ K} donde Dα =
∂ |α| α αn ∂x11 ···∂x n k
y |α| = α1 + · · · + αn .
Consideremos C (U ) la topolog´ıa menos fina que contiene a las topolog´ıas definidas por las distancias dkK , para todo compacto K. Esta topolog´ıa es igual a la topolog´ıa menos fina que contiene a las topolog´ıas definidas por dkU¯i (o
dk ¯ U
i
1+dk ¯ U
), i = 1, 2, . . ., que coincide con la topolog´ıa definida por
i
d=
k X 1 dU ¯i · i 1 + dk 2 ¯i U i
Si en C ∞ (U ) consideramos la topolog´ıa menos fina que contiene a las topolog´ıas definidas por las distancias dkK , para todo compacto K y k ∈ N, entonces esta topolog´ıa coincide con la topolog´ıa definida por d=
i X 1 dU ¯i · i 1 + di 2 ¯i U i
1. Teorema : C k (U ) es un espacio m´etrico completo para toda 0 ≤ k ≤ ∞. Demostraci´ on. Sea {fi }i∈N una sucesi´ on de Cauchy. Para todo α ≤ K, {Dα fi }i∈N es una sucesi´on de Cauchy en C 0 (U ), para el que suponemos bien conocido que es completo. Sean fα ∈ C 0 (U ) el l´ımite
48
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
de la sucesi´ on {Dα fi }i∈N . Basta probar que Dα f0 existe y coincide con fα para todo α, con |α| ≤ k. ∂f Si α = (β1 , . . . , βj + 1, . . . , βn ), basta probar que ∂xβj = fα . Por el teorema del valor medio, dado a ∈ U , Dβ fi (x) − Dβ fi (a) = Dα fi (ξi )(xj − aj ), con x = (a1 , . . . , xj , . . . , an ) y ξi en el segmento que une a y x. Existe una subsucesi´on {ik } de modo que {ξik } converge a un ξ (perteneciente al segmento que une a y x). Tomando l´ımite cuando ik → ∞ obtenemos fβ (x) − fβ (a) = fα (ξ) · (xj − aj ) = fα (a) · (xj − aj ) + o(xj − aj ) donde o(xj − aj )/xj − aj tiende a cero cuando xj → aj . Por tanto,
∂fβ ∂xj (a)
existe y coincide con fα (a).
Veamos ahora que el morfismo C ∞ (Rn ) → R[[x1 , . . . , xn ]] que asigna a cada funci´on diferenciable su desarrollo de Taylor infinito, en un punto α ∈ Rn cualquiera, es epiyectivo (sorprendentemente a primera vista). 2. Lema : Sea f ∈ C ∞ (Rn ), tal que Dα (f )(0) = 0, para todo α, con |α| ≤ m. Dado > 0 existe g ∈ C ∞ (Rn ), que se anula en un entorno abierto de 0 tal que ||f − g||m < con ||f − g||m := sup{|Dα (f − g)(a)|, a ∈ Rn , |α| ≤ m}. Demostraci´ on. Sea η(x) ∈ C ∞ (Rn ), tal que η(x) = 0, si ||x|| ≤ 1/2 y η(x) = 1 si ||x|| ≥ 1. Para δ > 0, definamos x gδ (x) = η( ) · f (x) δ Claramente gδ ∈ C ∞ (Rn ) y se anula en un entorno abierto de 0. Calculemos ||f − gδ ||m . Tenemos que f − gδ = f · (1 − η(x/δ)) que es nula para ||x|| > δ y ||η(x)||m < ∞. Observemos que por las hip´ otesis limx→0 Dα f (x)/||x||m−|α| = 0, luego X α |D (f − gδ )| = |D f · (1 − η(x/δ)) + · Dβ f · δ −(|α|−|β|) · Dα−β η(x/δ)| ≤ β α
α
0≤β<α
para todo x, cuando δ es peque˜ no. En conclusi´on, ||f − gδ ||m ≤ , para δ peque˜ no.
3. Teorema de Borel sobre los desarrollos de Taylor: El morfismo C ∞ (Rn ) → R[[x1 , . . . , xn ]] que asigna a cada funci´ on diferenciable su desarrollo de Taylor infinito en 0 ∈ Rn es epiyectivo. P P Demostraci´ on. Sea α cα xα ∈ R[[x1 , . . . , xn ]]. Sea Tm = |α|=m+1 cα xα y gm ∈ C ∞ (Rn ) tal que se anule en un entorno abierto de 0 y tal que ||Tm − gm ||m ≤ 1/2m . P P Entonces f = c0 + m (Tm − gm ) ∈ C ∞ (Rn ) y el desarrollo de Taylor de f en el 0 es α cα xα .
2.6.
2.6
Localizaci´on en el ´algebra tensorial diferencial
49
Localizaci´ on en el ´ algebra tensorial diferencial
1. Teorema : Sea X una variedad diferenciable y U ⊆ X un abierto. Se cumple que C ∞ (U ) = C ∞ (X)U con C ∞ (X)U := C ∞ (X)S , donde S es el conjunto de las funciones que no se anulan en ning´ un punto de U . Demostraci´ on. 1. Supongamos que X = Rn . Sea {U1 , U2 , . . .} un recubrimiento de U por cubos abiertos cuyas adherencias est´en contenidas en U . Sean φi : Rn → R funciones diferenciables positivas sobre Ui y nulas en el complementario. Dada f ∈ C ∞ (U ) sea λi = sup |{Dα (f φi )}|,
µi = sup |{Dα (φi )}|
|α|≤i
donde Dα =
∂ |α| α αn ∂x11 ···∂x n
|α|≤i
y |α| = α1 + · · · + αn . Las series g=
∞ X 1
f φi ; i 1+λ +µ 2 i i i=1
h=
∞ X 1
φi i 1+λ +µ 2 i i i=1
son funciones diferenciables, por el teorema anterior. Es evidente que f = g/h. 2. Caso general. Sum´erjase X como subvariedad cerrada de un Rm . Sea V un abierto de Rm tal que V ∩ X = U y F ∈ C ∞ (V ) su restricci´on a V ∩ X = U sea f . Sean G, H ∈ C ∞ (Rm ), tal que H no se anule en ning´ un punto de V y G/H coincida con F sobre V . Las restricciones de G y H a X, g y h respectivamente, cumplen que h no se anula en ning´ un punto de U y f = g/h en U . 2. Observaci´ on : La funci´ on h construida en la primera parte de la demostraci´on es positiva sobre U y nula en el complementario. Por tanto, usando el teorema de inmersi´on de Whitney, concluimos que todo cerrado de una variedad son los ceros de una funci´on diferenciable. Igualmente se puede probar que C k (U ) = C k (X)U . 3. Corolario : 3 Sea X una variedad diferenciable y U ⊆ X un abierto. Entonces (ΩX )U = ΩU ,
(ΩrX )U = ΩrU
Demostraci´ on. Sea A una k-´algebra y S ⊂ A un sistema multiplicativamente cerrado. El morfismo A → AS , a 7→ a1 , induce el morfismo ΩA/k → ΩAS /k , adb 7→ a1 d 1b , que induce el morfismo (ΩA/k )S → 1 a a da ads ΩAS /k , da s 7→ s · d 1 . El morfismo inverso es ΩAS /k → (ΩA/k )S , d s 7→ s − s2 . Por tanto, df −1 (ΩA/k )S = ΩAS /k , luego (ΩX )U = ΩU , s 7→ s|U · df|U . Ahora ya, (ΩrX )U = (ΛrC ∞ (X) ΩX )U = ΛrC ∞ (U ) ΩU = ΩrU 3 Este corolario es un caso particular de un teorema de la teor´ ıa de fibrados vectoriales: Sea X 0 → X un morfismo entre variedades diferenciables y E → X un fibrado vectorial. Se cumple que
HomX 0 (X 0 , E ×X X 0 ) = C ∞ (X 0 ) ⊗C ∞ (X) HomX (X, E) que se prueba, sumergiendo E en un fibrado vectorial trivial, considerando un fibrado vectorial suplementario y reduciendo, pues, el teorema al caso de fibrado vectoriales triviales.
50
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
4. Lema : Si M es un A-m´ odulo proyectivo finito generado entonces (M ∗ )S = (MS )∗ (denoto ∗ (MS ) = HomAS (MS , AS )). Demostraci´ on. Sea N tal que M ⊕ N = An . Es f´acil comprobar que ((An )S )∗ = ((An )∗ )S . Del diagrama conmutativo (M ∗ )S ⊕ (N ∗ )S = (M ∗ ⊕ N ∗ )S
((An )∗ )S
(MS )∗ ⊕ (NS )∗ = (MS ⊕ NS )∗
((An )S )∗
se deduce que (M ∗ )S = (MS )∗ . 5. Proposici´ on : (DerX )U = DerU .
2.7
Integraci´ on. F´ ormula de Stokes
F´ ormula de cambio de variable en integraci´ on. Sea e1 , . . . , en ∈ Rn la base est´ andar de Rn y w1 , . . . , wn la base dual. Supongamos Rn orientado con la orientaci´ on est´ andar w1 ∧ · · · ∧ wn . Dados n-vectores v1 , .P . . , vn ∈ Rn , llamamos palelep´ıpedo generado por v1 , . . . , vn al subconjunto n de R , P (v1 , . . . , vn ) = { i λi vi , 0 < λi < 1}. La aplicaci´on V : Rn × . n. . × Rn → R ( R dx1 · · · dxn si v1 , . . . , vn est´a positivamente orientada PR(v1 ,...,vn ) V (v1 , . . . , vn ) := − P (v1 ,...,vn ) dx1 · · · dxn si v1 , . . . , vn est´a negativamente orientada es una aplicaci´ on multilineal alternada (al lector) y como sobre la base est´andar de Rn vale 1, tenemos que V = w1 ∧· · ·∧wn . Diremos que V (v1 , . . . , vn ) es el volumen (afectado de signo) del paralelep´ıpedo generado por v1 , . . . , vn . Consideremos ahora una aplicaci´ on lineal T : Rn → Rn . Obviamente T transforma el paralelep´ıpedo generado por v1 , . . . , vn en el paralelep´ıpedo generado por T (v1 ), . . . , T (vn ) y V (T (v1 ), . . . , T (vn )) = w1 ∧· · ·∧wn (T (v1 )∧· · ·∧T (vn )) = wn (det(T )·v1 ∧· · ·∧vn ) = det(T )V (v1 , . . . , vn ) 1. Teorema : Sean U y U 0 abiertos de Rn y T : U 0 → U , T (y) = (T1 (y), . . . , Tn (y)) un difeomorfismo de clase C 1 . Sea f (x) ∈ C 0 (U ) de soporte compacto. Entonces, Z Z ∂Ti )| · dy1 · · · dyn f (x) · dx1 · · · dxn = f (T (y)) · | det( ∂yj 0 U U Demostraci´ on. Podemos suponer que f ≥ 0. Consideremos un cubo cerrado C que contenga a U 0 y sea l la longitud de los lados de C. Sea n C = [−, ] × · · · × [−, ] y supongamos que l es un m´ ultiplo entero de . Sean yk puntos de C, de modo que C = ∪k (yk + C ) y los cubos yk + C sean de interiores disjuntos. T (y 0 ) − T (y) = H(y 0 , y) · (y 0 − y) para cierta matriz de funciones continuas H. Recordemos i ı pues, T (y 0 ) = T (y) + H(y, y)(y 0 − y) + (H(y 0 , y) − H(y, y))(y 0 − y). Sea que H(y, y) = ( ∂T ∂yj ). As´
2.7.
Integraci´on. F´ormula de Stokes
51
G(y 0 , y) = H(y 0 , y) − H(y, y). Como G(y, y) = 0 entonces ||G(y, y)||∞ = 0 y dado δ > 0 existe un de modo que para ||y 0 − y||∞ < entonces ||G(y 0 , y)||∞ < δ, es decir, G(y 0 , y) · Cλ ⊆ Cδ·λ . Por tanto, T (y + C ) ⊆ T (y) + H(y, y) · C + Cδ· ⊆ T (y) + H(y, y) · C·(1+δ0 ) con δ 0 = δ ·
√
n (la longitud de la diagonal del cubo Cδ ). Por tanto,
Vol(T (y + C )) ≤ Vol(H(y, y) · C·(1+δ0 ) ) = det(H(y, y)) · Vol(C·(1+δ0 ) ) = det(H(y, y)) · Vol(C ) · (1 + δ 0 )n Por tanto, P i i f (T (y)) · | det( ∂T · | det( ∂T k f (T (yk )) ∂yj )| · dy1 · · · dyn = lim→0 ∂yj (yk ))| · Vol(C ) R P 0 −n ≥ lim→0 k f (T (yk )) · Vol(T (yk + C )) · (1 + δ ) = T (C) f (x) · dx1 · · · dxn · (1 + δ 0 )−n R
C
R R i Por tanto, U 0 f (T (y)) · | det( ∂T ∂yj )| · dy1 · · · dyn ≥ U f (x) · dx1 · · · dxn . Si consideramos el morfismo inverso T −1 : U 0 → U y como funci´on continua g(y) = f (T (y)) · −1 i | det( ∂T (x)) · | det( ∂yj )|, entonces, f (x) = g(T
Z
Z f (x) · dx1 · · · dxn =
U
∂Ti−1 ∂xj )|
g(T −1 (x)) · | det(
U
y concluimos que
R
f (x) · dx1 · · · dxn =
U
R
U0
y
∂Ti−1 )| · dx1 · · · dxn ≥ ∂xj
Z g(y) · dy1 · · · dyn U0
i f (T (y)) · | det( ∂T ∂yj )| · dy1 · · · dyn .
Integraci´ on de formas. Sea U ⊂ Rn un abierto, con la orientaci´on dx1 ∧ . . . ∧ dxn . Sea w = f · dx1 ∧ . . . ∧ dxn ∈ ΩnU y supongamos que sop f es compacto. R R 2. Definici´ on : Se define U w := U f · dx1 · · · dxn . Sea U 0 ⊂ Rn un abierto y escribamos ahora las coordenadas y1 , . . . , yn . Si ϕ : U 0 → U es un difeomorfismo que conserve la orientaci´on, entonces el teorema del cambio de variables en integraci´on ∗ (=, m´as abajo) implica que Z Z ϕ∗ w =
U 0 =ϕ−1 U
w U
P En efecto, ϕ∗ w = f (ϕ1 , . . . , ϕn ) · dϕ1 ∧ · · · ∧ dϕn = f (ϕ1 , . . . , ϕn ) · ( i f (ϕ1 , . . . , ϕn ) · Z U 0 =ϕ−1 U
i det( ∂ϕ ∂yj )
ϕ∗ w =
=
· dy1 ∧ · · · ∧ dyn y
Z f (ϕ1 , . . . , ϕn ) · det( U0
P ∂ϕn ∂ϕ1 i ∂yi dyi ) ∂yi dyi ) ∧ · · · ∧ (
∂ϕi ∗ ) · dy1 · · · dyn = ∂yj
Z
Z f (x1 , . . . , xn ) · dx1 · · · dxn =
U
w U
Sea X una variedad diferenciable orientada de dimensi´on n. Dada w una r-forma definimos sop w = {x ∈ X tales que wx 6= 0}. Sea w una n-forma diferenciable y supongamos que sop w es compacto. Supongamos que existe un difeomorfismo φ : X → U 0 ⊆ Rn orientado. Tenemos pues un difeomorfismo φ∗ : C ∞ (U 0 ) → C ∞ (X), f 7→ f ◦ φ = f (φ1 , . . . , φn ). Entonces existe una n-forma diferenciable en U 0 ,
52
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
w0 = f (x1 , . . . , xn ) · dx1 ∧ · ∧ dxn , tal que φ∗ w0 = w (luego, w = f (φ1 , . . . , φn ) · dφ1 ∧ · · · ∧ dφn ) y definimos Z Z Z Z w= φ∗ w0 := w0 := f (x1 , . . . , xn ) · dx1 · · · dxn φ−1 (U 0 )
X
U0
U0
Veamos que la definici´ on no depende del φ considerado. Sea φ00 : X → U 00 ⊆ Rn otro difeomorfismo −1 orientado, entonces ϕ = φ0 ◦ φ00 : U 00 → U 0 , y 7→ (ϕ1 (y), . . . , ϕn (y) es un difeomorfismo orientado. ∗ ∗ ∗ 00 ∗ 0 Definamos w = ϕ w , que cumple que φ00 (w00 ) = φ00 ϕ∗ w0 = φ0 w0 = w. Por tanto, Z Z Z Z Z v´ıa φ00 v´ıa φ0 w = w00 = ϕ∗ w 0 = w0 = w U 00
X
ϕ−1 (U 0 )
U0
X
Sea X una variedad diferenciable de dimensi´on n orientada y w una n-forma diferenciable de soporte compacto. Sea un n´ umero finito de abiertos coordenados U1 , . . . , Un que recubran sop w y consideremos el recubrimiento de X, {U1 , . . . , Un , X − sop w}. Sea {f1 , . . . , fn , f } una partici´on de la unidad subordinada al recubrimiento. Observemos que w = f1 · w + · · · + fn w (y f · w = 0) y que sop fi · w ⊂ Ui . Definimos Z Z Z f1 w + · · · +
w := X
U1
fn w Un
Esta definici´ on no depende del recubrimiento ni de la partici´ on: Sea {V1 , . . . , Vm } abiertos coordenados que recubran sop w y {g1 , . . . , gm , g} una partici´on de la unidad subordinada a {V1 , . . . , Vm , X −sop w}. Entonces n Z n Z m n X m Z n X m Z X X X X X fi w = fi gj w = fi gj w = fi gj w i=1
Ui
=
i=1 Ui j=1 n m Z X X j=1
fi gj w =
Vj i=1
i=1 j=1 m Z X j=1
Ui ∩Vj
i=1 j=1
Vj
gj w
Vj
Dejamos ya que el lector pruebe: 1. Si w1 , . . . , wr son n-formas con soporte compacto entonces
R P X
i
wi =
P R i
wi .
2. Si φ : X → X 0 es un difeomorfismo orientado entre variedades diferenciables orientadas entonces para toda n-forma diferenciable w0 de X 0 de soporte compacto se satisface que Z
∗
0
Z
φ w = X=φ−1 (X 0 )
w0
X0
F´ ormula de Stokes. 3. Definici´ on : Sea X una variedad diferenciable, B ⊂ X un cerrado y ∂B el borde de B. Diremos que B es una variedad con borde si para todo p ∈ ∂B existe un entorno coordenado U , u1 , . . . , un de p en X de modo que B ∩ U = {x ∈ U : u1 (x) ≤ 0}. Observemos que ∂B ∩ U ≡ u1 = 0, luego ∂B es una subvariedad diferenciable de X. Si wX es una forma diferenciable de volumen en X que lo orienta, podemos definir una orientaci´on en ∂B: Sea w0 0 una n − 1-forma diferenciable en U tal que du1 ∧ w0 = wX , entonces w|∂B∩U define una orientaci´on 0 en ∂B ∩ U . Observemos que i∂u1 wX = w0 − du1 ∧ i∂u1 wX , luego w|∂B∩U = (i∂u1 wX )|∂B∩U . S´ olo tenemos que probar que esta orientaci´on no depende de la u1 escogida: Si B ∩ U ≡ v1 ≤ 0 entonces
2.7.
Integraci´on. F´ormula de Stokes
53
v1 = u1 · F con F > 0 en B ∩ U (F 6= 0 incluso en ∂B ∩ U , porque dv1 = F du1 + u1 dF es no nula en 0 todo punto). Sea w00 tal que dv1 ∧ w00 = wX . La n − 1 forma w|∂B∩U coincide con la restricci´on de ∂F 00 00 00 00 i∂u1 wX = i∂u1 (dv1 ∧ w ) = (F + u1 · ∂u1 ) · w + v1 · i∂u1 w a ∂B, que coincide con F · w|partialB∩U . R R Nota: Cuando escribamos B w querremos decir 0 w. B
4. Lema : Sea X una variedad diferenciable orientada de dimensi´ on n y B ⊂ X una variedad con borde. Para cada x ∈ X existe un entorno abierto U de x de modo que para toda n − 1-forma diferenciable w sobre X de soporte compacto contenido en U se cumple que Z Z dw = w B
∂B
Demostraci´ on. / B, t´ omese U = X −B. Si w tiene soporte compacto contenido en U entonces R R 1. Si x ∈ dw = 0 = w. B ∂B 0
0
2. Si x ∈ B, sea U , u1 , . . . , un un entorno coordenado de x, contenido en B, isomorfo a un cubo, es decir, tenemos (u1 ,...,un ) ¯ ⊂ Rn , ¯ = (a1 , b1 ) × . . . × (an , bn ) U −→ U U ∼ R RSi w es una n − 1 forma con soporte compacto incluido en U entonces ∂B w = 0. Veamos que dw = 0: Por la linealidad de la integral podemos suponer que w = f du2 ∧ · · · ∧ dun . Entonces B Z
Z
Z
∂f · du1 ∧ · · · ∧ dun = ∂u1
d(f du2 ∧ · · · ∧ dun ) =
dw = B
U bn
U
Z
Z
b2
···
= an bn
a2 b2
Z
b1
bn
Z
b1
··· an
a1
∂f · du1 · · · dun ∂u1
∂f du1 ) · du2 · · · dun ∂u1
a1
Z ···
=
Z (
Z
an
(f (b1 , u2 , . . . , un ) − f (a1 , u2 , . . . , un )) · du2 · · · dun = 0 a2
porque w es nula sobre los hiperplanos u1 = a1 , u1 = b1 . 3. Si x ∈ ∂B sea U, u1 , . . . , un un entorno coordenado de x tal que B ∩ U ≡ u1 ≤ 0 y de modo que U sea isomorfo a un cubo (a1 , b1 ) × · · · × (an , bn ), como en el caso anterior. Observemos que ∂B ∩ U est´a coordenado por u2 , . . . , un y es difeomorfo al cubo (a2 , b2 ) × · · · × (an , bn ). Consideremos una n − 1-forma diferenciable P con soporteˆcompacto incluido en U . Escribamos w = i fi du1 ∧ · · · ∧ du i ∧ · · · ∧ dun . Entonces, w|∂B = f1 (0, u2 , . . . , un )du2 ∧ · · · ∧ dun y Z Z Z w= = f1 (0, u2 , . . . , un ) · du2 · · · dun ∂B
∂B∩U
(a2 ,b2 )×···×(an ,bn )
Por otra parte, Z
Z
Z
dw = B
u2 =b2
B∩U u1 =0
u1 =a1
Z
u2 =b2
Z
un =bn
u2 =a2
X
u2 =a2
un =an
un =bn
∂f1 du1 · · · dun ∂u1
··· u1 =a1
Z ···
= pues,
Z
dw = Z
∂fi ∂ui du1
u1 =0
un =an
i
(−1)i−1
∂fi du1 · · · dun ∂ui
· · · dun son formas como en 2. nulas sobre los hiperplanos ui = ai , ui = bi . Por tanto,
54
Cap´ıtulo 2.
Z
Z
u2 =b2
B
Z
un =bn
···
dw = u2 =a2
Z (
un =an
0
a1
C´alculo Tensorial en Geometr´ıa Diferencial
∂f1 ) · du1 · · · dun = ∂u1
Z
u2 =b2
Z
un =bn
··· u2 =a2
f1 (0, u2 , . . . , un ) · du2 · · · dun un =an
5. Teorema de Stokes: Sea w una n − 1-forma de soporte compacto sobre X. Se cumple que Z
Z dw =
B
w ∂B
Demostraci´ on. Sea {U1 , . . . , Un } abiertos coordenados que recubran el soporte de w y que satisfagan el lema anterior. Sea f1 , . . . , fn , f una partici´on de la unidad subordinada a {U1 , . . . , Un , X − B}. Entonces Z Z Z Z X XZ XZ dw = d( fi w) = d(fi wi ) = fi wi = fi wi = w B
2.8
B
i
i
B
i
∂B
∂B
B
Gradiente, divergencia y rotacional
Vayamos con el ejemplo fundamental. Consideremos el anillo C ∞ (Rn ) y el C ∞ (Rn )-m´odulo libre de rango n, ΩRn . 4 DerRn es el C ∞ (Rn )-m´odulo dual de ΩRn . Sea T2 : DerRn × DerRn → C ∞ (Rn ) una aplicaci´on C ∞ (Rn )-bilineal. Sea w1 , . . . , wn una base de P ΩRn . Sabemos que T2 = aij · wi ⊗ wj , aij ∈ C ∞ (Rn ), de modo que ij
T2 (D1 , D2 ) =
X
aij wi (D1 ) · wj (D2 )
ij
T2 induce la polaridad, T2 : DerRn → ΩRn , T2 (D) := iD T2 =
P aij wi (D) · wj . Supongamos que ij
la polaridad T2 es un isomorfismo. Denotemos por T 2 el morfismo inverso de T2 . 1. Definici´ on : Dada f ∈ C ∞ (Rn ) se define grad f = T 2 (df ). 2. Proposici´ on : Se cumple que 1. grad(λf ) = λ grad f , λ ∈ R, f ∈ C ∞ (Rn ). 2. grad(f + g) = grad(f ) + grad g, f, g ∈ C ∞ (Rn ). 3. grad(f g) = f grad g + g grad f . Interpretaci´ on geom´etrica de las diferenciales, campos, gradiente,..... Fijemos “una forma de volumen” wX ∈ ΩnRn de modo que Ωn = C ∞ (Rn ) · wX . Observemos que Ωn+1 Rn = 0 y por tanto, dwX = 0. 4 Podr´ ıamos desarrollar la teor´ıa correspondiente considerando una k-´ algebra A tal que ΩA/k fuese un A-m´ odulo finito generado localmente libre...
2.8.
Gradiente, divergencia y rotacional
55
3. Definici´ on : Dado D ∈ DerRn se define la divergencia de D, que denotaremos por div D, como la funci´on que cumple DL wX = (div D) · wX Observemos que DL wX = (diD + iD d)wX = diD wX . As´ı pues, diD wX = (div D) · wX 4. Teorema de la divergencia: Sea B ⊂ X una subvariedad con borde compacta. Sea wX una forma de volumen en X, N un campo normal al borde ∂B de m´ odulo 1 y w∂B la forma de volumen en ∂B. Sea D un campo diferencial de vectores en X. Entonces por el teorema de Stokes Z Z Z (div D) · wX = iD wX = (D · N ) · w∂B B
∂B
∂B
5. Proposici´ on : div(f D) = f · div D + Df . Demostraci´ on. div(f D) · wX = (f D)L wX = (dif D )wX = dif D wX = d(f · iD wX ) = df ∧ iD wX + f diD wX = −iD (df ∧ wX ) + iD df ∧ wX + f DL wX = Df · wX + f div D · wX . Consideremos ahora el C ∞ (R3 )-m´ odulo libre de rango 3, ΩR3 . Sea T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 + dx3 ⊗ dx3 y wR3 = dx1 ∧ dx2 ∧ dx3 la forma diferencial de volumen de R3 . El morfismo DerR3 → Ω2R3 , D0 7→ iD0 wR3 es un isomorfismo de C ∞ (R3 )-m´odulos. 6. Definici´ on : Dado D ∈ DerR3 se define el rotacional de D, que denotamos por rot D, como el campo que cumple que irot D wR3 = diD T2 7. Teorema : Sea S una subvariedad diferenciable compacta de R3 de dimensi´ on 2, y N un vector normal a S de m´ odulo 1. Sea B ⊂ S una subvariedad con borde y sea T un vector tangente a ∂B de m´ odulo 1. Sea D un campo diferencial de vectores en R3 . Entonces por el teorema de Stokes Z Z Z Z ((rot D) · N ) · wB = irot D wR3 = iD T2 = (D · T ) · w∂B B
B
∂B
∂B
8. Teorema : rot(D) = 0 ⇐⇒ Existe una funci´ on f ∈ C ∞ (R3 ) tal que D = grad f . Demostraci´ on. rot D = 0 ⇐⇒ 0 = irot D wR3 = d(T2 (D)) ⇐⇒ T2 (D) = df , para cierta f ∈ C ∞ (R3 ) ⇐⇒ D = T 2 (df ) = grad f para cierta f ∈ C ∞ (R3 ). “Un campo de fuerzas es conservativo si y s´olo si es un gradiente” 9. Teorema : div D0 = 0 ⇐⇒ Existe una derivaci´ on D tal que D0 = rot D. Demostraci´ on. div(D0 ) = 0 ⇐⇒ 0 = div(D0 ) · wR3 = d(iD0 wR3 ) ⇐⇒ Existe w ∈ ΩR3 tal que iD0 wR3 = dw. Ahora bien, para toda w ∈ ΩR3 existe una (´ unica) derivaci´on D tal que w = T2 (D). Por tanto, div(D0 ) = 0 ⇐⇒ Existe D tal que iD0 wR3 = dT2 (D) ⇐⇒ D0 = rot D, para cierto D. 10. Ejercicio : rot f D = f · rot D + grad(f ) × D.
56
Cap´ıtulo 2.
2.9
C´alculo Tensorial en Geometr´ıa Diferencial
Ap´ endice 1. Normas Not.
1. Definici´ on : Sea E un R-espacio vectorial. Una norma es una aplicaci´on E → R+ , e 7→ ||e|| que cumple 1. ||e|| = 0 ⇐⇒ e = 0. 2. ||λ · e|| = |λ| · ||e||, para todo λ ∈ R y e ∈ E. 3. ||e + e0 || ≤ ||e|| + ||e0 ||, para todo e, e0 ∈ E. 2. Ejemplo : Supongamos E = Rn y consideremos la norma || ||1 definida por ||(λ1 , · · · , λn )||1 := n |x p1 | + · · · + |x2 | Otra norma que podemos definir en R es || ||2 definida por ||(λ1 , · · · , λn )||2 := n 2 2 λ1 + . . . + λn . Otra norma que podemos definir en R es || ||∞ definida por ||(λ1 , · · · , λn )||∞ := max{|x1 |, . . . , |xn |}. E, || || se dice que es un espacio normado. La norma || || define en E una distancia, d, d(e, e0 ) := ||e − e0 || que cumple que d(e, e0 ) = 0 ⇐⇒ e = e0 (por la propiedad 1.), que d(e, e0 ) = d(e0 , e) (por la propiedad 2.) y que d(e, e00 ) ≤ d(e, e0 ) + d(e0 , e00 ) (por la propiedad 3.). Luego || || define una topolog´ıa en E, para la cual una base de entornos de cada punto e ∈ E es B(e, δ) := {e0 ∈ E : d(e0 , e) < δ} = {e0 ∈ E : ||e − e0 || < δ} 3. Teorema : Si E es un R espacio vectorial de dimensi´ on finita entonces todas las normas de E definen la misma topolog´ıa. Demostraci´ on. Podemos suponer que E = Rn y que e1 , . . . ,P en es la base est´andar. Sea || ||P una norma en E y M = max{||e ||, . . . , ||e ||}. Entonces, dado e = λ e tenemos que ||e|| = || 1 n i i i i λi ei || ≤ P P |λ |||e || ≤ |λ | · M = M · ||e|| . Por tanto, || || ≤ M · || || . i i i 1 1 i i Consideremos en Rn la topolog´ıa est´andar definida por || ||1 (que es la misma que la definida por || ||2 ). La norma Rn → R, e 7→ ||e|| es una aplicaci´on continua, pues | ||e|| − ||e0 || | ≤ ||e − e0 || ≤ M · ||e − e0 ||1 Sea m el m´ınimo de || || sobre el compacto K = {e ∈ Rn : ||e||1 = 1}. Por tanto, || || ≥ m · || ||1 . En conclusi´ on, la topolog´ıa definida por || || es la misma que la definida por || ||1 . Sea E, || || un espacio vectorial normado de dimensi´on finita. Podemos definir una norma en Endk E del siguiente modo: Dado T ∈ Endk E, ||T || := max{||T (e)|| : ||e|| = 1}. Por tanto, ||T (e)|| ≤ ||T || · ||e||, para todo e ∈ E.
2.10
Ap´ endice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales
Consideremos el sistema de ecuaciones diferenciales dx1 dt dxn dt
= f1 (x1 , . . . , xn ) ... = fn (x1 , . . . , xn )
2.10.
Ap´endice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 57
Dar una soluci´ on de este sistema de ecuaciones diferenciales con condiciones iniciales a1 (λ), . . . , an (λ) i es dar funciones φi (t, λ) tales que dφ dt = fi (φ1 , . . . , φn ) y φi (t0 , λ) = ai (λ). Si escribimos x = (x1 , . . . , xn ) y F = (f1 , . . . , fn ) podemos escribir de modo reducido el sistema anterior como dx = F (x) dt y dada la condici´ on inicial a(λ) = (a1 (λ), . . . , an (λ)), buscamos φ(t, λ) = (φ1 (t, λ), . . . , φn (t, λ)) tal que dφ = F (φ) dt y φ(t0 , λ) = a(λ). El sistema de ecuaciones diferenciales (con condici´on inicial a(λ)) es equivalente a la ecuaci´on Z
t
F (x) · dt
x = a(λ) + t0
Rt Dada ϕ si denotamos ϕ∗ = a(λ) + 0 F (ϕ) · dt, buscamos φ tal que φ = φ∗ . Vamos a ver que bajo ciertas condiciones, si consideramos una ϕ cualquiera y tomamos ∗ infinitas veces obtenemos una φ tal que al tomar ∗ una vez m´as obtenemos φ, es decir, φ∗ = φ. As´ı demostraremos que el sistema de ecuaciones diferenciales anterior tiene soluci´on. 1. Lema : Sea X, d un espacio m´etrico completo y T : X → X una aplicaci´ on contractiva, es decir, tal que exista una constante 0 ≤ c < 1 tal que d(T (x), T (y)) ≤ c · d(x, y), para todo x, y ∈ X. Entonces existe un u ´nico punto p ∈ X tal que T (p) = p. Demostraci´ on. Sea x ∈ X un punto cualquiera. La sucesi´on {xn := T n (x)} es una sucesi´on de Cauchy: Sea a = d(x, T (x)) entonces d(T n (x), T n+1 (x)) ≤ c · d(T n−1 (x), T n (x)) ≤ · · · ≤ cn · d(x, T (x)) = cn · a. Entonces, dado n ≥ m se cumple que d(T m (x), T n (x)) ≤ d(T m (x), T m+1 (x)) + d(T m+1 (x), T m+2 (x)) + · · · + d(T n−1 (x), T n (x)) cm − cn a ≤ cm · a + cm+1 · a + . . . + cn−1 · a = a · ≤ cm · 1−c 1−c que es todo lo peque˜ no que se quiera para n, m grandes. Por tanto, la sucesi´ on converge a un punto p. Por ser T contractiva es continua, luego T (p) = T (limn→∞ xn ) = limn→∞ T (xn ) = limn→∞ xn+1 = p. Si T (p0 ) = p0 entonces d(p, p0 ) = d(T (p), T (p0 )) ≤ c · d(p, p0 ), luego d(p, p0 ) = 0 y p0 = p.
2. Teorema : Sea F ∈ C 1 (Rn , Rn ) con soporte compacto y a(t1 , . . . , tm ) ∈ C 0 (Rm , Rn ). Entonces existe una u ´nica soluci´ on φ(t, t1 , . . . , tm ) ∈ C 0 (R × Rm , Rn ) (derivable en t) del sistema de ecuaciones diferenciales dx = F (x) dt con condiciones iniciales, para t = t0 , φ(t0 , t1 , . . . , tm ) = a(t1 , . . . , tm ).
58
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
Demostraci´ on. Sea U un cubo abierto de Rm y E = {ϕ = (ϕ1 , . . . , ϕn ) ∈ C 0 ((t0 − , t0 + ) × U, Rn ), ϕj acotadas, para todo j}. Dada una funci´ on real acotada g denoto por ||g||∞ como el supremo de g en su dominio de definici´on. Defino en E la norma ||ϕ||∞ := max{||ϕj ||∞ , para todo j}. E, || ||∞ es un espacio normado completo. F (x) − F (y) = H(x, y) · (x − y), siendo H(x, y) una matriz de funciones con soportes compacto. Sea K = max{||H(x, y)||∞ , x, y ∈ Rn }. Por tanto, ||F (ϕ) − F (ϕ0 )||∞ ≤ K · ||ϕ − ϕ0 ||∞ . Tomemos = 1/2K (que depende s´ olo de F , y no de quien sea t0 ni a(t1 , . . . , tm )). Rt La aplicaci´ on T : E → E, T (ϕ) := a(t1 , . . . , tm ) + t0 F (ϕ(s, t1 , . . . , tm )) · ds es contractiva, pues Z
0
t
||T (ϕ) − T (ϕ )||∞ = ||
Z
t
F (ϕ) − F (ϕ) ds||∞ ≤ |
Z
t0 t
≤|
||F (ϕ) − F (ϕ0 )||∞ ds|
t0
K · ||ϕ − ϕ0 ||∞ ds| ≤ · K · ||ϕ − ϕ0 ||∞ =
t0
1 ||ϕ − ϕ0 ||∞ 2
As´ı pues, por el lema existe una u ´nica φ ∈ E, tal que T (φ) = φ, es decir una u ´nica φ ∈ E soluci´on del sistema de ecuaciones diferenciable con condici´on inicial φ(t0 , t1 , . . . , tm ) = a(t1 , . . . , tm ). Si existiese otra φ0 ∈ C 0 ((t0 − , t0 + ) × U, Rn ) soluci´on del sistema, entonces reduciendo (todo lo poco que se quiera) los cubos (t0 − , t0 + ) y U , se cumplir´a que φ0 es acotada, luego habr´a de coincidir con φ. En conclusi´ on φ0 = φ. Como U es una cubo abierto, todo lo grande que se quiera, existe una u ´nica φ ∈ C 0 ((t0 − , t0 + m n ) × R , R ) soluci´ on del sistema con condiciones iniciales φ(t0 , t) = a(t). Sea ahora t00 = t0 + /2. Del mismo modo dado el sistema dx on inicial dt = F (x) con condici´ x(t00 ) = φ(t00 ), existe un u ´nica soluci´ on φ0 ∈ C 0 ((t00 − , t00 + ) × Rm , Rn ). Ahora bien las restricciones de φ y φ0 a (t00 − /2, t00 + /2) × Rm son soluciones del sistema en este abierto, luego coinciden. Luego tenemos una soluci´ on φ00 ∈ C 0 ((t0 − , t0 + 1.5 · ) × Rm , Rn ) del sistema de ecuaciones, con condici´on inicial x(t0 ) = a(t), que es u ´nica porque cualquier otra sobre (t0 − , t0 + ) × Rm coincide con φ y 0 0 por tanto sobre (t0 − /2, t0 + /2) × Rm con φ0 . Argumentando as´ı sucesivamente, demostramos que existe una u ´nica φ ∈ C 0 (R × Rm , Rn ) soluci´on del sistema con condiciones iniciales x(t0 ) = a(t). Como habr´ a podido observar el lector la existencia y unicidad de la soluci´on es un problema esencialmente local. 3. Teorema : Sea F ∈ C 1 (Rn , Rn ) y a(t1 , . . . , tm ) ∈ C 0 (Rm , Rn ). Dado b = (b0 , b1 , . . . , bm ) ∈ Rm+1 , existe un entorno abierto conexo V de b y una u ´nica soluci´ on φ(t, t1 , . . . , tm ) ∈ C 0 (V, Rn ) (derivable en t) del sistema de ecuaciones diferenciales dx = F (x) dt con condiciones iniciales, para t = b0 , φ(b0 , t1 , . . . , tm ) = a(t1 , . . . , tm ). Demostraci´ on. Sea U un entorno abierto de a(b1 , . . . , bm ) ∈ Rn y H ∈ C ∞ (U ) con soporte compacto en U y que en un entorno m´ as peque˜ no U 0 de a(b1 , . . . , bm ) es H|U 0 = 1. ˜ on inicial Sea F˜ = H · F y φ˜ la u ´nica soluci´on de la ecuaci´on diferencial dx dt = F (x), con condici´ −1 0 ˜ ˜ φ(b0 , t1 , . . . , tm ) = a(t1 , . . . , tm ). Sea V ⊂ φ (U ) un entorno abierto conexo de b. Es claro que φ := φ˜|V es una soluci´ on del sistema dx on inicial φ(b0 , t1 , . . . , tm ) = a(t1 , . . . , tm ). dt = F (x), con condici´ −1 Adem´as si φ0 es otra soluci´on sobre V , entonces es tambi´en soluci´on sobre V ∩ φ0 (U ), del sistema
2.10.
Ap´endice 2. Teorema de existencia y unicidad en sistemas de ecuaciones diferenciales 59
= F˜ (x) luego ha de coincidir (como vimos en la demostraci´on del teorema anterior) con φ˜|V , sobre −1 la componente conexa de V ∩ φ0 (U ) que contenga a b. Los puntos donde coinciden φ0 y φ˜|V es un −1 cerrado, luego V ∩ φ0 (U ) = V y φ0 = φ˜|V . dx dt
Dependencia diferenciable de las condiciones iniciales: Si F ∈ C k (Rn , Rn ) y a(t1 , . . . , tm ) ∈ C k (Rm , Rn ) entonces la soluci´on φ tambi´en es de clase k: Es un problema local. Veamos que podemos proceder como en el teorema 2.10.2. Sea U un cubo abierto de Rm y U = (t0 − , t0 + ). Dada una funci´on g(t, t1 , . . . , tm ) ∈ C k (U × ∂αg . Dada ϕ = (ϕ1 , . . . , ϕn ) ∈ C k (U × U, Rn ) definamos ||ϕ|| := U, Rn ), denotemos gα = ∂ α0 t···∂ αm t m max{||ϕj,α ||∞ , para todo j y |α| ≤ k}. Sea K 0 = ||a|U ×U ||. Sea E = {ϕ ∈ C k (U × U, Rn ), tales que ||ϕ|| ≤ 2K 0 }, que es un espacio m´etrico completo. Dada α, con |α| ≤ k, tendremos que Fi (ϕ1 , . . . , ϕn )α = Gi,α (ϕj,β )j,|β|≤k , para cierta funci´on i,α G ∈ C 0 (RN , Rn ), con N = n · #{β : |β| ≤ k}, que no depende de ϕ. Sea G = (Gj,β )j,|β|≤k . Dado K 0 > 0, existe una constante K, tal que 1. ||G(xj,β ) − G(y j,β )||∞ ≤ K · ||(xj,β ) − (y j,β )||∞ , para todo (xj,β ) y (y j,β ) tales que ||(xj,β )||∞ , ||(y j,β )||∞ < K 0 2. ||G(xj,β )||∞ < K · ||(xj,β )||∞ , para todo (xj,β ) tal que ||(xj,β )||∞ < K 0 . En tal caso, ||F (ϕ) − F (ϕ0 )|| < K · ||ϕ − ϕ0 || y ||F (ϕ)|| < K · ||ϕ||, si ||ϕ|| y ||ϕ0 || < K 0 . Sea Rt 1 = 2K . La aplicaci´ on T : E → E, T (ϕ) = a(t1 , . . . , tn ) + t0 F (ϕ(s, t1 , . . . , tn )) · ds est´a bien definida y es contractiva. Veamos que T (ϕ) ∈ E: Z
t
||T (ϕ)|| ≤ ||a||+||
Z
0
t
F (ϕ)·ds|| ≤ K +| t0
Z
0
t
||F (ϕ)||·ds| ≤ K +| t0
K ·||ϕ||·ds| ≤ K 0 +K ·2K 0 · = 2K 0
t0
Veamos que T es contractiva: ||T (ϕ) − T (ϕ0 )|| = ||
Z
t
Z
t
F (ϕ) − F (ϕ) ds|| ≤ |
Z
t0 t
≤|
||F (ϕ) − F (ϕ0 )|| · ds|
t0
K · ||ϕ − ϕ0 || · ds| ≤ · K · ||ϕ − ϕ0 || =
t0
1 ||ϕ − ϕ0 || 2
Por tanto, existe φ ∈ E tal que T (φ) = φ, que es la soluci´on local del sistema de ecuaciones diferenciales. Curvas integrales de un campo P ∂ Sea D = i fi · ∂x ∈ DerRn . Nos planteamos la existencia (local) de una aplicaci´on diferenciable i τ : R × Rn → Rn , (t, x) 7→ τ (t, x) ∂ )(t,x) ) = Dτ (t,x) y τ (0, x) = x. tal que τ∗ (( ∂t P i ∂ ∂ ∂ Si escribimos τ = (τ1 , . . . , τn ), sabemos que τ∗ (( ∂t )(t,x) ) = ( i ∂τ ∂t ∂xi )τ (t,x) . Por tanto, τ∗ (( ∂t )(t,x) ) = ∂τi Dτ (t,x) si y s´ olo si ∂t = fi (τ ). Si escribimos F = (f1 , . . . , fn ) entonces τ es justamente la soluci´on del sistema de ecuaciones diferenciales dτ = F (τ ) dt
60
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
con condiciones iniciales τ (0, x) = x. Si D es un campo con soporte compacto sabemos que existe una u ´nica τ “global”. En general, para cada x ∈ Rn existe un entorno abierto Ux de x, un x ) ∈ R y ∂ una u ´nica aplicaci´ on diferenciable τ : Ux × Ux → Rn , de modo que τ∗ ( ∂t ) = Dτ (t,x) y τ (0, x) = x. (t,x) n n Por tanto, si W = ∪x∈R Ux × Ux ⊂ R × R tenemos definida una u ´nica aplicaci´on diferenciable ∂ ) = D y τ (0, x) = x. τ : W → Rn , de modo que τ∗ ( ∂t τ (t,x) (t,x) Denotemos τt : U → Rn , τt (x) = τ (t, x). Se cumple que τt ◦ τs = τt+s (donde todo est´e definido). En efecto, cumplen el mismo sistema de ecuaciones diferenciales dτ (t, τ (s, x)) dτ (t + s, x) = F (τ (t, τ (s, x))), = F (τ (t + s, x)) dt dt y cumplen las mismas condiciones iniciales τ (0, τ (s, x)) = τ (s, x) = τ (0 + s, x). Se dice que τt (x) es el “grupo uniparam´etrico” asociado a D. Observemos que si fijamos un x ∈ Rn , obtenemos una curva σx : U −→ Rn , σx (t) = τ (t, x) P ∂ ∂ )t ) = i τi (t,x) en Rn cuyo campo tangente en σx (t) = τ (t, x) es σx,∗ (( ∂t dt ( ∂xi )σx (t) = Dσx (t) . Se dice que σx es la curva integral de D en x. Sea W ⊂ R×Rn un abierto conexo m´aximo, que contenga a 0×Rn y para el que existe τ : W → Rn ∂ una (´ unica) aplicaci´ on diferenciable tal que τ∗ ( ∂t ) = Dτ (t,x) y τ (0, x) = x. Sean y = (t, x) ∈ W , (t,x) U = (, ), Uy entorno abierto de y y τ : U × Uy → Rn . Si Ux es un entorno abierto conexo de x tal que τt (Ux ) ⊆ Uy , entonces la aplicaci´ on τ˜ : (t − , t + ) × Ux → Rn , τ˜((t0 , x0 )) := τt0 −t (τt (x0 )), coincide n con τ : W → R sobre W ∩ ((t − , t + ) × Ux ). Por tanto, (t − , t + ) × Ux ⊆ W . Es f´acil concluir τ que, dado x ∈ Rn entonces (R × x) ∩ W → Rn es la curva integral m´axima de D que pasa por x. Reducci´ on local de un campo a forma can´ onica Si F : U → V es un difeomorfismo entre abiertos de Rn , “entonces todo lo que digamos en U podemos traducirlo a V ”. Dada una funci´on en g en U , tenemos la correspondiente funci´on en V : g ◦F −1 . Dada una derivaci´ on D en U , tenemos la derivaci´on F (D) en V , determinada por el diagrama conmutativo C ∞ (U )
F ∗−1
C ∞ (V ) F (D)
D
C ∞ (U )
F ∗−1
C ∞ (V )
∂ Es decir, F (D)g := D(g ◦ F ) ◦ F −1 . Puede comprobarse que F (D)F (α) = F∗ Dα . D = ∂x en 1 ∂ un sistema de coordenadas x1 , . . . , xn si y s´olo si F (D) = ∂y1 en el sistema de coordenadas y1 = x1 ◦ F, . . . , yn = xn ◦ F . Sigamos las notaciones del apartado anterior. Supongamos que Dp 6= 0, por tanto fi (p) 6= 0 para alg´ un i. No hay p´erdida de generalidad si suponemos que f1 (p) 6= 0. Sea V = {(y1 , y2 , . . . , yn ) ∈ Rn tales que (y1 , x1 (p), y2 , . . . , yn ) ∈ U × U } y consideremos la composici´on de morfismos i
τ
V ,→ U × U → Rn (y1 , y2 , . . . , yn ) 7→ (y1 , x1 (p), y2 , . . . , yn ) A nivel tangente tenemos ∂ ∂y1 ∂ ∂yi
i
∗ 7→
i
∗ 7→
∂ ∂t ∂ ∂xi ,
∂ ∂t
i>1
∂ )0,q ( ∂x i
τ
∗ 7→ D P τ∗ 7→ ( j
∂τj (0,x) ∂xi
·
∂ ∂xj )q
∂ = ( ∂x )q i
2.11.
Ap´endice 3. Inmersi´on de variedades compactas
61
En conclusi´ on, la matriz de (τ ◦ i)∗ en el punto (0, p2 , . . . , pn ) es f1 (p) 0 . . . 0 f2 (p) 1 . . . 0 .. .. .. . . . fn (p) 0 . . . 1 Luego τ ◦ i es un difeomorfismo de un entorno abierto V 0 de (0, p2 , . . . , pn ) con un entorno abierto U de p y tenemos V0 ' U ∂ ↔ D ∂y1 y en las coordenadas z1 = y1 ◦ (τ ◦ i)−1 , . . . , zn = yn ◦ (τ ◦ i)−1 , D = ∂z∂ 1 . Sea wr una r-forma diferencial en un abierto U ⊂ Rn y D una derivaci´on. Veamos que τt∗ (wr ) − wr t→0 t
DL wr = lim
Si Dp 6= 0 entonces en un entorno V de p, D = ∂z∂ 1 en cierto sistema de coordenadas z1 , . . . , zn . Entonces P τt ((z1 , . . . , zn )) = (z1 + t, z2 , . . . , zn ), como es de comprobaci´on inmediata. Escribamos wr = fi1 ...ir · dzi1 ∧ · · · ∧ dzir , entonces en V X ∂fi ...i τt∗ (wr ) − wr 1 r = · dzi1 ∧ · · · ∧ dzir = DL wr t→0 t ∂z1 lim
Si D = 0 en un entorno abierto V de p entonces τt (x) = x para todo x ∈ V , como es de τ ∗ (w )−w comprobaci´ on inmediata. Entonces en V , DL wr = 0 = limt→0 t rt r . En conclusi´ on, DL wr = limt→0
2.11
τt∗ (wr )−wr t
en un abierto denso de puntos de U , luego son iguales.
Ap´ endice 3. Inmersi´ on de variedades compactas
1. Definici´ on : Sea φ : Y → X una aplicaci´on diferenciable entre dos variedades. Se dice que φ es una inmersi´ on local en y ∈ Y si la aplicaci´on lineal tangente en y es inyectiva. Obviamente φ es una inmersi´ on local en y si y s´olo si la aplicaci´on lineal cotangente φ∗ : mφ(y) /m2φ(y) → my /m2y es epiyectiva. En este caso, si dφ(y) x1 , . . . , dφ(y) xn es una base de mφ(y) /m2φ(y) , reordenando la base, podemos suponer que dy (x1 ◦ φ), . . . , dy (xr ◦ φ) es una base de my /m2y . Sea V un entorno abierto de y en el que y1 = x1 ◦ φ, . . . , yr = xr ◦ φ sean un sistema de coordenadas. Por tanto, para j > r, xj ◦ φ = fj (x1 ◦ φ, . . . , xr ◦ φ), para ciertas funciones diferenciables fj . Las funciones z1 = x1 , . . . , zr = xr , zr+1 = xr+1 − fr+1 (x1 , . . . , xr ), . . . , zn = xn − fn (x1 , . . . , xr ) son un sistema de coordenadas en un entorno U de φ(y). Reduciendo V si es preciso para que φ(V ) ⊂ U , tenemos φ:
V, {x1 , . . . , xr } → U, {z1 , . . . , zn } p = (p1 , . . . , pr ) 7→ φ(p) = (p1 , . . . , pr , 0, . . . , 0)
Rec´ıprocamente, si existen sistemas de coordenadas en los que φ se expresa de este modo entonces φ es una inmersi´ on local.
62
Cap´ıtulo 2.
C´alculo Tensorial en Geometr´ıa Diferencial
2. Definici´ on : Sea φ : Y → X una aplicaci´on diferenciable entre dos variedades. Se dice que φ es una inmersi´ on si φ es inyectiva e inmersi´on local an cada punto. A pesar del nombre, puede ocurrir que la imagen de Y no se identifica con una subvariedad de X, como sucede con el “ocho” en el plano, parametrizado convenientemente. Ahora bien, si adem´as φ : Y → φ(Y ) es un homeomorfismo entonces φ(Y ) es una subvariedad diferenciable de X y adem´as φ : Y → φ(Y ) es un difeomorfismo. 3. Observaci´ on : Si Y es compacta, entonces φ : Y → φ(Y ) es un homeomorfismo, y, por tanto, φ(Y ) es una subvariedad de X. Sea X una variedad diferenciable compacta. Queremos encontrar una inmersi´on φ = (f1 , . . . , fm ) : X → Rm , con lo cual, tendremos identificada la variedad X con una subvariedad de Rm . 4. Proposici´ on : Sea φ = (f1 , . . . , fm ) : X → Rm una aplicaci´ on diferenciable. Entonces, φ es una inmersi´ on si y s´ olo si las funciones f1 , . . . , fm separan puntos de X y separan vectores tangentes de X. (Separan puntos si, para cualesquiera x, x0 ∈ X entonces fi (x) = fi (x0 ) para todo i, si y s´ olo si x = x0 . Separan vectores tangentes si, para todo punto x ∈ X y todo par de vectores tangentes Dx , Dx0 ∈ Tx X se cumple que si dx fi (Dx ) = dx fi (Dx0 ), para todo i, entonces Dx = Dx0 ). Demostraci´ on. Que separe puntos equivale a que φ sea inyectiva. Que separe vectores tangentes equivale a que la aplicaci´ on lineal tangente sea inyectiva en todo punto. 5. Teorema de inmersi´ on en el caso compacto: Toda variedad diferenciable compacta es difeomorfa a una subvariedad diferenciable de alg´ un Rm . Demostraci´ on. Buscamos funciones f1 , . . . , fm que separen puntos y separen vectores tangentes. Sea U1 , . . . , Ur un recubrimiento finito por abiertos coordenados de X y {ui1 , . . . , uin } el sistema de ∞ coordenadas en UP on de la unidad subordinada al recubrimieni . Sea {f1 , . . . , fr } ⊂ C (X) una partici´ to (sop fi ⊂ Ui , i fi = 1). Consideremos ahora la siguiente colecci´on de funciones {fi , fi · uik }i,k , todas definidas en X, si extendemos fi · uik por cero fuera del abierto Ui . Comprobemos que esta colecci´ on separa puntos y vectores tangentes, y con ello habremos acabado la demostraci´ on. Separan puntos: dados dos puntos x, x0 ∈ X, para alg´ un j se cumple fj (x) 6= 0. Si 0 6= fj (x) = fj (x0 ) entonces x, x0 ∈ Uj . Ahora ya, si fj (x) · ujk (x) = fj (x0 ) · ujk (x0 ) para todo k, entonces ujk (x) = ujk (x0 ) y x = x0 . Separan vectores tangentes: Dados dos vectores tangentes Dx , Dx0 ∈ Tx X, existe i tal que fi (x) 6= 0. Si dx fi (Dx ) = dx fi (Dx0 ) y dx (fi ·uik )(Dx ) = dx (fi ·uik )(Dx0 ) para todo k, entonces fi (x)dx uik (Dx ) = fi (x)dx uik (Dx0 ) para todo k. Por tanto, dx uik (Dx ) = dx uik (Dx0 ) para todo k y Dx = Dx0 .
Cap´ıtulo 3
Aplicaciones de la teor´ıa 3.1
Sistemas de ecuaciones lineales. Regla de Cramer
Consideremos el sistema de ecuaciones lineales ··· ... λ1m x1 + · · ·
λ11 x1 +
+λn1 xn = b1 +λnm xn = bm
Sea T : Rn → Rm la aplicaci´ on lineal de matriz asociada (λij ) en las bases est´andar y e0 = (b1 , . . . , bm ). Las soluciones del sistema de ecuaciones lineales se corresponden con los vectores e = (x1 , . . . , xn ) ∈ Rn tales que T (e) = e0 . Sea T : E → E 0 una aplicaci´ on k-lineal entre k-espacios vectoriales de dimensi´on finita. 1. Definici´ on : Se llama rango de T , que denotaremos rango T , a la dimensi´on de Im T . Como E/ Ker T = Im T , e¯ 7→ T (e), se tiene que rango T = dim Im T = dim E − dim Ker T . Si {e1 , . . . , en } es una base de E, entonces Im T = hT (e1 ), . . . , T (en )i y hemos definido rango T como el n´ umero m´ aximo de T (ei ) que son linealmente independientes entre s´ı. Si (λij ) es una matriz asociada a T entonces rango T es el n´ umero m´aximo de columnas Plinealmente independientes entre s´ı. Sea {v1 , . . . , vn } una base de un espacio vectorial V y ui = j λij vj , 1 ≤ i ≤ s. Tendremos que X u1 ∧ · · · ∧ us = λj1 ,...,js vj1 ∧ · · · ∧ vjs Calculemos λj1 ,...,js . Sea i : hu1 , . . . , us i ,→ V , la inclusi´on y π : V → hvj1 , . . . , vjs i tal que π(vj ) = 0 si j 6= {j1 , . . . , js } y π(vji ) = vji , para 1 ≤ i ≤ s. Entonces det(π ◦ i) · vj1 ∧ . . . ∧ vjs = Λs (π ◦ i)(u1 ∧ · · · ∧ us ) = Λs (π)(u1 ∧ · · · ∧ us ) X = Λs π( λj10 ,...,js0 vj10 ∧ · · · ∧ vjs0 ) = λj1 ,...,js vj1 ∧ · · · ∧ vjs En conclusi´ on, λj1 ,...,js = det( (λij )j∈{j1 ,...,js } ) Recordemos que u1 , · · · , us son linealmente independientes si y s´olo u1 ∧ · · · ∧ us 6= 0, luego u1 , . . . , us son linealmente independientes si y s´ olo si alg´ un λj1 ,...,js 6= 0. 63
64
Cap´ıtulo 3.
Aplicaciones de la teor´ıa
2. Proposici´ on : Sea (λij ) una matriz asociada a T : E → E 0 . El rango de T es el m´ aximo de los ordenes de los menores de la matriz (λij ) de determinante no nulo. ´ Demostraci´ on. Sea {e1 , . . . , en } una base de E y {e01 , . . . , e0m } una base de E 0 de modo que T (ei ) = P 0 λ e . El rango de T es el n´ umero m´aximo de los T (e1 ), . . . , T (en ) linealmente independientes. j ij j 3. Corolario : El n´ umero m´ aximo de columnas linealmente independientes de una matriz coincide con el n´ umero m´ aximo de filas linealmente independientes. Dada una aplicaci´ on lineal T : E → E 0 , e0 ∈ E 0 cumple que e0 ∈ Im T si y s´olo si dim Im T = 0 dim As´ı pues, si {e1 , . . . , en } es una base de E, {e01 , . . . , e0m } es una base de E 0 , T (ei ) = P Im T0 + he0 i. P 0 0 olo si el rango de la matriz (λij ) es igual al j λij ej y e = j bj ej , tendremos que e ∈ Im T si y s´ rango de la matriz (λij ) ampliada por la columna (b1 , . . . , bm ). Supongamos que el sistema de ecuaciones lineales ··· ... λ1m x1 + · · ·
λ11 x1 +
+λn1 xn = b1 +λnm xn = bm
tiene soluci´ on. Supongamos que el menor M obtenido de las columnas {i1 , . . . , ir } y filas {j1 , . . . , jr } de la matriz (λij ) es de determinante no nulo (r = rango T ). Por tanto, las filas j 0 ∈ / {j1 , . . . , jr } dependen linealmente de las filas j1 , . . . , jr y para calcular las soluciones del sistema las podemos quitar. Pasemos las variables xi0 , con i0 ∈ / {i1 , . . . , ir } al otro lado de la igualdad. Tendremos que P P bj1 − i0 ∈{i bj1 − i0 ∈{i xi1 xi1 / 1 ,...,ir } λi0 j1 xi0 / 1 ,...,ir } λi0 j1 xi0 . .. .. −1 M · ... = ⇒ .. = M · . . P P 0 0 0 0 xir bjr − i0 ∈{i λ x x b − λ x 0 ir jr / 1 ,...,ir } i jr i i ∈{i / 1 ,...,ir } i jr i
3.2
M´ aximos y m´ınimos bajo condiciones
Sea U un entorno abierto de a ∈ R y f (x) ∈ C 1 (U ). 1. Proposici´ on : Si f (x) alcanza un m´ aximo relativo en a (es decir, f (a) ≥ f (x), para todo x ∈ V , para cierto entorno abierto V de a, V ⊂ U ) entonces f 0 (a) = 0. Demostraci´ on. En efecto, tenemos que f (x) = f (a) + h(x) · (x − a), donde h(x) ∈ C(U ) y h(a) = f 0 (a). Si h(a) > 0 entonces en un entorno (a − , a + ) la funci´on h(x) ser´a estrictamente mayor que cero, entonces f (x) > f (a) para x ∈ (a, a + ) (y f (x) < f (a) para x ∈ (a − , a)). Llegamos a contradicci´ on. Del mismo modo se llega a contradicci´on si h(a) < 0. Sea ahora U un entorno abierto de a ∈ Rn y f (x) ∈ C 1 (U ). 2. Proposici´ on : Si f (x) alcanza un m´ aximo relativo en a entonces da f = 0. Demostraci´ on. Por la proposici´ on anterior la variable xi ).
∂f ∂xi (a)
= 0 para todo xi (considerando f como funci´on en
3. Proposici´ on : Supongamos ahora que f (x) ∈ C 2 (U ) y que da f = 0. Tenemos que f (x) = f (a) + (x − a) · H(x) · (x − a)t , siendo H(x) una matriz sim´etrica (de funciones continuas) y H(a) = 2 f ( ∂x∂i ∂x (a)). Si H(a) es una matriz no singular entonces j
3.3.
Longitudes, ´areas y vol´ umenes
65
2
f 1. f (x) alcanza un m´ aximo relativo en a si y s´ olo si ( ∂x∂i ∂x (a)) es definida negativa. j 2
f (a)) es definida positiva. 2. f (x) alcanza un m´ınimo relativo en a si y s´ olo si ( ∂x∂i ∂x j
Demostraci´ on. H(a) es una matriz definida positiva si y s´olo si para todo v ∈ S n , v · H(a) · v t > 0. Si H(a) es definida positiva entonces H(x) es definida positiva en un entorno de a, y por tanto en ese entorno f (x) > f (a), para x 6= a, y a es un m´ınimo relativo. Del mismo modo se razona si H(a) es definida negativa. Nos falta ver que si H(a) no es definida positiva ni negativa entonces a no es m´ınimo ni m´aximo t relativo. Existen v, v 0 ∈ S n de modo que v · H(a) · v t < 0 y v 0 · H(a) · v 0 > 0. Existe un entorno t 0 0t abierto V de a, de modo que v · H(x) · v < 0 y v · H(x) · v > 0, para todo x ∈ V . Por tanto, para 0 x = a + nv , para todo n >> 0, se tiene que f (x) < f (a) y para x = a + vn , para todo n >> 0, se tiene que f (x) > f (a). Sea ahora Y ⊂ Rn una subvariedad diferenciable. Dada una funci´on f (x1 , . . . , xn ) nos planteamos si f|Y alcanza un m´ aximo (o un m´ınimo) relativo en a ∈ Y . Recordemos que podemos identificar (localmente) Y con un abierto de Rn−r y por tanto podemos aplicar la teor´ıa reci´en desarrollada. En efecto, sea un abierto U ⊂ Rn y un sistema de coordenadas y1 , . . . , yn en U de modo que U ∩ Y ≡ y1 = . . . = yr = 0. Tenemos que f (x1 , . . . , xn ) = g(y1 , . . . , yn ) y f|Y = g(0, . . . , 0, yr+1 , . . . , yn ). Es decir, podemos considerar f|Y como una funci´on diferenciable en las variables yr+1 , . . . , yn . Por tanto si a es un m´aximo o un m´ınimo relativo de f|Y entonces ¯ a /m ¯ 2a , donde m ¯ a es el ideal de todas las funciones diferenciables de Y que se anulan 0 = da f|Y ∈ m ¯ α /m ¯ 2a = n − r. El epimorfismo natural ma → m ¯ a , h 7→ h|Y , define el en a. Observemos que dimR m epimorfismo ¯ =h ¯ |Y ¯ a /m ¯ 2a , π(h) π : ma /m2a → m Por tanto, da f|Y = 0 si y s´ olo si da f ∈ Ker π. Ker π contiene a da y1 = y¯1 , . . . , da yr = y¯r . Por dimensiones, Ker π = hda y1 , . . . , da yr i. En conclusi´on, si a es un m´aximo o m´ınimo relativo de f|Y entonces da f es combinaci´ on lineal de da y1 , . . . , da yr . Las funciones yr+1 , . . . , yn son un sistema de coordenadas en a de Y . Por tanto, si la matriz ∂2f
2
f |Y (a))i,j>r = ( ∂y∂i ∂y (a))i,j>r es no singular, entonces a es un m´aximo relativo en Y de f|Y ( ∂yi ∂y j j 2
f si es definida negativa. El problema que nos planteamos es como calcular ∂y∂i ∂y , suponiendo que j P ∂yj ∂ ∂ conocemos las funciones y en t´erminos de las x. Tenemos que ∂xi = j ∂xi · ∂yj , es decir,
∂ ∂x1
∂ ∂y1
∂ ∂y1
∂ ∂x1
∂yj . ∂yj −1 . .. ) · .. ⇒ ... = ( ) · .. . =( ∂x ∂x ∂ ∂xn
3.3
i
∂ ∂yn
∂ ∂yn
i
∂ ∂xn
Longitudes, ´ areas y vol´ umenes
El volumen (en dimensi´ on dos ´ area, en dimensi´on uno longitud) de una variedad diferenciable riemanniana es la integral de su forma de volumen. Longitud de una curva 1. Calculemos la longitud de una curva dada en cartesianas.
66
Cap´ıtulo 3.
Aplicaciones de la teor´ıa
Sea R → Rn , σ(t) = (x1 (t), . . . , xn (t)) una curva. Rn es una variedad riemanniana con la m´etrica T2 = dx1 ⊗ dx1 + · · · + dxn ⊗ dxn . La curva σ con la m´etrica T2σ es una variedad riemanniana. X x0 i (t)2 · dt ⊗ dt T2σ = dx1 (t) ⊗ dx1 (t) + · · · + dxn (t) ⊗ dxn (t) = i
La forma de longitud de σ, wσ en la coordenada t es wσ = Z
t1
Longitud de σ entre t0 y t1 :=
pP
i
sX
t0
x0 i (t)2 · dt
x0 i (t)2 · dt
i
2. Ahora calculemos la longitud de una curva plana dada en coordenadas polares ρ, θ. Sea σ : R − {0} → R × S 1 , σ(t) = (ρ(t), θ(t)). Recordemos que la relaci´on entre las coordenadas cartesianas y las polares es x1 = ρ · cos θ, x2 = ρ · sen θ. Luego, dx1 = cos θ · dρ − ρ · sen θ · dθ dx2 = sen θ · dρ + ρ · cos θ · dθ y T2 = dx1 ⊗ dx1 + dx2 ⊗ dx2 = . . . = dρ ⊗ dρ + ρ2 dθ ⊗ dθ. Ahora ya, 2
2
T2|σ(t) = (ρ0 + ρ2 · θ0 ) · dt ⊗ dt y Z
t1
q
Longitud de σ entre t0 y t1 =
ρ0 2 + ρ2 · θ0 2 · dt
t0
3. Supongamos ahora que la curva viene dada en impl´ıcitas C ≡ p(x, y) = 0 (x, y las coordenadas ∂ ∂ cartesianas de R2 ). Un campo normal a la curva es D = T 2 (dp(x, y)) = px · ∂x + py · ∂y . Sea N = q px ·dy−py ·dx 2 2 D/ px + py . Por tanto, la forma de longitud de C es wC = iN (dx ∧ dy) = √ 2 2 . Supongamos px +py
que x, p(x, y) forman un sistema de coordenadas, entonces en C, 0 = dp(x, y) = px dx + py dy y dy = − ppxy · dx. En conclusi´ on si parametrizamos C por x, tenemos que Z Z x1 s px · dy − py · d p2 q Longitud de σ entre x0 y x1 = = ... = 1 + x2 · dx py C x0 p2 + p2 x
y
que coincide con el c´ alculo de 1., si consideramos la parametrizaci´on x 7→ (x, y(x)) (y es funci´on de x en en C), y recordamos que yx = − ppxy en C. ´ Area de una superficie 1. El ´area del c´ırculo de radio r, que en coordenadas polares es la regi´on C ≡ {0 < ρ ≤ r, 0 < θ ≤ 2π}, es igual a Z p Z Z r |T2 | · dρ ∧ dθ = 0 < ρ ≤ r ρ · dρ · dθ = 2π · ρdρ = π · ρ2 |r0 = π · r2 C
0 < θ ≤ 2π
0
El ´area de la regi´ on del plano limitada por la gr´aficaRde una funci´on y = f (x) (supongamos f (x) ≥ 0 y coordenadas cartesianas x, y) , es por definici´on A dx ∧ dy, donde A es la regi´on del plano
3.3.
Longitudes, ´areas y vol´ umenes
67
limitada por la gr´ afica L1 = {(x, f (x)) | a ≤ x ≤ b}, el eje OY, L2 {y = 0, a ≤ x ≤ b} y las rectas L3 = {x = a, 0 ≤ y ≤ f (a)}, L4 = {x = b, 0 ≤ y ≤ f (b)} (no me preocupo por las orientaciones, pero s´ı del resultado final). Por el teorema de Stokes Z
Z
Z
dx ∧ dy =
y · dx = L1 ∪···∪L4
A
b
Z y · dx =
L1
f (x) · dx a
2. Calculemos el ´ area del tri´ angulo T limitado por la gr´afica de una funci´on (dada en polares) ρ = ρ(θ) y el origen: Z p
´ Area del tri´ angulo T =
Z |T2 | · dρ ∧ dθ =
T
Z ρ · dρ ∧ dθ =
T
∂T
ρ2 · dθ = 2
Z
θ1
θ0
ρ(θ)2 · dθ 2
3. Calculemos el ´ area de la superficie S que se obtiene al girar la gr´afica de la funci´on f (x) alrededor del eje OX. Consideremos coordenadas cil´ındricas en R3 , x, ρ, θ, es decir, x = x, y = ρ sen θ, z = ρ cos θ. En estas coordenadas S = {ρ = f (x), a ≤ x ≤ b, 0 ≤ θ ≤ 2π}, x, θ son un sistema de coordenadas en S y dρ = df (x) = f 0 dx en S. 2 T2 = dx ⊗ dx + dρ ⊗ dρ + ρ2 dθ ⊗ dθ en coordenadas cil´ındricas. Por tanto, T2|S = (1 + f 0 ) · dx ⊗ 2 dx + f · dθ ⊗ dθ y
´ Area de S =
Z q Z q Z |T2|S | · dx ∧ dθ = 1 + f 0 2 · f · dx ∧ dθ = S
S
b
p 2πf (x) 1 + f 0 (x)2 · dx
a
Igualmente se tiene que el ´ area de la superficie S que se obtiene al girar la curva plana parametrizada (x1 (t), x2 (t)) alrededor del eje OX1 es Z
t1
2π · x2 (t) ·
q x01 (t)2 + x02 (t)2 · dt
(∗)
t0
El ´area de la superficie de la esfera (que se obtiene al girar la semicircunferencia {(r · cos t, r · sen t), 0 ≤ t ≤ π} alrededor del eje OX1 ) es Z
π
2π · r · sen t ·
√
r2 · dt = 4 · π · r2
0
El ´area de la superficie t´ orica que se obtiene al girar la circunferencia {(r · cos t, a + r · sen t)}, a ≥ r alrededor del eje 0X1 es Z
2π
2π · (a + r · sen t) ·
√
r2 · dt = 4 · π 2 · a · r
0
Veamos que la f´ ormula (∗) est´ a diciendo que el ´area de una superficie de revoluci´on es la longitud de una secci´ on por el per´ımetro de la circunferencia que describe el centro de gravedad de una secci´on: Si tenemos dos masas m y m0 en los puntos del plano x = (x1 , x2 ) y x0 = (x01 , x02 ) el centro de gravedad 0 ·m0 enea) en el plano, que troceamos en de ambas masas es x·m+x m+m0 . Si tenemos una curva (homog´
68
Cap´ıtulo 3.
Aplicaciones de la teor´ıa
incrementos ∆i , el centro de gravedad de la curva es
P xi ·∆i P p ∆i x01 (t)2
es decir, el centro de gravedad de la
curva C ≡ {(x1 (t), x2 (t)}, de forma de longitud wC = + x02 (t)2 · dt es R R R x · wC ( C x1 · wC , C x2 · wC ) C R = Long. C w C C El per´ımetro de la circunferencia (alrededor del eje OX1 ) que describe el centro de gravedad es R x2 wC 2π · C Long. C Por tanto, R
x2 · wC 2π · · Long. C = Long. C C
Z
t1
2π · x2 (t) ·
q
x01 (t)2 + x02 (t)2 · dt
t0
Vol´ umenes 1. Consideremos en el plano una regi´on A y sea V ⊂ R3 el cuerpo de revoluci´on obtenido al girar la regi´on S alrededor del eje OX1 . Sean x1 , x2 , x3 coordenadas cartesianas y x1 , ρ, θ coordenadas cil´ındricas, es decir, x1 = x1 , x2 = ρ · sen θ, x3 = ρ · cos θ. Un punto (x1 , x2 , x3 ) ∈ V ⇐⇒ (x1 , ρ) ∈ A y θ ∈ [0, 2π]. Por tanto, el volumen del cuerpo revoluci´on es Z Z Z Z dx1 ∧ dx2 ∧ dx3 = ρ · dx1 ∧ dρ ∧ dθ = 2πρ · dx1 ∧ dρ = 2πx2 · wA V
A×[0,2π]
A
A
donde wA es la forma de ´ area de A y la u ´ltima igualdad es un simple cambio de notaci´on. Argumentando como m´ as arriba el lector puede probar que el volumen de un cuerpo de revoluci´on es el es el ´area de una secci´ on por el per´ımetro de la circunferencia que describe el centro de gravedad de la secci´on. Calculemos el volumen del toro “macizo”, T oro, que se obtiene al girar el c´ırculo C de radio r y centrado en (0, a) alrededor del eje OX1 . Consideremos en el plano las coordenadas ρ, θ, con x1 = ρ sen θ y x2 = a + ρ cos θ, entonces Z
Z 2π · x2 · wC =
Vol. T oro = C
r
Z
4π 2 · a · ρ · dρ = 2 · π 2 · a · r2
2π(a + ρ cos θ) · ρ · dρ ∧ dθ = [0,r]×[0,2π]
0
Calculemos el volumen del cuerpo de revoluci´on obtenido al girar alrededor del eje OX el tri´angulo T de v´ertice el origen y lado opuesto un arco de curva ρ = ρ(θ) (en coordenadas polares). Z Vol. T =
Z
Z
T
θ1
2π · ρ · sen θ · ρ · dρ ∧ dθ =
2πx2 wT = 0<ρ≤ρ(θ),θ∈[θ0 ,θ1 ]
θ0
2π · ρ(θ)3 · sen θ · dθ 3
2. Calculemos el volumen del cuerpo de revoluci´on V obtenido al girar alrededor del origen, pasando por el eje OZ cada punto del tri´angulo de v´ertice el origen y lado opuesto un arco de curva Rβ ρ = f (θ) es 43 α f 3 (θ) dθ. Consideremos coordenadas esf´ericas ρ, θ, φ, es decir, x1 = ρ cos θ cos φ,
x2 = ρ sen θ cos φ,
x3 = ρ sen φ
3.4.
Ejemplos en F´ısica
69
Entonces (x1 , x2 , x3 ) ∈ V ⇐⇒ θ0 ≤ θ ≤ θ1 , 0 ≤ φ ≤ 2π y 0 < ρ ≤ ρ(θ) y Z Z Z Z 4 θ1 Vol. V = dx1 ∧ dx2 ∧ dx3 = ρ2 | cos φ| · dρ ∧ dθ ∧ dφ = 4ρ2 · dρ ∧ dθ = ρ(θ)3 · dθ 3 V θ0 La esfera de radio r se obtiene al girar la curva ρ = r (con θ ∈ [0, π]) alrededor del origen, luego su volumen es 34 πr3 . Hipervolumen Calculemos el volumen de la bola de radio r, B = {(x1 , . . . , x4 ) | x21 + . . . + x24 ≤ r2 }, de R4 . Consideremos coordenadas hiperesf´ericas ρ, θ, φ, ϕ, es decir, x1 = ρ cos θ cos φ cos ϕ,
x2 = ρ sen θ cos φ cos ϕ,
x3 = ρ sen φ cos ϕ,
x4 = ρ sen ϕ
B = {0 < ρ ≤ r, 0 ≤ θ < 2π, −π/2 ≤ φ ≤ π/2, −π/2 ≤ ϕ ≤ π/2} y dx1 ∧ · · · ∧ dx4 = ρ3 cos φ cos2 ϕ · dρ ∧ dθ ∧ dφ ∧ dϕ y Z π2 r4 Vol. B. = ρ3 cos φ cos2 ϕ · dρ ∧ dθ ∧ dφ ∧ dϕ = 2 [0,r]×[0,2π]×[−π/2,π/2]×[−π/2,π/2]
3.4
Ejemplos en F´ısica
Quiero establecer justificadamente los principios m´ınimos o b´asicos de la f´ısica Newtoniana y la Relativista. “Todo individuo tiene conocimiento s´olo de un entorno relativamente peque˜ no (infinitesimal) suyo. En cada instante de tiempo y lugar el individuo observar´a un tiempo y un espacio”. El espacio f´ısico X en una variedad diferenciable de dimensi´on cuatro (infinitesimalmente Tx X = R4 ). Dar un individuoobservador es dar una curva C ,→ X (curva espacio-temporal) y un punto c ∈ C digamos que es el individuo en un instante y lugar determinados. “Cada individuo infinitesimalmente tiene una concepci´on de tiempo y espacio, romper´a su realidad observada en dos bien diferenciadas: tiempo y espacio. Adem´as suponemos que cada individuo le puede comunicar a uno cercano qu´e hora tiene y qu´e lugar ocupa. Infinitesimalmente el individuo rompe su realidad f´ısica en tiempo y espacio y lo puede comunicar”. Es decir, Tc X = Tc C ⊕ Ec , donde diremos que Tc C es el tiempo infinitesimal del individuo-observador C en c y Ec es el espacio del observador C en c. La condici´ on de comunicabilidad (que no hemos expresado o detallado con rigor) se traduce en que Tc X sucede una de las dos posibilidades siguientes: 1. Existe una m´etrica sim´etrica (de Lorentz) que en una base ortogonal es de la forma 1 0 0 0 0 −1 0 0 0 0 −1 0 0 0 0 −1 y Ec = T c C ⊥ . 2. Existe una m´etrica sim´etrica que en una base ortogonal es de la forma 1 0 0 0 0 0 0 0 T2 ≡ 0 0 0 0 0 0 0 0 y Ec = rad T2