Principia mathematica PDF

Title Principia mathematica
Author Manuel Rayo
Course Matemáticas
Institution UNED
Pages 18
File Size 943.7 KB
File Type PDF
Total Downloads 107
Total Views 136

Summary

Recopilatorio de matemáticas...


Description

MATRICES Operaciones con matrices: Suma Dos matrices del mismo orden mxn: A-B = A+(-B) = (aij - bij)mxn Multiplicación por un número: r*(aij) = (r*aij) Multiplicación de matrices: El producto de una matriz fila por una matriz columna sólo se pude llevar a cabo cuando la primera tiene tamaño 1xn y la segunda nx1 (las dos tienen el mismo número de componentes) y el resultado de la operación será una matriz 1x1 (un número real). La multiplicación de matrices sólo está definida si el número de columnas de A es igual al número de filas de B Propiedades: Si existe el producto (A*B)*C, entonces coincide con A*(B*C) (asociativa) Si existe el producto A*(B+C), entonces coincide con A*B+A*C (distributiva por la izquierda) Si existe el producto (A+B)*C, entonces coincide con A*C+B*C La multiplicación de matrices no es conmutativa, de hecho: AB≠BA, salvo en casos especiales AB=0 no implica que A o B sea 0 AB=AC con A≠0 no implica que B=C Si A es una matriz de orden mxn, e I es la matriz identidad (diagonal principal unos, resto ceros) de orden n, entonces A*In = In*A = A La matriz traspuesta de A (At) es aquella cuyas filas son las columnas de A situadas en el mismo orden.

Propiedades: (At)t = A (A+B)t = At + Bt (r*A)t = r*At (A*B)t = Bt * At La matriz simétrica es la matriz cuadrada (igual número de filas que de columnas) que coincide con su traspuesta: At = A La matriz ortogonal es aquella matriz cuadrada cuyo producto por su traspuesta da la matriz unidad: A*At = I Determinante Determinante de orden 2 a b = ad-bc c d Ejemplo: 4 3 = 11 7 8 Determinante de orden 3 Sarrus

Ejemplos:

Propiedades de los determinantes El determinante de una matriz cuadrada coincide con el de su traspuesta: |At | = |A| Si intercambiamos entre sí dos líneas paralelas, el determinante cambia de signo |3 2| |-1 5| = 17 |-1 5| |3 2| =-17 El determinante con dos líneas paralelas vale 0

( ) 3−18 012 3−18

= 24-6-24+6 = 0

Si los elementos de una línea (o columna) de A se multiplican por un número, el determinante queda multiplicado por ese número. Si dos líneas (o columnas) de A son proporcionales el determinante es 0

a b c d e f ra rb rc

=0

Si una línea es combinación lineal (suma o resta de múltiplos) de otras paralelas, el determinante es 0 Si una fila o una columna son todo ceros el determinante es cero. Si tiene dos filas o dos columnas iguales el determinante es cero. Además: |At| = |A| |AB| = |A|*|B| |A + B|≠ |A|+|B| (usualmente) Matriz inversa de matriz 2x2

Matriz inversa de un matriz cuadrada Tenemos que comprobar que A*A-1 = I así como A-1 * A=I El conocer A-1 nos permite resolver ecuaciones matriciales Para que exista la matriz inversa el determinante tiene que ser distinto de cero |A| ≠ 0 y por tanto: A-1 =

¿ A∨¿ 1/¿

* adj(A)t, donde:

Otras importantes propiedades de la matriz inversa son: (A-1)-1 = A (AB)-1 = B-1 * A-1 (At)-1 = (A-1)t (cA)-1 =c-1A-1 Para hallar los adjuntos se cambia de signos los indicados en la matriz (rombo) ¿ −¿ ¿−¿ ¿ −¿

REGLA DE CRAMER La regla de Cramer se aplica para resolver sistemas de ecuaciones lineales que cumplan las siguientes condiciones:  El número de ecuaciones es igual al número de incógnitas.  El determinante de la matriz de los coeficientes es distinto de cero. Tales sistemas son sistemas compatibles determinados y se denominan sistemas de Cramer

Sea Δ el determinante de la matriz de coeficientes.

Todo sistema de Cramer tiene una sola solución (es decir, es un sistema compatible determinado) que viene dada por las siguientes expresiones:

Δ1, Δ2 , Δ3, ... , Δn son los determinantes que se obtiene al sustituir los coeficientes del 2º miembro (los términos independientes) en la 1ª columna, en la 2ª columna, en la 3ª columna y en la enésima columna respectivamente.

...

Ej empl os 1

Vectores Considerando la matriz a = (a1, a2….an) (un vector fila) 1xn o como un vector columna nx1 a’. El producto escalar de n vectores a y b se define como: n

a*b=a1b1 + a2b2+…..+anbn =

∑ a ibi i=1

Si a y b son vectores y α un escalar: a*b=b*a a*(b+c) = a*b+a*c (α*a)*b=a*(α*b)= α (a∗b)

La norma euclidiana (módulo) El módulo de un vector es la raíz cuadrada de la coordenada x al cuadrado más la coordenada «y» al cuadrado

Desigualdad de Cauchy-Schwarz Sil osnúmer osx …, xnyl osnúmer osy1, …, ynl oses c r i bi mosc omove c t or e sdeRn, e s 1, de c i r ,x=( x1, x , …, xn) , y=( y1, y2, …, yn)e nt onc e se lmi e mbr o de l ai zqui e r da de l a 2 de s i gua l da d deCa uc hySc hwa r z no e sot r ac os aquee lc ua dr ado de lpr oduc t o e s c a l arx⋅yde e s t os dos ve c t or e s( r e c or de mos que e lpr oduc t oe s c al a r de dos ve c t or e se sl as umadel ospr oduc t osdel a sc ompone nt e sc or r e s pondi e nt e s )ye l mi e mbr odel ade r e c hat i e nedosf a c t or e s :unodee l l ose lmódul ode lve c t orxal

c ua dr a doye lot r oe lmódul ode lve c t oryalc uadr ado.Side not a mospor|x|e| y|ae s t osmódul os , pode mose s c r i bi rl ade s i gua l da dc omo 2 ( x⋅y) ≤ |x |2⋅|y|2.

Elmódul odeunve c t ors i e mpr ee sma yoroi gua lquec e r o( e sc e r os ól oc ua ndoe l ve c t ort i e net oda ss usc ompone nt e sc e r o)pe r oe lpr oduc t oe s c al a rnot i e nepor qué l ue go ,s iqui t ár a mosl osc ua dr adosdee s a se xpr e s i one ss e gui r í as i e ndo c i e r t al a de s i gua l da d,pe r oha br í amospe r di doi nf or mac i ón.Unaf or madea r r e gl a re s t oe s e s c r i bi r |x⋅y|≤|x |⋅|y|( obs e r vaquee lmi e mbr odel ai z qui e r danoe sunmódul o s i nounval ora bs ol ut o) .Di c hodeot r af or ma ,e lpr oduc t oe s c al a rdedosve c t or e sno s upe r anunc ae lpr oduc t odes usmódul os . Lai gua l da ds eal c anzac uandol osdosvec t or e ss onpr opor c i onal e sol i ne al me nt e de pe ndi e nt e s .

|a+b| ≤ |a| + |b|

El ángulo que forman los vectores a y b en R se define como: cos

¿ a∨¿∨b∨¿ θ=(a∗b)/¿

Si y sólo si a*b = 0, θ=π /2 = 90, siendo entonces los vectores perpendiculares u ortogonales

COMBINACIÓN LINEAL Una combinación lineal de dos o más vectores es el vector que se obtiene al sumar esos vectores multiplicados por escalares

v  = a1 v 

+ a2 v  +….+ an v 

n

Cualquier vector se puede poner como combinación línea de otros que tengan distinta dirección1 1 La dirección de un vector es la medida del ángulo que hace con una línea horizontal

w 

= 2 u  + 3 v 

Esta combinación lineal es única

Vectores linealmente dependientes Varios vectores libres del plano se dice que son linealmente dependientes si hay una combinación lineal de ellos que es igual al vector cero, sin que sean cero todos lo coeficientes de la combinación lineal. a1 v 

1

+ a2 v 

2

+…..+ an v 

n

=0

Propiedades: 1. Si varios vectores son linealmente independientes, entonces al menos uno de ellos se puede expresar como combinación lineal de los demás. También se cumple el reciproco: si un vector es combinación lineal de otros, entonces todos los vectores son linealmente dependientes. 2. Dos vectores en el plano son linealmente dependientes si, y sólo si, son paralelos. 3. Dos vectores libres de plano u  = (u1, u2), v  = (v1, v2) son linealmente dependientes si sus componentes son proporcionales. v1 u2

v2 =K u2

=

4. n vectores en R cero.

n

son linealmente dependientes si su determinante es igual a

Vectores linealmente independientes Varios vectores son linealmente independientes si ninguno de ellos puede ser escrito como una combinación lineal de los restantes, de manera que si la combinación lineal es igual a cero, entonces cada uno de sus coeficientes es igual a cero a1 v 

1

+ a2 v 

2

+…..+ an v 

n

= 0 → a1 = a2 = … = an = 0

Los vectores linealmente independientes tienen distinta dirección y sus componentes no son proporcionales. n vectores en R cero

n

son linealmente independientes si su determinante es distinto de

SISTEMAS DE ECUACIONES LINEALES. CLASIFICACIÓN Y NOTACIÓN MATRICIAL Una ecuación lineal es una expresión del tipo:

En ella, las variables x1, x2, x3, ... , xn, son las incógnitas de la ecuación y pueden tomar cualquier valor real. a1, a2, a3, ... , an, son números reales fijos y reciben el nombre de coeficientes de las incógnitas. Por último, el número real b se llama término independiente. Un sistema de m ecuaciones lineales con n incógnitas, tiene como expresión general la siguiente:

Donde: aij, i = 1, 2, 3, ... , m ; j = 1, 2, 3, ... , n son números reales fijos, que reciben el nombre de coeficientes del sistema. x1, x2, x3, ... , xn, son las incógnitas del sistema. b1, b2, b3, ... , bm, son también números reales fijos y se llaman términos independientes. Si todos los términos independientes son nulos, el sistema se llama homogéneo. Resolver un sistema de ecuaciones lineales es hallar, si existen, los números reales que pueden tomar las incógnitas de modo que se satisfagan a la vez todas las ecuaciones. Una solución de un sistema de ecuaciones lineales es un conjunto de números reales (s1, s2, s3, ..., sn), tales que, al sustituir x1 por s1, x2 por s2, x3 por s3, ... , xn por sn se verifiquen simultáneamente todas las ecuaciones. Los sistemas de ecuaciones lineales se pueden clasificar, en función de sus soluciones, del siguiente modo: 

Compatibles: Tienen al menos una solución. Además, un sistema no puede tener 2, 3, 4, ... , k soluciones. O tiene una o tiene infinitas. En consecuencia,

los sistemas compatibles, pueden ser: o Determinados: La solución es única. o Indeterminados: Tienen infinitas soluciones. 

Incompatibles: No admiten ninguna solución.

Un sistema de m ecuaciones lineales con n incógnitas se puede escribir en forma matricial del siguiente modo: A X = B. La matriz A se llama matriz del sistema, es de dimensión m x n y sus elementos son los coeficientes de las incógnitas. La matriz X es una matriz columna, de dimensión n x 1, formada por las incógnitas del sistema. Por último, la matriz B es otra matriz columna, de dimensión m x 1, formada por los términos independientes. Es decir:

Además, se llama matriz ampliada del sistema, que representaremos por A*, a la matriz de dimensión m x (n+1) que se obtiene a partir de la matriz A, añadiéndole la columna formada por los términos independientes, es decir:

Son linealmente independientes si el determinante de la matriz es distinto de cero. |A|≠0

Si la matriz cuadrada Anxm es invertible, entonces el sistema cuadrado A x tiene solución única para todo b EL RANGO DE UNA MATRIZ

=

b

El rango de una matriz A, r(A), es el máximo número de vectores columna linealmente independientes de A. Si A es matriz cero, pondremos r(A) = 0 Los n vectores columna de A son linealmente independientes si y solo si |A| ≠0 El rango de una matriz A es igual al rango de su traspuesta r(a) = r(A t) El rango de una matriz r(A) es igual al orden del mayor menor de A que es diferente de 0

PRINCIPALES RESULTADOS EN SISTEMAS LINEALES Considere el sistema lineal general con m ecuaciones simultaneas y n incógnitas:

Y la matriz ampliada A*:

La relación entre el rango de ambas matrices es crucial para determinar si el sistema tiene solución. Como la matriz ampliada tiene una columna más su rango es mayor o igual al de la matriz original, no pudiendo ser mayor que r(A)+1 Una condición necesaria y suficiente para que un sistema lineal de ecuaciones sea consistente (esto es, que al menos tenga una solución) es que el rango de la matriz de coeficiente sea igual que el rango de la matriz ampliada: Ax = b tiene solución → r(A) = r(A*) Si el rango (A) = rango (A*) = n (número de incógnitas), el sistema es compatible determinado (tiene una única solución). Si r(A) = r(A*) < n. el sistema es compatible indeterminado (infinitas soluciones)

Si r(A) ≠ r(A*), es sistema es incompatible (no tiene solución) Un caso particular es el de los sistemas homogéneos, es decir, aquellos en los que todos los términos independientes son nulos. Pues, en este caso, las matrices A y A* son semejantes a efectos de cálculo del rango, dado que la matriz A* es la matriz A a la que le añade una columna de ceros, que podemos suprimir para calcular el rango. Por tanto, siempre que el rango de (A) = rango de (A*). Esto quiere decir que todos los sistemas homogéneos son siempre compatibles. Se cumple: 

 

     

Si r(A) = n (número de incógnitas), el sistema es compatible determinado. Tiene una única solución, que se conoce con el nombre de solución trivial. Es aquella en la que todas las incógnitas son nulas. Si r(A) < n el sistema es compatible indeterminado (infinitas soluciones). Si el sistema es compatible indeterminado, (r(A) = r(A*) = k < n) el valor común de los rangos (k) indica tanto el número de ecuaciones independientes o principales, como el número de incógnitas principales. Las restantes incógnitas (no principales) n – k (el sistema tiene entonces n – k grados de libertad) las pasaremos al segundo miembro formando un único termino junto al término independiente. Siguiendo este procedimiento obtendremos un sistema de k ecuaciones lineales con k incógnitas (principales), al que podremos aplicar uno de los siguientes procedimientos para su resolución: Regla de Cramer, método de Gauss o, por la matriz inversa. ! Fundamental! El rango del sistema, tras aplicar Gauss y siempre que no aparezcan absurdos matemáticos, es el número de ecuaciones no nulas. Si el rango coincide con el número de incógnitas, tendremos SCD y solución única. Si el rango es menor que el número de incógnitas, tendremos SCI e infinitas soluciones. El número de parámetros libres (grados de libertad) coincide con la diferencia del número de incógnitas y el rango. Y si encontramos un absurdo matemático, tendremos SI sin solución.

Combinación lineal Un vector es combinación lineal de la suma de otros vectores multiplicados por unos escalares. una línea Li es combinación lineal de otra línea paralela o de otras líneas paralelas si podemos expresar esa línea Li como suma/resta de las otras líneas y/o proporcional a otra línea

VECTORES PROPIOS Y VALORES PROPIOS Se estudian ecuaciones como Ax = 2x o bien Ax =-4x Y se buscan vectores que sean trasformados de A en múltiplos escalares de sí mismos. Definición: Un vector propio de una matriz A de n x m es un vector x diferente de cero tal que Ax = Lambda x para algún escalar lambda. Un escalar lambda se llama vector propio de A si

existe una solución no trivial de x de Ax = lambda x; una x como ésta se denomina vector propio correspondiente a lambda. Ejemplo: Muestre que 7 es un valor propio de A, y encuentre los vectores propios correspondientes. Solución. El escalar 7 es un valor propio de A si, y sólo si, la ecuación: Ax = 7x tiene una solución no trivial. Esta ecuación es equivalente a : Ax – 7x =0, o bien (A-7I)x = 0 Para resolver esa ecuación homogénea, forme la matriz: A-7I =

( 15 62)−( 70 70)

=

( −65 −56 )

Desde luego, las columnas de A-7I son linealmente dependientes, así que (A-7I)x = 0 tiene soluciones no triviales. Entonces 7 es un valor propio de A. Por tanto lambda es un valor propio de A si, y sólo si, la ecuación (A-lambda*matriz identidad)x =0 Tiene una solución no trivial. El conjunto de todas la soluciones de la ecuación es justamente el espacio nulo de la matriz A-lambdaI. De manera que este subconjunto es un subespacio de R n y se llama espacio propio de A correspondiente a lambda. El espacio propio consiste en todos los vectores cero y en todos los vectores propios correspondientes a lambda. La ecuación característica Un escalar β característica:

es un valor propio de una matriz A, si y sólo si

β

satisface la ecuación

Det (A- β∗I )=0 Puede mostrarse que si A es una matriz de n x n, entonces det(A- βI ) es un polinomio de grado n llamado polinomio característico de A. En general , la multiplicidad algebraica de un valor propio de β es su multiplicidad como raíz de la ecuación característica. En general la multiplicidad algebraica de un valor propio β es su multiplicidad como raíz de la ecuación característica. Semejanza Si A y B son matrices de n x m, entonces A es semejante a B si existe una matriz invertible P tal que P-1 AP = B, o de manera equivalente, A=PBP -1 . Si se escribe Q en vez de P -1 , se tiene Q -1 BQ = A. Así que B también es semejante a A, y simplemente se dice que A y B son semejantes. Cuando A se convierte en P-1AP se realiza una trasformación de semejanza. Si las matrices A y B de n x m son semejantes, entonces tienen el mismo polinomio característico y, por tanto, los mismos valores propios (con la misma multiplicidades)

Aplicación a los sistemas dinámicos: los valores propios y los vectores propios tienen la clave para la evolución discreta de un sistema dinámico....


Similar Free PDFs