Sean los vectores. Se llama combinación lineal de ellos a toda expresión:
, siendo, escalares cualesquiera.
Esta expresión, simplificada en forma de sumatorio, se escribirá
Se dice que un vector es combinación lineal (o que depende linealmente de) los vectores, si existen unos escalares , tal que .
Criterios de Independencia Lineal
Sean u1, u2, …, uk k vectores en Rn y A la matriz que tiene como columnas a estos vectores, los vectores son linealmente independientes si el sistema Ax = 0 tiene únicamente solución trivial.
Los vectores son linealmente dependientes si el sistema Ax=0 tiene soluciones no triviales (solución múltiple).
Si k=n
Los vectores son linealmente independientes si A es invertible
Si k>n
Los vectores son linealmente dependientes.
Dos vectores en un espacio vectorial son linealmente dependientes si uno de ellos es múltiplo escalar del otro.
Un conjunto de vectores linealmente independientes en n contiene a lo más n vector.
Tres vectores en 3 son linealmente dependientes si y sólo si son coplanares, esto es, que están en un mismo plano.
Teoremas
Los vectores, se dice que son vectores linealmente dependientes (o que el conjunto que forman dichos vectores es linealmente dependiente) si existen unos escalares, no todos nulos, tales que
Los vectores son linealmente dependientes alguno de ellos es combinación lineal de los demás. (Obsérvese que y no tienen por qué coincidir; es un error frecuente, suponer, que en los conjuntos están siempre formado por vectores)
Como doble implicación que es () (también se dice equivalencia, si y sólo si, condición necesaria y suficiente), hay que demostrarla en ambos sentidos, porque de una afirmación se deduce la otra y viceversa. Lo que en realidad significa una doble implicación o equivalencia, es que las afirmaciones que relaciona son dos formas diferentes de decir la misma cosa, con lo cual en un momento dado podemos utilizar la que más nos convenga para nuestros propósitos.
Suponemos que los vectores son linealmente dependientes (en adelante l.d.), probaremos que al menos uno de ellos es combinación del resto.
Si los vectores son l.d., existen unos escalares, no todos nulos, tales que. Supongamos que el escalar, donde es uno de los valores 1, 2, ..., ó (desconocido pero fijo). Esta peculiaridad nos hace sospechar que el vector (vector que ocupa el lugar, en el orden de los vectores) será el que podamos poner como combinación de los demás; es el único que tiene algo distinto del resto). En efecto, si ponemos el sumatorio de forma desarrollada, destacando el término , y despejamos dicho término (al fin y al cabo, es de lo que se trata, de despejar un vector en función del resto), obtenemos, y por último como el escalar, existe su inverso, con lo que si multiplicamos por éste número la expresión anterior quedaría, o lo que es lo mismo; con lo que queda demostrado.
Para demostrar la implicación en el otro sentido, es que uno de los vectores, pongamos por caso el , con un valor desconocido pero fijo entre y , es combinación lineal (depende del) resto de vectores; esto es:
Obsérvese que el vector no aparece obviamente en el segundo miembro de la igualdad; puesto que se trata del resto de vectores. Entonces para demostrar que el conjunto formado por todos los vectores es linealmente dependiente, solo tendremos que tener una combinación lineal de todos igual al vector nulo, con no todos los escalares nulos. Para obtener esta combinación lineal de todos, solo hay que pasar al segundo miembro; es decir, de la expresión de igualdad anterior, quedaría , y así obtenemos una combinación lineal de todos igual al vector nulo y con no todos los escalares nulos, puesto que el escalar que lleva es .
Ejemplo:
Estudiar si el siguiente conjunto de vectores es l.d. ó l.i. S.
Lo que tenemos que hacer es obtener el vector nulo haciendo una combinación lineal de ellos. Si la única posibilidad de obtener el vector nulo es haciendo ceros todos los escalares de esta combinación, entonces serán vectores l.i., si hay alguna otra posibilidad con algún escalar no nulo, entonces serán l.d.
Sea la combinación. De aquí, e igualando componentes obtenemos el siguiente sistema de ecuaciones lineal y homogéneo:
Por tratarse de un sistema lineal y homogéneo, si tuviese una única solución ésta sería la solución nula, y por tanto los vectores serían l.i., mientras que, si posee más soluciones, entonces se trataría de vectores l.d. Debemos pues estudiar el rango de la matriz de los coeficientes para determinar si la solución es única (rango 3) o si posee infinitas soluciones (rango menor que 3). La matriz de los coeficientes es:
Es fácil comprobar que el rango de esta matriz es 2, puesto que, y , por lo que se trata de un conjunto de vectores l.d.
Las columnas de la matriz , son justamente los vectores del conjunto . Con lo que, en adelante, estudiar la dependencia o independencia de un conjunto de vectores, se hará estudiando el rango de la matriz cuyas columnas son dichos vectores. Cuando tengamos que operar con vectores, cada vector será siempre considerado como una columna, y un conjunto de vectores con los que tengamos que hacer cálculos, formarán una matriz cuyas columnas son dichos vectores.
Ejemplo:
Entendiendo los vectores como las columnas de la matriz del sistema que se forma, está claro que el rango (en este caso 2) marcará el número de vectores l.i. máximo que hay en este conjunto, porque habrá el mismo número de ecuaciones (l.i.) que de incógnitas y por tanto con una única solución (todos los escalares nulos), y que evidentemente cualquier par de vectores (columnas) de entre estos tres, que mantengan el rango (es decir, entre los que se forme un determinante de orden 2, no nulo), formarán un conjunto de vectores l.i. Por ejemplo, como un menor, que nos daba que el rango de esta matriz es 2, se obtiene con las dos últimas filas y las dos primeras columnas (y recordando que los vectores son las columnas), podemos afirmar que las dos primeras columnas son l.i. Es decir, que los dos primeros vectores de estos tres son l.i. Pero no quiere decir que sólo esta pareja de vectores sea l.i., porque por ejemplo entre la primera y la tercera columna también se forman menores de orden dos no nulos, que mantienen el rango (), con lo que el conjunto formado por el primer y el tercer vector también es l.i. e igualmente ocurre con el conjunto formado por el segundo y tercer vector.
En definitiva, este conjunto es un conjunto de 3 vectores l.d. Tenemos que una solución para esta combinación (entre las infinitas) con los escalares no nulos es, de donde podemos ver además que el tercer vector depende linealmente (es combinación lineal) de los dos primeros (simplemente despejando), pero esté no es el único posible "despeje" como el lector puede comprobar fácilmente. Sin embargo, como el rango de la matriz cuyas columnas son dichos vectores, es 2, quiere decir que cualquier pareja de columnas (vectores) que mantengan el rango formarán un conjunto de vectores l.i. dentro del conjunto. Lógicamente, si no mantienen el rango esta afirmación no es cierta. Por ejemplo, consideremos ahora el conjunto. El lector puede comprobar que el rango de la matriz que forman estos tres vectores (siempre por columnas) es 2, pero que si cogemos como subconjunto los primeros 2 vectores, no son l.i. porque no mantienen el rango 2. La matriz que forman, no contiene menores de orden 2 distintos de cero. Esta matriz es de rango 1, porque, obviamente entre estos dos vectores solo hay uno l.i. ya que el segundo vector es el doble del primero (o el primero la mitad del segundo según lo queramos ver). En este subconjunto, sólo un vector será independiente; el primero o el segundo. Los subconjuntos de formados por el primer y el tercer vector y el subconjunto formado por el segundo y tercer vector si son subconjuntos de vectores independientes porque estas columnas mantienen el rango 2.
Si tenemos un conjunto de p vectores y la matriz cuyas columnas son dichos vectores es de rango r, podemos afirmar que en este conjunto de p vectores hay subconjuntos de r vectores l.i. (si r=p, será todo el conjunto l.i) y que cualquier subconjunto de r vectores tales que formen una matriz (cuyas columnas son los vectores) que mantenga el rango r, será un subconjunto de vectores l.i.
Ejemplo:
Comprobar que todo conjunto de vectores, donde es el vector nulo, es un conjunto de vectores l.d.
Conclusión
Los vectores son linealmente independientes si tienen distinta dirección y sus componentes no son proporcionales. Un conjunto de vectores {v1, v2, …, vk} es un espacio vectorial V es linealmente dependiente sí existen escalares c1, c2, …, ck, al menos uno de los cuales no es cero, tales que: c1v1+c2v2+…+ckvk=0 Si los vectores no son linealmente dependientes, se dice que son linealmente independientes. Fuentes de información: https://rodas5.us.es/file/99535f35-80df-724a-e0bd-e676de5e88c4/3/tema2_ims_scorm.zip/page_04.htm |