Escalera.  Grupo de entrada.  Materiales.  Puertas.  Cerraduras.  Diseño

Escalera. Grupo de entrada. Materiales. Puertas. Cerraduras. Diseño

» Signo de dependencia lineal del sistema de vectores. Dependencia e independencia lineal, propiedades, estudio de un sistema de vectores para dependencia lineal, ejemplos y soluciones

Signo de dependencia lineal del sistema de vectores. Dependencia e independencia lineal, propiedades, estudio de un sistema de vectores para dependencia lineal, ejemplos y soluciones

dependencia lineal

una relación de la forma C1u1+C2u2+... +Cnun?0, donde C1, C2,..., Cn son números, ¿de los cuales al menos uno? 0, y u1, u2,..., un son algunos objetos matemáticos, por ejemplo. vectores o funciones.

Dependencia lineal

(matemáticas), relación de la forma

C11u1 + C2u2 + ... + Cnun = 0, (*)

donde С1, C2, ..., Cn ≈ números, al menos uno de los cuales es diferente de cero, y u1, u2, ..., un ≈ una u otra matemática. objetos para los que se definen las operaciones de suma y multiplicación por un número. En relación (*), los objetos u1, u2, ..., un están incluidos en la 1ª potencia, es decir, linealmente; por lo tanto, la dependencia entre ellos descrita por esta relación se llama lineal. El signo igual en la fórmula (*) puede tener diferentes significados y debe explicarse en cada caso específico. El concepto de L. h. utilizado en muchas ramas de las matemáticas. Entonces, podemos hablar de L. z. entre vectores, entre funciones de una o más variables, entre elementos de un espacio lineal, etc. de lo contrario, se denominan linealmente independientes. Si los objetos u1, u2, ..., un son linealmente dependientes, entonces al menos uno de ellos es una combinación lineal de los demás, es decir

u1 = a 1u1 + ... + a i-1ui-1 + a i+1ui+1 + ... + a monja.

Funciones continuas de una variable

u1 = j 1(x), u2 = j 2(x), ..., un = j n(x) se denominan linealmente dependientes si entre ellos existe una relación de la forma (*), en la que el signo igual es entendido como una identidad con respecto a x. Para que las funciones j 1(x), j 2(x), ..., j n(x), definidas en algún segmento a £ x £ b, sean linealmente dependientes, es necesario y suficiente que su determinante de Gram desaparece

yo, k = 1,2, ..., n.

Si las funciones j1 (x), j2(x), ..., jn(x) son soluciones de la función lineal ecuación diferencial, entonces por la existencia de L. h. entre ellos es necesario y suficiente que el wronskiano desaparezca al menos en un punto.

══ Formas lineales en m variables

u1=ai1x1+ai2x2+...+aixm

(yo = 1, 2, ..., n)

se denominan linealmente dependientes si existe una relación de la forma (*), en la que el signo igual se entiende como una identidad con respecto a todas las variables x1, x2, ..., xm. para que n formas lineales son linealmente dependientes de n variables, es necesario y suficiente que el determinante desaparezca

Una tarea. El destacamento pionero partió de la ciudad en campaña. ahora el esta en

5 km de la ciudad y va a una velocidad de 3 km por hora. ¿A qué distancia de la ciudad estará en x horas?

Solución. En x horas, el destacamento recorrerá kilómetros, e incluso antes recorrió 5 km. Entonces, después de x horas, la distancia desde la ciudad será igual a kilómetros. Denotando esta distancia por y, tendremos;

Esta igualdad expresa la dependencia del camino con el tiempo, pero esta ya no será una dependencia directamente proporcional, como es fácil de ver en la siguiente tabla

La relación entre el camino y el tiempo aquí no es igual al mismo número.

Definición. La relación entre dos cantidades x e y, expresada por la fórmula donde k y son números, se denomina relación lineal.

En particular, si luego

Por lo tanto, una dependencia directamente proporcional es un caso especial de una dependencia lineal.

2. Gráfica de dependencia lineal.

Construyamos un gráfico de cualquier relación lineal dada; pongamos, por ejemplo,

Procedamos de la siguiente manera. Construyamos primero un gráfico de dependencia.

Será una línea recta que pase por el origen (Fig. 26).

Veamos cómo se ubicarán en relación con este punto recto del gráfico de dependencia lineal:

Por ejemplo, creemos una tabla de valores de x e y:

Vemos que para cualquier abscisa, la ordenada del punto del segundo gráfico es 3 unidades mayor que la ordenada del punto del primer gráfico. Esto significa que el punto correspondiente de la segunda gráfica será 3 unidades más alto que el punto de la primera.

Habiendo construido estos puntos, obtenemos una línea recta paralela a la primera línea recta (Fig. 26).

El gráfico lineal es una línea recta.

De ello se deduce que para construir un gráfico de dependencia lineal, es suficiente encontrar dos de sus puntos.

Mostremos esto con un ejemplo.

Poniendo obtenemos. Entonces, encontramos un punto. Poniendo más obtenemos el segundo punto (2; 7). Al construir estos puntos y trazar una línea recta a través de ellos, obtenemos el gráfico deseado, es decir, un gráfico de una dependencia lineal expresada por la fórmula

Por lo general, para construir un gráfico de dependencia lineal, se toman dos puntos en los que la línea recta se cruza con los ejes de coordenadas. Entonces, suponiendo que obtenemos Suponiendo que obtenemos Al dibujar una línea recta a través de los puntos obtenemos el gráfico deseado (Fig. 27).

Procedamos a la descripción de las propiedades de los espacios lineales. En primer lugar, incluyen las relaciones entre sus elementos.

Combinación lineal elementos sobre el campo de los números reales R llamado elemento

Definición. Un conjunto de elementos, se llama linealmente independiente, si por igualdad

se sigue necesariamente que ,. Está claro que cualquier parte de los elementos de también es linealmente independiente. Si al menos uno de, entonces el conjunto se llama linealmente dependiente.

Ejemplotercero.6. Sea dado un conjunto vectorial. Si uno de los vectores es, por ejemplo, entonces dicho sistema de vectores es linealmente dependiente. En efecto, sea el conjunto,, …,,, …, linealmente independiente, entonces de la igualdad se sigue que.

Sumando a este conjunto el vector multiplicado por, todavía tenemos la igualdad

Por lo tanto, el conjunto de vectores, así como cualquier otro elemento que contenga un elemento cero, siempre es linealmente dependiente ▼.

Comentario. Si el conjunto de vectores está vacío, entonces es linealmente independiente. De hecho, si no hay índices, entonces es imposible elegir los correspondientes números distintos de cero para que la suma de la forma (III.2) sea igual a 0. Tal interpretación de la independencia lineal puede tomarse como una prueba, especialmente porque tal resultado concuerda bien con la teoría 11.

En relación con lo anterior, la definición de independencia lineal se puede formular de la siguiente manera: un conjunto de elementos es linealmente independiente si y no existe un índice para el cual. En particular, este conjunto también puede estar vacío.

Ejemplotercero.7. Cualquier par de vectores deslizantes son linealmente dependientes. Recuerda que los vectores deslizantes son vectores que se encuentran en una línea recta. Tomando un vector unitario, puede obtener cualquier otro vector multiplicando por el número real correspondiente, es decir, o. Por lo tanto, ya dos vectores cualesquiera en un espacio unidimensional son linealmente dependientes.

Ejemplotercero.8. Considere el espacio de polinomios, donde ,,,. vamos a escribir

Suponiendo ,,, obtenemos, idénticamente en t

es decir, el conjunto es linealmente dependiente. Tenga en cuenta que cualquier conjunto finito de la forma , es linealmente independiente. Como prueba, considere el caso, luego de la igualdad

en el caso del supuesto de su dependencia lineal, se seguiría que no todos los números son iguales a cero 1 , 2 , 3 , que es idéntico para cualquier (III.3), pero esto contradice el teorema fundamental del álgebra: cualquier polinomio norte-th grado no tiene más de norte raíces reales. En nuestro caso, esta ecuación tiene solo dos raíces, y no un número infinito de ellas. Tenemos una contradicción.

§ 2. Combinaciones lineales. bases

Dejar . diremos que hay combinación lineal elementos

Teorematercero.1 (principal). El conjunto de elementos distintos de cero es linealmente dependiente si y solo si algún elemento es una combinación lineal de los elementos precedentes.

Prueba. Necesitar. Supongamos que los elementos ,,..., son linealmente dependientes y sea el primer número natural para el cual los elementos ,,..., son linealmente dependientes, entonces

pues no todo es igual a cero y necesariamente (de lo contrario sería este coeficiente, lo que contradiría lo dicho). Por lo tanto tenemos una combinación lineal

Adecuación es obvio porque cada conjunto que contiene un conjunto linealmente dependiente es en sí mismo linealmente dependiente ▼.

Definición. Base (sistema de coordenadas) de un espacio lineal L se llama conjunto A elementos linealmente independientes, de modo que cada elemento de L es una combinación lineal de elementos de A, 11.

Consideraremos espacios lineales de dimensión finita ,.

Ejemplotercero.9. Considere un espacio vectorial tridimensional. Tomar vectores unitarios,,. Forman la base para

Demostremos que los vectores son linealmente independientes. De hecho, tenemos

o . De aquí, según las reglas de multiplicación de un vector por un número y suma de vectores (Ejemplo III.2), obtenemos

Por lo tanto, ,,▼.

Sea un vector espacial arbitrario, entonces, con base en los axiomas del espacio lineal, obtenemos

Un razonamiento similar es válido para un espacio con una base, . Del teorema principal se deduce que en un espacio lineal arbitrario de dimensión finita L cualquier elemento se puede representar como una combinación lineal de sus elementos básicos,, ...,, es decir,

Además, tal descomposición es única. De hecho, tengamos

entonces después de la resta obtenemos

Por tanto, debido a la independencia de los elementos ,,

Eso es ▼.

Teorematercero.2 (además de la base). Sea un espacio lineal de dimensión finita y sea un conjunto de elementos linealmente independientes. Si no forman una base, entonces es posible encontrar tales elementos en los que el conjunto de elementos forma una base. Es decir, cada conjunto linealmente independiente de elementos de un espacio lineal puede completarse hasta una base.

Prueba. Dado que el espacio es de dimensión finita, tiene una base que consiste, por ejemplo, en norte elementos, que éstos sean elementos. Considere un conjunto de elementos.

Apliquemos el teorema principal. En el orden de los elementos, considere el conjunto A. Obviamente es linealmente dependiente, ya que cualquiera de los elementos es una combinación lineal,,. Dado que los elementos,, ..., son linealmente independientes, entonces añadiéndole elementos secuencialmente hasta que aparezca el primer elemento, por ejemplo, tal que será una combinación lineal de los vectores anteriores de este conjunto, es decir. Eliminando este elemento del conjunto A, obtenemos . Continuamos este procedimiento hasta que este conjunto contenga norte elementos linealmente independientes, entre los cuales todos los elementos ,, ..., y norte-metro de elementos El conjunto resultante será la base ▼.

Ejemplotercero.10. Demuestre que los vectores , y forman un conjunto linealmente dependiente, y que tres cualesquiera de ellos son linealmente independientes.

Demostremos que no existen todos los números cero para los cuales

En efecto, para , tenemos

Se prueba la dependencia lineal. Demostremos que un triple de vectores, por ejemplo, forma una base. Hagamos una igualdad

Realizando acciones con vectores, obtenemos

Igualando las coordenadas correspondientes en las partes derecha e izquierda de la última igualdad, obtenemos el sistema de ecuaciones, resolviéndolo, obtenemos.

Un razonamiento similar es válido para las ternas restantes de los vectores ,, o ,,.

Teorematercero.3 (sobre la dimensión del espacio). Todas las bases de un espacio lineal de dimensión finita L consiste en el mismo numero Elementos basicos.

Prueba. Sean dados dos conjuntos, donde;,. Asignamos a cada uno de ellos una de dos propiedades que determinan la base: 1) a través de los elementos del conjunto A cualquier elemento de L, 2) elementos del conjunto B representan un conjunto linealmente independiente, pero no necesariamente todos ellos. L. Supondremos que los elementos A y B ordenado.

Considere el conjunto A y aplicar a sus elementos metro veces el método del teorema principal. Dado que los elementos de B son linealmente independientes, entonces obtenemos, como antes, un conjunto linealmente dependiente

De hecho, si , obtendríamos un conjunto linealmente independiente, y el resto norte establecer elementos B se expresaría linealmente a través de ellos, lo cual es imposible, lo que significa. Pero esto tampoco puede ser, ya que por construcción el conjunto (III.4) tiene la propiedad de base del conjunto A. porque el espacio L de dimensión finita, entonces solamente, es decir, dos bases diferentes del espacio L constan del mismo número de elementos ▼.

Consecuencia. En cualquier norte espacio lineal -dimensional () se pueden encontrar infinitas bases.

Prueba se sigue de la regla de la multiplicación de elementos de un espacio lineal (vector) por un número.

Definición. La dimensión de un espacio lineal. L es el número de elementos que componen su base.

De la definición se sigue que el conjunto vacío de elementos - un espacio lineal trivial - tiene dimensión 0, lo que, como se debe notar, justifica la terminología de dependencia lineal y nos permite enunciar: norte-el espacio dimensional tiene dimensión norte, .

Así, resumiendo lo dicho, obtenemos que cada conjunto de norte+1 artículo norte-el espacio lineal dimensional es linealmente dependiente; conjunto de norte elementos de un espacio lineal es una base si y solo si es linealmente independiente (o cada elemento del espacio es una combinación lineal de elementos de su base); en cualquier espacio lineal, el número de bases es infinito.

Ejemplotercero.11 (teorema de Kronecker-Cappelli).

Tengamos un sistema de ecuaciones algebraicas lineales

dónde A – matriz de coeficientes del sistema,  matriz ampliada de coeficientes del sistema

Donde , (III.6)

esta notación es equivalente al sistema de ecuaciones (III.5).

Teorematercero.4 (Kronecker - Capelli). El sistema de ecuaciones algebraicas lineales (III.5) es consistente si y solo si el rango de la matriz A es igual al rango de la matriz , es decir.

Prueba.Necesitar. Sea consistente el sistema (III.5), entonces tiene solución: ,,. Considerando (III.6), , pero en este caso se trata de una combinación lineal de vectores,, …,. Por tanto, a través del conjunto de vectores,,,..., se puede expresar cualquier vector de. Esto significa que.

Adecuación. Dejar . Elegimos cualquier base de ,, …,, luego se expresa linealmente a través de la base (pueden ser tanto todos los vectores como su parte) y, por lo tanto, a través de todos los vectores,. Esto significa que el sistema de ecuaciones es consistente ▼.

Considerar norte-espacio lineal dimensional L. Cada vector se puede representar como una combinación lineal, donde el conjunto consta de vectores base. Reescribimos la combinación lineal en la forma y establecemos una correspondencia biunívoca entre los elementos y sus coordenadas

Esto significa que entre norte-espacio vectorial lineal dimensional de vectores sobre norte campo dimensional de numeros reales establece una correspondencia biunívoca.

Definición. Dos espacios lineales y sobre el mismo campo escalar isomorfo si es posible establecer una correspondencia biunívoca entre sus elementos F, de modo que

es decir, un isomorfismo se entiende como una correspondencia biunívoca que conserva todas las relaciones lineales. Está claro que los espacios isomorfos tienen la misma dimensión.

Del ejemplo y de la definición de isomorfismo se sigue que desde el punto de vista del estudio de los problemas de linealidad, los espacios isomorfos son lo mismo, por tanto, formalmente en vez denorte-espacio lineal dimensionalLencima del campo, solo se puede estudiar el campo.


Los conceptos de dependencia lineal e independencia de un sistema de vectores son muy importantes en el estudio del álgebra vectorial, ya que en ellos se basan los conceptos de dimensión y base espacial. En este artículo, daremos definiciones, consideraremos las propiedades de la dependencia e independencia lineal, obtendremos un algoritmo para estudiar un sistema de vectores para la dependencia lineal y analizaremos en detalle las soluciones de los ejemplos.

Navegación de página.

Determinación de la dependencia lineal y la independencia lineal de un sistema de vectores.

Considere un conjunto de p vectores n-dimensionales, denótelos de la siguiente manera. Hagamos una combinación lineal de estos vectores y números arbitrarios (reales o complejos): . Con base en la definición de operaciones en vectores n-dimensionales, así como en las propiedades de las operaciones de sumar vectores y multiplicar un vector por un número, se puede argumentar que la combinación lineal registrada es un vector n-dimensional, es decir, .

Así llegamos a la definición de la dependencia lineal del sistema de vectores.

Definición.

Si una combinación lineal puede ser un vector cero cuando hay al menos un número distinto de cero, entonces el sistema de vectores se llama linealmente dependiente.

Definición.

Si una combinación lineal es un vector nulo solo cuando todos los números son cero, entonces el sistema de vectores se llama independiente linealmente.

Propiedades de dependencia e independencia lineal.

Con base en estas definiciones, formulamos y demostramos propiedades de dependencia lineal e independencia lineal de un sistema de vectores.

    Si se suman varios vectores a un sistema de vectores linealmente dependiente, entonces el sistema resultante será linealmente dependiente.

    Prueba.

    Dado que el sistema de vectores es linealmente dependiente, entonces la igualdad es posible si hay al menos un número distinto de cero de los números . Dejar .

    Agreguemos s vectores más al sistema original de vectores, y obtendremos el sistema . Como y , entonces la combinación lineal de vectores de este sistema de la forma

    es un vector nulo, y . Por lo tanto, el sistema de vectores resultante es linealmente dependiente.

    Si se excluyen varios vectores de un sistema de vectores linealmente independiente, entonces el sistema resultante será linealmente independiente.

    Prueba.

    Suponemos que el sistema resultante es linealmente dependiente. Sumando todos los vectores descartados a este sistema de vectores, obtenemos el sistema de vectores original. Por condición es linealmente independiente, y por la anterior propiedad de dependencia lineal debe ser linealmente dependiente. Hemos llegado a una contradicción, por lo que nuestra suposición es incorrecta.

    Si un sistema de vectores tiene al menos un vector cero, entonces dicho sistema es linealmente dependiente.

    Prueba.

    Deje que el vector en este sistema de vectores sea cero. Suponga que el sistema original de vectores es linealmente independiente. Entonces la igualdad vectorial es posible solo cuando . Sin embargo, si tomamos cualquier valor distinto de cero, entonces la igualdad seguirá siendo válida, ya que . Por lo tanto, nuestra suposición es incorrecta y el sistema original de vectores es linealmente dependiente.

    Si un sistema de vectores es linealmente dependiente, al menos uno de sus vectores se expresa linealmente en términos de los demás. Si el sistema de vectores es linealmente independiente, entonces ninguno de los vectores puede expresarse en términos de los demás.

    Prueba.

    Probemos primero la primera afirmación.

    Sea el sistema de vectores linealmente dependiente, entonces hay al menos un número distinto de cero y la igualdad es verdadera. Esta igualdad se puede resolver con respecto a , ya que , en este caso, tenemos

    En consecuencia, el vector se expresa linealmente en función de los restantes vectores del sistema, lo cual se iba a demostrar.

    Ahora probamos la segunda afirmación.

    Dado que el sistema de vectores es linealmente independiente, la igualdad solo es posible para .

    Suponga que algún vector del sistema se expresa linealmente en términos de los otros. Sea este vector entonces . Esta igualdad se puede reescribir como , en su lado izquierdo hay una combinación lineal de los vectores del sistema, y ​​el coeficiente delante del vector es distinto de cero, lo que indica una dependencia lineal del sistema de vectores original. Entonces hemos llegado a una contradicción, lo que significa que la propiedad está probada.

Una afirmación importante se deriva de las dos últimas propiedades:
si el sistema de vectores contiene vectores y , donde es un número arbitrario, entonces es linealmente dependiente.

Estudio del sistema de vectores de dependencia lineal.

Planteemos la tarea: necesitamos establecer una dependencia lineal o una independencia lineal del sistema de vectores.

La pregunta lógica es: “¿cómo resolverlo?”

Algo útil desde un punto de vista práctico puede derivarse de las definiciones y propiedades anteriores de dependencia e independencia lineal de un sistema de vectores. Estas definiciones y propiedades nos permiten establecer una dependencia lineal de un sistema de vectores en los siguientes casos:

¿Y en otros casos, que son la mayoría?

Lidiemos con esto.

Recordemos la formulación del teorema sobre el rango de una matriz, que citamos en el artículo.

Teorema.

Dejar r es el rango de la matriz A de orden p por n , . Sea M el menor básico de la matriz A . Todas las filas (todas las columnas) de la matriz A que no participan en la formación de la base menor M se expresan linealmente en función de las filas (columnas) de la matriz que generan la base menor M.

Y ahora vamos a explicar la conexión del teorema del rango de una matriz con el estudio de un sistema de vectores para una dependencia lineal.

Hagamos una matriz A, cuyas filas serán los vectores del sistema en estudio:

¿Qué significará la independencia lineal del sistema de vectores?

De la cuarta propiedad de la independencia lineal de un sistema de vectores, sabemos que ninguno de los vectores del sistema puede expresarse en función de los demás. En otras palabras, ninguna fila de la matriz A se expresará linealmente en términos de otras filas, por lo tanto, la independencia lineal del sistema de vectores será equivalente a la condición Rank(A)=p.

¿Qué significará la dependencia lineal del sistema de vectores?

Todo es muy simple: al menos una fila de la matriz A se expresará linealmente en función del resto, por lo tanto, la dependencia lineal del sistema de vectores será equivalente a la condición Rank(A)

.

Entonces, el problema de estudiar un sistema de vectores para una dependencia lineal se reduce al problema de encontrar el rango de una matriz compuesta por los vectores de este sistema.

Cabe señalar que para p>n el sistema de vectores será linealmente dependiente.

Comentario: al compilar la matriz A, los vectores del sistema pueden tomarse no como filas, sino como columnas.

Algoritmo para el estudio de un sistema de vectores para una dependencia lineal.

Analicemos el algoritmo con ejemplos.

Ejemplos de estudio de un sistema de vectores para dependencia lineal.

Ejemplo.

Dado un sistema de vectores. Examínelo para una relación lineal.

Solución.

Dado que el vector c es cero, el sistema original de vectores es linealmente dependiente debido a la tercera propiedad.

Responder:

El sistema de vectores es linealmente dependiente.

Ejemplo.

Examinar el sistema de vectores para la dependencia lineal.

Solución.

No es difícil ver que las coordenadas del vector c son iguales a las coordenadas correspondientes del vector multiplicadas por 3, es decir, . Por lo tanto, el sistema original de vectores es linealmente dependiente.

Definición 1. Una combinación lineal de vectores es la suma de los productos de estos vectores y escalares:

Definición 2. Un sistema de vectores se llama sistema linealmente dependiente si su combinación lineal (2.8) se anula:

y entre los números hay al menos uno distinto de cero.

Definición 3. Los vectores se llaman linealmente independientes si su combinación lineal (2.8) se anula solo si todos son números.

De estas definiciones se pueden obtener los siguientes corolarios.

Corolario 1. En un sistema vectorial linealmente dependiente, al menos un vector puede expresarse como una combinación lineal de los demás.

Prueba. Sea (2.9) satisfecho y sea, por definición, el coeficiente. Entonces tenemos: Tenga en cuenta que lo contrario también es cierto.

consecuencia 2. Si un sistema de vectores contiene un vector cero, entonces este sistema es (necesariamente) linealmente dependiente; la prueba es obvia.

Corolario 3. si entre norte cualquier vector k() los vectores son linealmente dependientes, entonces todos norte los vectores son linealmente dependientes (omitimos la demostración).

2 0 . Combinaciones lineales de dos, tres y cuatro vectores. Consideremos cuestiones de dependencia lineal e independencia de vectores en una línea recta, un plano y en el espacio. Presentemos los teoremas correspondientes.

Teorema 1. Para que dos vectores sean linealmente dependientes, es necesario y suficiente que sean colineales.

Necesitar. Deje que los vectores sean linealmente dependientes. Esto significa que su combinación lineal = 0 y (en aras de la definición). Esto implica igualdad y (por la definición de multiplicar un vector por un número) los vectores y son colineales.

Adecuación. Sean los vectores colineales (║) (suponemos que son diferentes del vector cero; de lo contrario, su dependencia lineal es obvia).

Por el Teorema (2.7) (ver §2.1, ítem 2, 0) entonces tal que, o – la combinación lineal es igual a cero, y el coeficiente es igual a 1 – los vectores y son linealmente dependientes.

El siguiente corolario se deriva de este teorema.

Consecuencia. Si los vectores no son colineales, entonces son linealmente independientes.

Teorema 2. Para que tres vectores sean linealmente dependientes, es necesario y suficiente que sean coplanares.

Necesitar. Sean los vectores y linealmente dependientes. Demostremos que son coplanares.

La definición de una dependencia lineal de vectores implica la existencia de números tales que una combinación lineal, y al mismo tiempo (por definición). Entonces a partir de esta igualdad podemos expresar el vector: =, es decir, el vector es igual a la diagonal del paralelogramo construido sobre los vectores del lado derecho de esta igualdad (Fig. 2.6). Esto significa que los vectores se encuentran en el mismo plano.

Adecuación. Sean los vectores complanares. Demostremos que son linealmente dependientes.

Excluyamos el caso de colinealidad de cualquier par de vectores (porque entonces este par es linealmente dependiente y por el Corolario 3 (ver ítem 1 0) los tres vectores son linealmente dependientes). Tenga en cuenta que tal suposición también excluye la existencia de un vector cero entre los tres indicados.

Transferimos tres vectores coplanares a un plano y los llevamos a un origen común. Por el final del vector trazamos rectas paralelas a los vectores; en este caso, obtenemos vectores y (Fig. 2.7): su existencia está asegurada por el hecho de que los vectores no son colineales por supuestos vectores. De ello se deduce que el vector = +. Reescribiendo esta igualdad en la forma (–1)++=0, concluimos que los vectores y son linealmente dependientes.

Del teorema probado se siguen dos corolarios.

Corolario 1. Que no sean vectores colineales, que el vector sea un vector arbitrario que se encuentra en el plano definido por los vectores y. Entonces hay números tales que

consecuencia 2. Si los vectores no son coplanares, entonces son linealmente independientes.

Teorema 3. Cualesquiera cuatro vectores son linealmente dependientes.

Omitimos la demostración; con algunas modificaciones, copia la demostración del Teorema 2. Presentemos un corolario de este teorema.

Consecuencia. Para cualquier vector no coplanario, y cualquier vector tal que

Comentario. Para vectores en un espacio (tridimensional), los conceptos de dependencia e independencia lineales tienen, como se desprende de los teoremas 1-3 anteriores, un significado geométrico simple.

Sean dos vectores linealmente dependientes y. En este caso, uno de ellos es una combinación lineal del segundo, es decir, simplemente se diferencia de él por un factor numérico (por ejemplo,). Geométricamente, esto significa que ambos vectores están en una línea común; pueden tener direcciones iguales u opuestas (Fig. 2.8 xx).

Si dos vectores están ubicados en ángulo entre sí (Fig. 2.9 xx), entonces, en este caso, uno de ellos no se puede obtener multiplicando el otro por un número; dichos vectores son linealmente independientes. Por lo tanto, la independencia lineal de dos vectores significa que estos vectores no se pueden colocar en una línea recta.

Averigüemos el significado geométrico de la dependencia e independencia lineal de tres vectores.

Sean los vectores , y sean linealmente dependientes y (por definición) el vector sea una combinación lineal de los vectores u, es decir, ubicado en el plano que contiene los vectores u. Esto significa que los vectores se encuentran en el mismo plano. La declaración inversa también es cierta: si los vectores se encuentran en el mismo plano, entonces son linealmente dependientes.

Por lo tanto, los vectores y son linealmente independientes si y solo si no están en el mismo plano.

3 0 . concepto de base. Uno de los conceptos más importantes del álgebra lineal y vectorial es el concepto de base. Introducimos definiciones.

Definición 1. Un par de vectores se dice ordenado si se especifica cual vector de este par se considera el primero y cual el segundo.

Definición 2. Un par ordenado de vectores no colineales se llama base en el plano definido por los vectores dados.

Teorema 1. Cualquier vector en el plano se puede representar como una combinación lineal del sistema básico de vectores:

y esta representación es única.

Prueba. Dejemos que los vectores y formen una base. Entonces cualquier vector se puede representar como

Para probar la unicidad, suponga que hay una descomposición más. Entonces tenemos =0, y al menos una de las diferencias es distinta de cero. Esto último significa que los vectores son linealmente dependientes, es decir, colineales; esto contradice la afirmación de que forman una base.

Pero entonces la descomposición es única.

Definición 3. Una terna de vectores se llama ordenada si se indica qué vector se considera el primero, cuál el segundo y cuál el tercero.

Definición 4. Un triple ordenado de vectores no coplanares se llama base en el espacio.

El teorema de descomposición y unicidad también se cumple aquí.

Teorema 2. Cualquier vector se puede representar como una combinación lineal de un sistema básico de vectores,,:

y esta representación es única (omitimos la demostración del teorema).

En los desarrollos (2.12) y (2.13), las cantidades se denominan coordenadas de un vector en una base dada (más precisamente, coordenadas afines).

Con una base fija, se puede escribir u.

Por ejemplo, si se da una base y se da eso, entonces esto significa que tiene lugar una representación (descomposición).

4 0 . Operaciones lineales sobre vectores en forma de coordenadas. La introducción de una base permite que las operaciones lineales sobre vectores sean reemplazadas por operaciones lineales ordinarias sobre números: las coordenadas de estos vectores.

Que se dé alguna base. Obviamente, establecer las coordenadas del vector en esta base determina completamente el vector en sí. Existen las siguientes proposiciones:

a) dos vectores y son iguales si y solo si sus correspondientes coordenadas son iguales:

b) al multiplicar un vector por un número, sus coordenadas se multiplican por este número:

c) al sumar vectores, se suman sus respectivas coordenadas:

Omitimos las demostraciones de estas propiedades; Probemos la propiedad b) sólo como ejemplo. Tenemos

Comentario. En el espacio (en el plano) uno puede elegir infinitas bases.

Damos un ejemplo de la transición de una base a otra, establecemos la relación entre las coordenadas del vector en diferentes bases.

Ejemplo 1. En el sistema básico se dan tres vectores:, y. En la base, el vector tiene una descomposición. Encuentra las coordenadas del vector en la base.

Solución. Contamos con expansiones:,,; por lo tanto, =+2+= =, es decir, en la base.

Ejemplo 2. Sean en alguna base cuatro vectores dados por sus coordenadas:,, y.

Averigüe si los vectores forman una base; en el caso de una respuesta positiva, encuentre la descomposición del vector en esta base.

Solución. 1) los vectores forman una base si son linealmente independientes. Compongamos una combinación lineal de vectores () y averigüemos para cuál se anula el ion: = 0. Tenemos:

Por definición de la igualdad de vectores en forma de coordenadas, obtenemos el siguiente sistema de ecuaciones (algebraicas lineales homogéneas): ;;, cuyo determinante=1, es decir, el sistema tiene (solo) una solución trivial. Esto significa que los vectores son linealmente independientes y, por lo tanto, forman una base.

2) expandir el vector en esta base. Tenemos:=o en forma de coordenadas.

Pasando a la igualdad de vectores en forma de coordenadas, obtenemos un sistema de ecuaciones algebraicas no homogéneas lineales: ;;. Resolviéndolo (por ejemplo, según la regla de Cramer), obtenemos:, y (). Tenemos una descomposición del vector en la base: =.

5 0 . Proyección de un vector sobre un eje. Propiedades de proyección. Que haya algún eje yo, es decir, una línea recta con una dirección elegida en ella, y dado algún vector. Definamos el concepto de proyección de un vector sobre un eje yo.

Definición. Proyección del vector sobre el eje. yo se llama el producto del módulo de este vector y el coseno del ángulo entre el eje yo y vector (Fig.2.10):

Una consecuencia de esta definición es la afirmación de que vectores iguales tienen proyecciones iguales (en el mismo eje).

Tenga en cuenta las propiedades de las proyecciones.

1) proyección de la suma de vectores sobre algún eje yo es igual a la suma de las proyecciones de los términos de los vectores sobre el mismo eje:

2) la proyección del producto de un escalar y un vector es igual al producto de este escalar y la proyección del vector en el mismo eje:

Consecuencia. La proyección de una combinación lineal de vectores sobre el eje es igual a la combinación lineal de sus proyecciones:

Omitimos las demostraciones de las propiedades.

6 0 . Sistema de coordenadas cartesianas rectangulares en el espacio.Descomposición de un vector en vectores unitarios de ejes. Sean como base tres vectores unitarios mutuamente perpendiculares; introducimos una notación especial para ellos. Al colocarlos comienzan en el punto O, dirija a lo largo de ellos (según los vectores unitarios) los ejes de coordenadas Buey,Oye y O z(un eje con una dirección positiva seleccionada en él, un punto de referencia y una unidad de longitud se denomina eje de coordenadas).

Definición. Un sistema ordenado de tres ejes de coordenadas mutuamente perpendiculares con un origen común y una unidad de longitud común se denomina sistema de coordenadas cartesianas rectangulares en el espacio.

Eje Buey llamado el eje x, Oye- el eje y y O z eje de aplicación.

Tratemos con la expansión de un vector arbitrario en términos de la base. Del teorema (ver §2.2, ítem 3 0 , (2.13)) se deduce que puede expandirse únicamente en términos de la base (aquí, en lugar de la notación, se usa la coordenada):

En (2.21) están las coordenadas (rectangulares cartesianas) del vector. El significado de las coordenadas cartesianas se establece mediante el siguiente teorema.

Teorema. Las coordenadas cartesianas rectangulares del vector son las proyecciones de este vector, respectivamente, sobre los ejes Buey,Oye y O z.

Prueba. Colocamos el vector en el origen del sistema de coordenadas - el punto O. Entonces su final coincidirá con algún punto.

Dibujar a través de un punto tres planos paralelos a los planos de coordenadas Oyz,Oxz y oxi(Fig. 2.11 xx). Obtenemos entonces:

En (2.22) los vectores se denominan componentes del vector a lo largo de los ejes Buey,Oye y O z.

Sean y denoten, respectivamente, los ángulos formados por el vector con los vectores unitarios. Entonces para los componentes obtenemos las siguientes fórmulas:

= =, = =, = =(2.23)

De (2.21), (2.22) (2.23) encontramos:

– las coordenadas del vector son las proyecciones de este vector sobre los ejes de coordenadas Buey,Oye y O z respectivamente.

Comentario. Los números se denominan cosenos directores del vector.

El módulo del vector (diagonal de un paralelepípedo rectangular) se calcula mediante la fórmula:

De las fórmulas (2.23) y (2.24) se deduce que los cosenos directores se pueden calcular mediante las fórmulas:

Levantando ambas partes de cada una de las igualdades de (2.25) y sumando término a término las partes izquierda y derecha de las igualdades resultantes, llegamos a la fórmula:

- no tres ángulos cualesquiera forman una cierta dirección en el espacio, sino sólo aquellos cuyos cosenos están relacionados por la relación (2.26).

7 0 . Vector de radio y coordenadas de punto.Determinación de un vector por su principio y final. Introduzcamos una definición.

Definición. El radio-vector (denotado) es el vector que conecta el origen de coordenadas O con este punto (Fig. 2.12 xx):

Cualquier punto en el espacio corresponde a un determinado radio vector (y viceversa). Así, los puntos en el espacio se representan en álgebra vectorial por sus radios vectores.

Obviamente, las coordenadas del punto METRO son proyecciones de su radio vector en los ejes de coordenadas:

y por lo tanto,

– el radio vector de un punto es un vector cuyas proyecciones sobre los ejes de coordenadas son iguales a las coordenadas de este punto. De aquí se siguen dos entradas: i.

Obtendremos fórmulas para calcular las proyecciones de un vector por las coordenadas de su punto inicial y punto final.

Dibujemos los radios vectores y el vector (Fig. 2.13). eso lo conseguimos

– las proyecciones del vector sobre los vectores de coordenadas son iguales a las diferencias de las coordenadas correspondientes del final y el comienzo del vector.

8 0 . Algunos problemas en coordenadas cartesianas.

1) condiciones de colinealidad vectorial . Del teorema (ver §2.1, ítem 2 0 , fórmula (2.7)) se sigue que para que los vectores sean colineales es necesario y suficiente que se cumpla la relación: =. De esta igualdad vectorial se obtienen tres igualdades en forma de coordenadas:, de donde se sigue la condición de colinariedad de los vectores en forma de coordenadas:

– para que los vectores sean colineales, es necesario y suficiente que sus respectivas coordenadas sean proporcionales.

2) distancia entre puntos . De la representación (2.29) se sigue que la distancia entre los puntos y está determinada por la fórmula

3) división de segmentos a este respecto . Que se den los puntos y las razones. Necesito encontrar las coordenadas del punto. METRO (fig.2.14).

Tenemos de la condición de vectores colineales: , de donde y

De (2.32) obtenemos en forma de coordenadas:

De las fórmulas (2.32 ') se pueden obtener fórmulas para calcular las coordenadas del medio del segmento, suponiendo:

Comentario. Consideraremos los segmentos como positivos o negativos, dependiendo de si su dirección coincide con la dirección desde el inicio del segmento hasta el final, o no coincide. Luego, usando las fórmulas (2.32) - (2.32”), puede encontrar las coordenadas del punto que divide el segmento externamente, es decir, para que el punto divisorio METRO está en la continuación del segmento, y no dentro de él. Al mismo tiempo, por supuesto.

4) ecuación de superficie esférica . Compongamos la ecuación de una superficie esférica - el lugar geométrico de los puntos equidistantes a una distancia de algún centro fijo - un punto. Obviamente, en este caso, y teniendo en cuenta la fórmula (2.31)

La ecuación (2.33) es la ecuación de la superficie esférica deseada.