📝 Систем линеарни равенки

Овој документ ги објаснува основните концепти на линеарни равенки, системи од линеарни равенки, нивното претставување со матрици, методи за решавање, и поврзани концепти како вектори, линеарни комбинации, линеарна зависност и трансформации.


💡 Линеарна равенка

Линеарна равенка со $ n $ непознати е равенка од облик:

$$ a_1 x_1 + a_2 x_2 + \dots + a_n x_n = b $$

каде $ b \in \Re $ е изразен преку константи $ a_i \in \Re $ и непознати $ x_i \in \Re $.

📊 Систем линеарни равенки

Систем од $ m $ линеарни равенки со $ n $ непознати $ x_1, x_2, \ldots, x_n $ е множество од $ m $ линеарни равенки:

$$ a_{11}x_{1} + a_{12}x_{2} + \cdots + a_{1n}x_{n} = b_{1} $$
$$ a_{21}x_{1} + a_{22}x_{2} + \cdots + a_{2n}x_{n} = b_{2} $$
$$ \dots $$
$$ a_{m1}x_{1} + a_{m2}x_{2} + \cdots + a_{mn}x_{n} = b_{m} $$

⚖️ Можни исходи за систем од линеарни равенки

Систем од линеарни равенки може:


🔢 Системи линеарни равенки претставени со матрици

Системот од линеарни равенки може да се претстави во матрична форма.

📝 Матрица од коефициенти

Матрицата од коефициенти $ A $ ги содржи сите константи $ a_{ij} $:

$$ A = \begin{bmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & & \vdots \\ a_{m1} & a_{m2} & \dots & a_{mn} \end{bmatrix} $$

➡️ Матрица (вектор) од резултати

Векторот $ b $ ги содржи слободните членови:

$$ \mathbf{b} = \begin{bmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{bmatrix} $$

➕ Проширена матрица

Со додавање на колоната со слободни членови $ b $ како $ (n+1) $-ва колона до матрицата на коефициенти $ A $, се добива проширена матрица на системот:

$$ \begin{bmatrix} a_{11} & a_{12} & \dots & a_{1n} & b_1 \\ a_{21} & a_{22} & \dots & a_{2n} & b_2 \\ \vdots & \vdots & & \vdots & \vdots \\ a_{m1} & a_{m2} & \dots & a_{mn} & b_m \end{bmatrix} $$

🛠️ Решавање на систем линеарни равенки

За решавање на систем, на пример:

$$ x_{1} + 2x_{2} + x_{3} = 2 $$
$$ x_{1} + 3x_{3} = 1 $$
$$ -x_{1} + x_{2} + x_{3} = -1 $$

↔️ Еквивалентни системи

Два системи линеарни равенки се еквивалентни ако решенијата на првиот систем се решенија и на вториот систем и обратно. Следниве трансформации на систем од линеарни равенки даваат еквивалентен систем:

  1. Замена на местата на две равенки.

  2. Множење на една равенка со ненулти број.

  3. Множење на една равенка со ненулти број и додавање на друга равенка.

Овие операции се применуваат на проширената матрица за да се реши системот. Пример за решавање:

$$ \begin{bmatrix} 1 & 2 & 1 & 2 \\ 1 & 0 & 3 & 1 \\ -1 & 1 & 1 & -1 \end{bmatrix} \xrightarrow[R_3 \to R_3+R_1]{R_2 \to R_2-R_1} \begin{bmatrix} 1 & 2 & 1 & 2 \\ 0 & -2 & 2 & -1 \\ 0 & 3 & 2 & 1 \end{bmatrix} \xrightarrow{R_2 \to \frac{-1}{2}R_2} \begin{bmatrix} 1 & 2 & 1 & 2 \\ 0 & 1 & -1 & \frac{1}{2} \\ 0 & 3 & 2 & 1 \end{bmatrix} \xrightarrow{R_3 \to R_3-3R_2} \begin{bmatrix} 1 & 2 & 1 & 2 \\ 0 & 1 & -1 & \frac{1}{2} \\ 0 & 0 & 5 & -\frac{1}{2} \end{bmatrix} $$

Од оваа ешалонска форма, со наназад супституција се добива:

$$ x_3 = -\frac{1}{10} $$
$$ x_2 = \frac{1}{2} - (-1)\frac{-1}{10} = \frac{2}{5} $$
$$ x_1 = 2 - 1 \cdot \frac{-1}{10} - 2 \cdot \frac{4}{10} = \frac{13}{10} $$

❓ Две фундаментални прашања за линеарен систем

  1. Дали системот е конзистентен (т.е. дали постои барем едно решение)?

  2. Ако постои решение, дали е единствено?

📈 Редукција на редици - Ешалонска форма

Правоаголна матрица е во ешалонска форма (или форма на ешалонски ред) ако ги има следниве три својства:

  1. Сите ненулти редици се над сите редици во кои сите се нули.

  2. Секој водечки елемент (прв ненулти елемент) во редицата е во колона десно од водечкиот елемент на редицата над него.

  3. Сите елементи во колоната под водечкиот елемент се нули.

Ако матрицата во ешалонска форма ги исполнува следниве дополнителни услови, тогаш тоа е во редуцирана ешалонска форма: 4. Водечкиот елемент во секоја ненулта редица е 1. 5. Секоја водечка 1-ца е единствениот ненулти запис во неговата колона.

Ешалонска форма на матрица

🎯 Пивот

Пивот позиција и пивот колона

⚙️ Алгоритам за редуцирање на редици (Гаусова елиминација)

  1. Започни со најлевата ненулта колона. Тоа е пивот колоната. Пивотот е на горната позиција.

  2. Ако на таа позиција има 0, селектирај редица која не започнува со 0 и направи замена на редици.

  3. Направи замена на редици така што сите редици кои почнуваат со 0 се под редиците кои не започнуваат со 0.

  4. Со Гаусова трансформација (множење на првата редица со број и додавање на наредните редици) трансформирај ги сите елементи под пивотот во 0.

  5. Повторувај ги чекорите на подматриците кои остануваат, додека не останат редици кои треба да се заменат.

➕ Гаусов метод за решавање на систем равенки


📏 Вектори и линеарни комбинации

➡️ Вектори во $ \mathbf{R}^2 $

➕ Собирање и множење со скалар

🗺️ Собирање и множење во $ \mathbf{R}^2 $ - геометриска интерпретација

Геометриска интерпретација на собирање вектори

Собирањето на вектори може да се визуелизира со правилото на паралелограм.

Геометриска интерпретација на множење со скалар

Множењето со скалар го менува должината на векторот и може да ја промени насоката ако скаларот е негативен.

🌐 Вектори во $ \mathbf{R}^n $

📜 Својства на собирање на вектори

Нека $ \mathbf{u}, \mathbf{v} $ и $ \mathbf{w} $ се вектори од $ \mathbf{R}^n $, а $ c $ и $ d $ се скалари. Тогаш:

🧩 Линеарна комбинација

За дадени вектори $ \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_p $ во $ \mathbf{R}^n $ и дадени скалари $ c_1, c_2, \ldots, c_p $, векторот $ \mathbf{y} $ дефиниран како:

$$ \mathbf{y} = c_1 \mathbf{v}_1 + \dots + c_p \mathbf{v}_p $$

се нарекува линеарна комбинација на $ \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_p $ со тежини $ c_1, c_2, \ldots, c_p $.

✍️ Претставување како линеарна комбинација

Пример: Нека $ \mathbf{a} = \begin{bmatrix} 2 \\ 3 \\ 5 \end{bmatrix} $ и $ \mathbf{b} = \begin{bmatrix} -2 \\ 0 \\ 4 \end{bmatrix} $. Векторот $ \begin{bmatrix} 5 \\ 9 \\ 11 \end{bmatrix} $ може да се претстави како линеарна комбинација на $ \mathbf{a} $ и $ \mathbf{b} $:

$$ \begin{bmatrix} 5 \\ 9 \\ 11 \end{bmatrix} = 3 \begin{bmatrix} 2 \\ 3 \\ 5 \end{bmatrix} - 1 \begin{bmatrix} -2 \\ 0 \\ 4 \end{bmatrix} $$

Вториот вектор $ \begin{bmatrix} 5 \\ 9 \\ 5 \end{bmatrix} $ не може да се претстави како линеарна комбинација на $ \mathbf{a} $ и $ \mathbf{b} $.


🔗 Претставување со линеарна комбинација и систем линеарни равенки

Векторската равенка:

$$ c_1 \mathbf{v}_1 + \dots + c_p \mathbf{v}_p = \mathbf{b} $$

има исти решенија како и системот равенки на кои векторите $ \mathbf{v}_1, \ldots, \mathbf{v}_p $ се вектор колоните во соодветната проширена матрица.

🌐 Линеарна покривка (Span)

Нека $ \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_p $ се вектори од $ \mathbf{R}^n $. Множеството од сите линеарни комбинации од овие вектори се нарекува линеарна покривка на векторите $ \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_p $ (или подмножество од $ \mathbf{R}^n $ покриено или генерирано од $ \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_p $), кое се бележи со Span$ \{\mathbf{v}_1; \mathbf{v}_2; \ldots; \mathbf{v}_p\} $.

🌍 Геометриска интерпретација на покривки во $ \mathbf{R}^3 $

Геометриска интерпретација на Span

✖️ Претставување на систем равенки преку множење матрици

Систем од линеарни равенки може да се запише како матрично множење:

$$ A\mathbf{x} = \begin{bmatrix} \mathbf{a}_1 & \mathbf{a}_2 & \cdots & \mathbf{a}_n \end{bmatrix} \begin{bmatrix} x_1 \\ \vdots \\ x_n \end{bmatrix} = x_1\mathbf{a}_1 + x_2\mathbf{a}_2 + \cdots + x_n\mathbf{a}_n $$

🤝 Врска помеѓу решение на равенка и линеарни комбинации

Теорема: Нека $ A $ е $ m \times n $ матрица. Следниве тврдења се еквивалентни:

🧮 Пресметување на $ A\mathbf{x} $

$$ \begin{bmatrix} 2 & 3 & 4 \\ -1 & 5 & -3 \\ 6 & -2 & 8 \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ x_3 \end{bmatrix} = x_1 \begin{bmatrix} 2 \\ -1 \\ 6 \end{bmatrix} + x_2 \begin{bmatrix} 3 \\ 5 \\ -2 \end{bmatrix} + x_3 \begin{bmatrix} 4 \\ -3 \\ 8 \end{bmatrix} = \begin{bmatrix} 2x_1 + 3x_2 + 4x_3 \\ -x_1 + 5x_2 - 3x_3 \\ 6x_1 - 2x_2 + 8x_3 \end{bmatrix} $$

0️⃣ Хомоген систем линеарни равенки

Систем линеарни равенки е хомоген ако е од облик $ A\mathbf{x} = \mathbf{0} $.

📝 Решение на систем равенки во параметарска форма

Теорема: Нека равенката $ A\mathbf{x} = \mathbf{b} $ е конзистентна за некое дадено $ \mathbf{b} $, и нека $ \mathbf{p} $ е едно нејзино решение. Тогаш множеството решенија на равенката $ A\mathbf{x} = \mathbf{b} $ е множеството од сите вектори во форма:

$$ \mathbf{w} = \mathbf{p} + \mathbf{v}_{\mathsf{h}} $$

каде $ \mathbf{v}_{\mathsf{h}} $ е било кое решение на хомогената равенка $ A\mathbf{x} = \mathbf{0} $.

🌍 Геометриска интерпретација на решение на нехомоген систем

✍️ Запишување на множеството решенија на конзистентен систем во параметарска векторска форма

  1. Редуцирај ја проширената матрица во ешалонска форма.

  2. Изрази ја секоја базична променлива преку било која слободна променлива која се јавува во равенката.

  3. Запиши го решението за $ \mathbf{x} $ преку вектор чии влезови зависат од слободните променливи.

  4. Направи декомпозиција на $ \mathbf{x} $ во линеарна комбинација на вектори користејќи ги слободните променливи како параметри.

Пример: Систем $ \begin{cases} 2x + 3y = 8 \\ 4x + 6y = 16 \end{cases} $ Проширена матрица: $ \begin{bmatrix} 2 & 3 & 8 \\ 4 & 6 & 16 \end{bmatrix} \sim \begin{bmatrix} 2 & 3 & 8 \\ 0 & 0 & 0 \end{bmatrix} $ Од $ 2x + 3y = 8 \Rightarrow y = \frac{8}{3} - \frac{2}{3}x $. Нека $ x $ е слободна променлива. Решение: $ \begin{bmatrix} x \\ \frac{8}{3} - \frac{2}{3}x \end{bmatrix} $. Параметарски облик: $ \begin{bmatrix} 0 \\ \frac{8}{3} \end{bmatrix} + x \begin{bmatrix} 1 \\ -\frac{2}{3} \end{bmatrix} $.


💹 Примена на линеарни равенки и независност

💰 Хомоген систем во економија (Леонтиев модел на "влез-излез")

Модел за балансирање на приходи и трошоци во економија поделена на сектори.

Пример: Економија со 3 сектори: Јаглен (C), Електрика (E), Челик (S).

Цените на вкупното годишно производство: $ p_{\rm C} $, $ p_{\rm E} $, $ p_{\rm S} $.

Проток на ресурси во економија

Равенки за рамнотежа: $ p_{C} = .4p_{E} + .6p_{S} \Rightarrow p_{C} - .4p_{E} - .6p_{S} = 0 $ $ p_{E} = .6p_{C} + .1p_{E} + .2p_{S} \Rightarrow -.6p_{C} + .9p_{E} - .2p_{S} = 0 $ $ p_{S} = .4p_{C} + .5p_{E} + .2p_{S} \Rightarrow -.4p_{C} - .5p_{E} + .8p_{S} = 0 $

Решавање на системот:

$$ \begin{bmatrix} 1 & -.4 & -.6 & 0 \\ -.6 & .9 & -.2 & 0 \\ -.4 & -.5 & .8 & 0 \end{bmatrix} \sim \dots \sim \begin{bmatrix} 1 & 0 & -.94 & 0 \\ 0 & 1 & -.85 & 0 \\ 0 & 0 & 0 & 0 \end{bmatrix} $$

Решението е: $ \mathbf{p} = \begin{bmatrix} p_{\mathrm{C}} \\ p_{\mathrm{E}} \\ p_{\mathrm{S}} \end{bmatrix} = \begin{bmatrix} .94 p_{\mathrm{S}} \\ .85 p_{\mathrm{S}} \\ p_{\mathrm{S}} \end{bmatrix} = p_{\mathrm{S}} \begin{bmatrix} .94 \\ .85 \\ 1 \end{bmatrix} $. Ова значи дека цените се во одредена пропорција.

🚗 Проток низ мрежа (Кирхофови закони)

Примена на линеарни равенки за анализа на проток, на пример, сообраќај низ градска мрежа.

Intersection

Flow in

Flow out

A

300 + 500 =

$ x_1 + x_2 $

B

$ x_2 + x_4 $ =

300 + $ x_3 $

C

100 + 400 =

$ x_4 + x_5 $

D

$ x_1 + x_5 $ =

600

Решавање на системот: $ \begin{cases} x_1 = 600 - x_5 \\ x_2 = 200 + x_5 \\ x_3 = 400 \\ x_4 = 500 - x_5 \\ x_5 \text{ is free} \end{cases} $ Ова е параметарско решение каде $ x_5 $ е слободна променлива.

↔️ Линеарна зависност и независност

Дефиниција: Множеството од вектори $ \{\mathbf{v}_1, \ldots, \mathbf{v}_p\} $ од $ \mathbf{R}^n $ е линеарно независно ако единствено решение на векторската равенка $ c_1 \mathbf{v}_1 + \dots + c_p \mathbf{v}_p = \mathbf{0} $ е тривијалното решение (т.е. сите коефициенти $ c_i $ се 0). За истото множество ќе речеме дека е линеарно зависно ако постојат коефициенти $ c_1, \ldots, c_p $ од кои барем еден е различен од 0, такви што $ c_1 \mathbf{v}_1 + \dots + c_p \mathbf{v}_p = \mathbf{0} $.

✅ Проверка на линеарна независност

За да провериме дали множеството е линеарно независно, го решаваме системот $ c_1 \mathbf{v}_1 + \dots + c_p \mathbf{v}_p = \mathbf{0} $ по непознатите $ c_i $:

Пример: Дали е независно множеството $ \left\{ \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix}, \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix}, \begin{bmatrix} 2 \\ 1 \\ 0 \end{bmatrix} \right\} $? Го формираме системот: $ x \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} + y \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix} + z \begin{bmatrix} 2 \\ 1 \\ 0 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \end{bmatrix} $, што е еквивалентно на $ A\mathbf{x} = \mathbf{0} $ со $ A = \begin{bmatrix} 1 & 4 & 2 \\ 2 & 5 & 1 \\ 3 & 6 & 0 \end{bmatrix} $. Едно решение е: $ 1 \begin{bmatrix} 1\\2\\3 \end{bmatrix} - 1 \begin{bmatrix} 4\\5\\6 \end{bmatrix} + 1 \begin{bmatrix} 2\\1\\0 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \end{bmatrix} $. Бидејќи постои нетривијално решение ($ x=1, y=-1, z=1 $), множеството е линеарно зависно.

📝 Матрица од вектори и линеарна независност

Нека е дадено множеството од вектори $ \{\mathbf{v}_1, \ldots, \mathbf{v}_p\} $ од $ \mathbf{R}^n $ и нека матрицата $ A $ е чии колони се неговите вектори, т.е. $ A = [\mathbf{v}_1 \ldots \mathbf{v}_p] $.

Пример:

$$ \begin{bmatrix} 0 & 1 & 4 & 0 \\ 1 & 2 & -1 & 0 \\ 5 & 8 & 0 & 0 \end{bmatrix} \sim \begin{bmatrix} 1 & 2 & -1 & 0 \\ 0 & 1 & 4 & 0 \\ 0 & 0 & 13 & 0 \end{bmatrix} $$

Со редуцирање на матрицата во ешалонска форма, се добива дека сите колони се пивот колони, што значи дека системот $ A\mathbf{x}=\mathbf{0} $ има само тривијално решение. Затоа, колоните се линеарно независни.

🔢 Множества со еден или два елементи

📜 Теорема за линеарна зависност

Теорема: Множеството од вектори $ V = \{\mathbf{v}_1, \ldots, \mathbf{v}_p\} $ од $ \mathbf{R}^n $ е линеарно зависно ако постои вектор $ \mathbf{v}_i \in V $ кој може да се претстави како линеарна комбинација на од останатите вектори.

Пример: $ \left\{ \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix}, \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix}, \begin{bmatrix} 2 \\ 1 \\ 0 \end{bmatrix} \right\} $ Векторот $ \begin{bmatrix} 2 \\ 1 \\ 0 \end{bmatrix} $ може да се претстави како: $ \begin{bmatrix} 2 \\ 1 \\ 0 \end{bmatrix} = \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix} - 2 \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} $. Затоа, множеството е линеарно зависно.

Линеарно зависни вектори

Линеарно зависни, $ \mathbf{w} $ е во Span$ \{\mathbf{u}, \mathbf{v}\} $.

Линеарно независни вектори

Линеарно независни, $ \mathbf{w} $ не е во Span$ \{\mathbf{u}, \mathbf{v}\} $.


➡️ Линеарни трансформации

На матрицата $ A $ гледаме како на објект што "делува" на вектор $ \mathbf{x} $ со множење, за да продуцира нов вектор $ A\mathbf{x} $.

Матрични трансформации Дијаграм на трансформација

📊 Пример за матрична трансформација

Дадена е $ A = \begin{bmatrix} 1 & -3 \\ 3 & 5 \\ -1 & 7 \end{bmatrix} $.

📝 Линеарна трансформација - дефиниција

Дефиниција: За трансформацијата $ T $ велиме дека е линеарна трансформација ако:

Последица: За линеарна трансформација:


🧮 Матрица на линеарна трансформација

💡 Пример

Нека $ T $ е линеарна трансформација од $ \mathbf{R}^2 $ во $ \mathbf{R}^3 $ која единечните вектори ги пресликува во: $ T\left(\begin{bmatrix}1\\0\end{bmatrix}\right) = \begin{bmatrix}5\\-7\\2\end{bmatrix} $ и $ T\left(\begin{bmatrix}0\\1\end{bmatrix}\right) = \begin{bmatrix}-3\\8\\0\end{bmatrix} $. Тогаш за било кој вектор $ \mathbf{x} = \begin{bmatrix}x_1\\x_2\end{bmatrix} $: $ T\begin{pmatrix} x_1 \\ x_2 \end{pmatrix} = T\left(x_1\begin{bmatrix}1\\0\end{bmatrix} + x_2\begin{bmatrix}0\\1\end{bmatrix}\right) = x_1 T\left(\begin{bmatrix}1\\0\end{bmatrix}\right) + x_2 T\left(\begin{bmatrix}0\\1\end{bmatrix}\right) = x_1 \begin{bmatrix}5\\-7\\2\end{bmatrix} + x_2 \begin{bmatrix}-3\\8\\0\end{bmatrix} = \begin{bmatrix}5x_1 - 3x_2 \\ -7x_1 + 8x_2 \\ 2x_1\end{bmatrix} $. Стандардната матрица $ A $ е: $ \begin{bmatrix} 5 & -3 \\ -7 & 8 \\ 2 & 0 \end{bmatrix} $.

📜 Теорема за стандардна матрица

Теорема: Нека $ T: \mathbf{R}^n \to \mathbf{R}^m $ е линеарна трансформација. Тогаш, постои единствена матрица $ A $ таква што $ T(\mathbf{x}) = A\mathbf{x} $ за сите $ \mathbf{x} $ во $ \mathbf{R}^n $. Всушност, $ A $ е $ m \times n $ матрицата чија $ j $-та колона е векторот $ T(\mathbf{e}_j) $, каде што $ \mathbf{e}_j $ е $ j $-тата колона на идентичната матрица во $ \mathbf{R}^n $.

$$ A = [T(\mathbf{e}_1) \ldots T(\mathbf{e}_n)] $$

Доказ: $ T(\mathbf{x}) = T(x_1\mathbf{e}_1 + \dots + x_n\mathbf{e}_n) = x_1T(\mathbf{e}_1) + \dots + x_nT(\mathbf{e}_n) = \begin{bmatrix} T(\mathbf{e}_1) & \cdots & T(\mathbf{e}_n) \end{bmatrix} \begin{bmatrix} x_1 \\ \vdots \\ x_n \end{bmatrix} = A\mathbf{x} $.

📐 Примери на стандардни матрици за трансформации

Ротација на вектори Рефлексија низ $x_2=-x_1$ Рефлексија низ почетокот

Transformation

Standard Matrix

Reflection through the $ x_1 $-axis

$ \begin{bmatrix} 1 & 0 \\ 0 & -1 \end{bmatrix} $

Reflection through the $ x_2 $-axis

$ \begin{bmatrix} -1 & 0 \\ 0 & 1 \end{bmatrix} $

Reflection through the line $ x_2 = x_1 $

$ \begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix} $

Хоризонтален shear Вертикален shear

Transformation

Standard Matrix

Projection onto the $ x_1 $-axis

$ \begin{bmatrix} 1 & 0 \\ 0 & 0 \end{bmatrix} $

Projection onto the $ x_2 $-axis

$ \begin{bmatrix} 0 & 0 \\ 0 & 1 \end{bmatrix} $

🔍 Својства на линеарно пресликување

За $ T: \mathbf{R}^n \to \mathbf{R}^m $:

📜 Теорема за својства на линеарно пресликување и стандардна матрица

Нека $ T: \mathbf{R}^n \to \mathbf{R}^m $ е линеарна трансформација и нека $ A $ е стандардната матрица за $ T $. Тогаш:

Пример: За $ T(x_1, x_2) = (3x_1+x_2, 5x_1+7x_2, x_1+3x_2) $. Стандардна матрица: $ A = \begin{bmatrix} 3 & 1 \\ 5 & 7 \\ 1 & 3 \end{bmatrix} $.

🍎 Примена – хранлива вредност (Кембриџ диета)

Линеарни равенки се користат за балансирање на хранливи состојки од различни извори.

Nutrient

Nonfat milk (g/100g)

Soy flour (g/100g)

Whey (g/100g)

Daily need (g)

Protein

36

51

13

33

Carbohydrate

52

34

74

45

Fat

0

7

1.1

3

Ова може да се претстави како систем $ A\mathbf{x} = \mathbf{b} $, каде $ \mathbf{x} $ се количините на секоја состојка.

📈 Примена – диференцни равенки (рекурзија)

Моделирање на промени со текот на времето, на пример, миграција на население. $ \mathbf{x}_1 = A\mathbf{x}_0 $, $ \mathbf{x}_2 = A\mathbf{x}_1 $, итн. $ A $ е матрица на миграција.

Модел на миграција меѓу град и предградија

Ако $ A = \begin{bmatrix} .95 & .03 \\ .05 & .97 \end{bmatrix} $ и $ \mathbf{x}_0 = \begin{bmatrix} 600,000 \\ 400,000 \end{bmatrix} $: $ \mathbf{x}_1 = A\mathbf{x}_0 = \begin{bmatrix} 582,000 \\ 418,000 \end{bmatrix} $ $ \mathbf{x}_2 = A\mathbf{x}_1 = \begin{bmatrix} 565,440 \\ 434,560 \end{bmatrix} $


➕ Матрична алгебра

Матриците се користат за изразување на поврзаности меѓу елементи и за моделирање на системи како комуникациски мрежи и транспортни системи.

✈️ Компјутерски модели за дизајн на авиони

Дијаграм на авион со контролни површини

Инженерите користат 3D моделирање и пресметковна динамика на флуиди (CFD) за дизајн на авиони.

📝 Дефиниција на матрица

Дефиниција: Матрица е правоаголна табела од броеви. Матрица со $ m $ редици и $ n $ колони се нарекува $ m \times n $ матрица.

$$ A = \begin{bmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \dots & a_{mn} \end{bmatrix} $$

📏 Претставување на матрици

Матриците може да се претстават со загради:

$$ A = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix} $$

или со квадратни загради:

$$ A = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix} $$

💡 Пример

🤝 Еднаквост на матрици

Дефиниција: Две матрици се еднакви ако имаат ист број на редици и колони и имаат ист елемент на секоја позиција. Пример: $ \begin{bmatrix} 1 & 1 & 2 \\ -1 & 1 & 0 \end{bmatrix} = \begin{bmatrix} 1 & 1 & 2 \\ -1 & 1 & 0 \end{bmatrix} $. $ \begin{bmatrix} 1 & 1 & 2 \\ -1 & 1 & 0 \end{bmatrix} \neq \begin{bmatrix} 1 & -1 \\ 1 & 1 \\ 2 & 0 \end{bmatrix} $ (различни димензии).

⬛ Квадратна матрица

Кога $ m=n $, матрицата е квадратна матрица.

$$ A_{n \times n} = [a_{ij}]_{n \times n} = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix} $$

✨ Специјални матрици

  1. Нулта матрица ($ O_{m \times n} $): Сите елементи се 0.

    $$ O_{m \times n} = \begin{pmatrix} 0 & \dots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \dots & 0 \end{pmatrix} $$
  2. Дијагонална матрица ($ D $): Квадратна матрица каде сите елементи надвор од главната дијагонала се 0.

    $$ D = \begin{pmatrix} d_{11} & & \\ & \ddots & \\ & & d_{nn} \end{pmatrix} $$
  3. Скаларна матрица ($ S $): Дијагонална матрица каде сите дијагонални елементи се еднакви ($ k $).

    $$ S = \begin{pmatrix} k & & \\ & \ddots & \\ & & k \end{pmatrix} $$
  4. Идентична матрица ($ I_n $): Скаларна матрица каде $ k=1 $.

    $$ I_n = \begin{pmatrix} 1 & & \\ & \ddots & \\ & & 1 \end{pmatrix} $$

↘️ Дијагонална матрица

Дефиниција: Дијагонална матрица од ред $ n $ е матрица $ D_n = [d_{ij}]_{n \times n} $ ако $ d_{ij}=0 $ кога $ i \neq j $. Пример: $ \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 2 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & -1 \end{bmatrix} $.

🔺 Триаголна матрица

➕ Собирање на матрици

Две матрици можат да се соберат ако имаат исти димензии. Дефиниција: Нека $ A = [a_{ij}]_{m \times n} $ и $ B = [b_{ij}]_{m \times n} $. Тогаш $ A+B = [a_{ij}+b_{ij}]_{m \times n} $. Пример: $ \begin{bmatrix} 1 & 1 & 2 \\ -1 & 1 & 0 \end{bmatrix} + \begin{bmatrix} 2 & -1 & 2 \\ -1 & 0 & 1 \end{bmatrix} = \begin{bmatrix} 3 & 0 & 4 \\ -2 & 1 & 1 \end{bmatrix} $.

✖️ Множење на матрица со скалар

Дефиниција: Нека $ A = [a_{ij}]_{m \times n} $ е матрица и $ \lambda $ е реален број. Тогаш $ \lambda A = [\lambda a_{ij}]_{m \times n} $. Пример: $ 3 \begin{bmatrix} 1 & 1 & 2 \\ -1 & 1 & 0 \end{bmatrix} = \begin{bmatrix} 3 & 3 & 6 \\ -3 & 3 & 0 \end{bmatrix} $.

🧮 Множење на матрици

Дефиниција: Нека $ A = [a_{ij}]_{m \times n} $ и $ B = [b_{ij}]_{n \times p} $ се две матрици. Производот $ AB = C = [c_{ij}]_{m \times p} $ е дефиниран ако бројот на колони на $ A $ е еднаков на бројот на редици на $ B $. Елементот $ c_{ij} $ се пресметува како:

$$ c_{ij} = a_{i1}b_{1j} + a_{i2}b_{2j} + \dots + a_{in}b_{nj} $$

Пример: $ \begin{bmatrix} 1 & 1 & 2 \\ -1 & 1 & 0 \end{bmatrix} \begin{bmatrix} 1 & 1 \\ 0 & 2 \\ -1 & 0 \end{bmatrix} = \begin{bmatrix} 1 \cdot 1 + 1 \cdot 0 + 2 \cdot (-1) & 1 \cdot 1 + 1 \cdot 2 + 2 \cdot 0 \\ -1 \cdot 1 + 1 \cdot 0 + 0 \cdot (-1) & -1 \cdot 1 + 1 \cdot 2 + 0 \cdot 0 \end{bmatrix} = \begin{bmatrix} -1 & 3 \\ -1 & 1 \end{bmatrix} $.

↔️ Множење со дијагонална матрица

📜 Закони кај операции со матрици

Нека $ A, B, C $ се матрици со соодветни редови и $ \alpha, \beta $ се скалари:

  1. $ A+B=B+A $ (комутативност на собирање)

  2. $ (A+B)+C=A+(B+C) $ (асоцијативност на собирање)

  3. $ \alpha(A+B)=\alpha A+\alpha B $ (дистрибутивност на скалар)

  4. $ (\alpha + \beta)A = \alpha A + \beta A $ (дистрибутивност на матрица)

  5. $ A+O=O+A=A $ (нулти елемент)

  6. $ A+(-A)=O $ (инверзен елемент)

  7. $ (\alpha\beta)A = \alpha(\beta A) $ (асоцијативност на множење со скалар)

  8. $ (AB)C=A(BC) $ (асоцијативност на множење)

  9. $ A(B+C)=AB+AC $ (лева дистрибутивност)

  10. $ (A+B)C=AC+BC $ (десна дистрибутивност)

  11. $ I_m A_{m \times n} = A_{n \times n} = A_{m \times n} $ (идентична матрица)

  12. Во општ случај $ AB \neq BA $ (некомутативност на множење)

🔁 Транспонирана матрица

Дефиниција: Нека $ A = [a_{ij}] $ е $ m \times n $ матрица. Транспонираната матрица на $ A $, која се бележи со $ A^T $, е матрица од ред $ n \times m $ која се добива од $ A $ со промена на редиците со колоните (и обратно). Односно $ A^T = [b_{ij}] $, каде $ b_{ij} = a_{ji} $. Пример: $ A = \begin{bmatrix} 1 & 1 & 2 \\ -1 & 1 & 0 \end{bmatrix} $; $ A^T = \begin{bmatrix} 1 & -1 \\ 1 & 1 \\ 2 & 0 \end{bmatrix} $.

📜 Својства на транспонирани матрици

🔄 Симетрична матрица

Дефиниција: Една квадратна матрица $ A = [a_{ij}]_{n \times n} $ е симетрична матрица ако $ A = A^T $. Односно $ A $ е симетрична ако $ a_{ij} = a_{ji} $. Пример: $ A = \begin{bmatrix} 1 & 2 \\ 2 & 0 \end{bmatrix} $. $ A = \begin{bmatrix} 1 & 2 & 3 & 4 \\ 2 & 1 & 1 & 2 \\ 3 & 1 & 2 & 3 \\ 4 & 2 & 3 & 0 \end{bmatrix} $.


◀️ Инверзни матрици, LU факторизација

📈 Степен на матрица

За квадратни матрици од ред $ n $, може да се дефинира степен на матрица:

🔄 Инверзна матрица

Дефиниција: Нека $ A $ и $ B $ се две квадратни матрици од ред $ n $. Ќе речеме дека $ B $ е инверзна матрица на $ A $ ако $ AB=BA=I_n $. Пример: За $ A = \begin{bmatrix} 1 & 2 \\ 2 & 0 \end{bmatrix} $ и $ B = \begin{bmatrix} 0 & \frac{1}{2} \\ \frac{1}{2} & -\frac{1}{4} \end{bmatrix} $, важи $ AB=BA=I_2 $.

2️⃣ Инверзна на $ 2 \times 2 $ матрица

Теорема: Ако $ A = \begin{bmatrix} a & b \\ c & d \end{bmatrix} $ е квадратна матрица од ред 2 и $ ad-bc \neq 0 $, тогаш $ A $ е инверзибилна матрица и:

$$ A^{-1} = \frac{1}{ad - bc} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix} $$

Изразот $ ad-bc $ се нарекува детерминанта на $ A $.

💡 Решение на систем равенки за инверзибилна матрица

Теорема: Ако $ A $ е инверзибилна матрица, тогаш системот равенки $ A\mathbf{x}=\mathbf{b} $ има единствено решение:

$$ \mathbf{x} = A^{-1}\mathbf{b} $$

Доказ: Ако $ A\mathbf{x}=\mathbf{b} $ го помножиме од лево со $ A^{-1} $, добиваме: $ A^{-1}(A\mathbf{x}) = A^{-1}\mathbf{b} \Leftrightarrow (A^{-1}A)\mathbf{x} = A^{-1}\mathbf{b} \Leftrightarrow I\mathbf{x} = A^{-1}\mathbf{b} \Leftrightarrow \mathbf{x} = A^{-1}\mathbf{b} $.

☝️ Единственост на инверзна матрица

Својство: Ако за квадратна матрица $ A $ постои инверзна матрица, тогаш таа е единствена. Ако за матрицата $ A $ постои инверзна матрица, велиме дека $ A $ е инверзибилна или несингуларна или регуларна матрица. Инверзната матрица се означува со $ A^{-1} $.

✖️ Инверзна на производ

Својство: Ако $ A $ и $ B $ се квадратни инверзибилни матрици од ист ред, тогаш и матрицата $ AB $ е инверзибилна и притоа:

$$ (AB)^{-1} = B^{-1}A^{-1} $$

Ова својство може да се обопшти: $ (A_1A_2\dots A_n)^{-1} = A_n^{-1}A_{n-1}^{-1}\dots A_1^{-1} $.

🇹 Транспонирана инверзна матрица

Својство: Ако квадратната матрица $ A $ е инверзибилна, тогаш и нејзината транспонирана матрица $ A^T $ е инверзибилна и:

$$ (A^T)^{-1} = (A^{-1})^T $$

↔️ Инверзна матрица на дијагонална

Својство: Ако $ D=\text{diag}(d_1, d_2, \ldots, d_n) $ е дијагонална матрица за која $ d_i \neq 0 $ за секој $ i $, тогаш $ D $ е инверзибилна и $ D^{-1}=\text{diag}(1/d_1, 1/d_2, \ldots, 1/d_n) $.

🔄 Елементарни трансформации на матрица

Дефиниција: Елементарна трансформација на дадена матрица $ A $ е една од следните трансформации:

  1. Замена на две редици (колони).

  2. Множење на редица (колона) со скалар различен од нула.

  3. Додавање на елементите од еден ред (колона) помножени со скалар на соодветните елементи од друг ред (колона).

↔️ Еквивалентни матрици

Дефиниција: Ако матрицата $ B $ е добиена од матрицата $ A $ со конечен број елементарни трансформации, велиме дека $ A $ и $ B $ се еквивалентни матрици ($ A \sim B $).

Дефиниција: Матриците добиени со една од елементарните трансформации на идентичната матрица $ I_n $, се нарекуваат елементарни матрици.

Пример: $ E_{3,1(\alpha)} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ \alpha & 0 & 1 \end{bmatrix} $.

Својство: Елементарните трансформации на редиците на една матрица се добиваат со множење на матрицата од лево со соодветната елементарна матрица ($ e(A) = EA $). Елементарните трансформации на колоните се добиваат со множење од десно ($ e(A) = AE' $).

📜 Својства на елементарните матрици и трансформации

🔎 Определување на инверзна матрица со елементарни трансформации

Метод: Ако матрицата $ A $ со елементарни трансформации на редиците ја сведеме на идентична матрица ($ E_k \dots E_1 A = I $), тогаш со примена на истите елементарни трансформации на идентичната матрица, таа ќе се трансформира во инверзната матрица ($ E_k \dots E_1 I = A^{-1} $).

➕ Определување на инверзна матрица - Гаус-Жорданов метод

Влез: Квадратна матрица $ A $ од ред $ n $. Излез: Инверзната матрица на $ A $ или заклучок дека $ A $ нема инверзна.

Чекор 1: Формираме $ n \times 2n $ блок матрица $ M = [A | I] $. Чекор 2: Ја редуцираме $ M $ до ешалонски облик. Ако овој процес генерира нулти ред во $ A $ блокот, $ A $ нема инверзна. Чекор 3: Го редуцираме ешалонскиот облик на $ M $ до редично каноничен облик, $ M \sim [I | B] $. Чекор 4: Ставаме $ A^{-1} = B $.

Пример: Наоѓање инверзна на $ A = \begin{bmatrix} 1 & 2 & 1 \\ 1 & 0 & 3 \\ -1 & 1 & 1 \end{bmatrix} $.

$$ \begin{bmatrix} 1 & 2 & 1 & | & 1 & 0 & 0 \\ 1 & 0 & 3 & | & 0 & 1 & 0 \\ -1 & 1 & 1 & | & 0 & 0 & 1 \end{bmatrix} \sim \dots \sim \begin{bmatrix} 1 & 0 & 0 & | & \frac{3}{10} & \frac{1}{10} & -\frac{3}{5} \\ 0 & 1 & 0 & | & \frac{2}{5} & -\frac{2}{10} & \frac{1}{5} \\ 0 & 0 & 1 & | & -\frac{1}{10} & \frac{3}{10} & \frac{1}{5} \end{bmatrix} $$

Значи, $ A^{-1} = \begin{bmatrix} \frac{3}{10} & \frac{1}{10} & -\frac{3}{5} \\ \frac{2}{5} & -\frac{1}{5} & \frac{1}{5} \\ -\frac{1}{10} & \frac{3}{10} & \frac{1}{5} \end{bmatrix} $.

📜 Теорема на инверзибилна матрица

За квадратна $ n \times n $ матрица $ A $, следниве тврдења се еквивалентни:

🔄 Инверзибилна линеарна трансформација

Дефиниција: $ T: \mathbf{R}^n \to \mathbf{R}^n $ е инверзибилна линеарна трансформација ако постои линеарна трансформација $ S: \mathbf{R}^n \to \mathbf{R}^n $ таква што за секое $ \mathbf{x} $:

Теорема: Нека $ T: \mathbf{R}^n \to \mathbf{R}^n $ е линеарна трансформација и нека $ A $ е нејзината матрица на трансформација. Тогаш $ T $ е инверзибилна ако и само ако $ A $ е инверзибилна матрица. Во тој случај, линеарната трансформација $ S $ дадена од $ S(\mathbf{x}) = A^{-1}\mathbf{x} $ е единствена функција што ги задоволува горенаведените равенки.

🧱 Блок матрици

Секоја матрица од ред $ m \times n $ со помош на вертикални и хоризонтални линии може да се разбие на подматрици наречени блок матрици. Пример:

$$ \begin{bmatrix} 1 & -2 & 0 & 1 & \vdots & 3 \\ 2 & 3 & \vdots & 5 & 7 & \vdots & -2 \\ \hdashline 3 & 1 & \vdots & 4 & 5 & \vdots & 9 \\ 4 & 6 & -3 & 1 & \vdots & 8 \end{bmatrix} $$

Блок матриците се многу корисни од пресметковна гледна точка, бидејќи операциите може да се реализираат како блоковите да се поединечни елементи.

➗ Факторизација на матрица

Факторизација на матрицата $ A $ е израз што ја изразува $ A $ како производ на две или повеќе матрици.

📉 LU факторизација

Прво претпоставуваме дека $ A $ е $ m \times n $ матрица што може да се редуцира во ешалонска форма без промена на редиците. Тогаш може да се напише $ A $ како:

$$ A = LU $$
$$ A = \begin{bmatrix} 1 & 0 & 0 & 0 \\ * & 1 & 0 & 0 \\ * & * & 1 & 0 \\ * & * & * & 1 \end{bmatrix} \begin{bmatrix} \blacksquare & * & * & * \\ 0 & \blacksquare & * & * \\ 0 & 0 & \blacksquare & * \\ 0 & 0 & 0 & 0 \end{bmatrix} $$
$$ L \qquad U $$

💡 LU факторизација за решавање на систем

Равенството $ A\mathbf{x}=\mathbf{b} $ е еквивалентно на $ L(U\mathbf{x})=\mathbf{b} $. Воведуваме $ \mathbf{y} = U\mathbf{x} $, и системот се дели на два полесни за решавање:

  1. $ L\mathbf{y}=\mathbf{b} $ (се решава за $ \mathbf{y} $ со напредна супституција)

  2. $ U\mathbf{x}=\mathbf{y} $ (се решава за $ \mathbf{x} $ со наназад супституција)

Дијаграм на LU факторизација

📝 Пример:

$$ A = \begin{bmatrix} 3 & -7 & -2 & 2 \\ -3 & 5 & 1 & 0 \\ 6 & -4 & 0 & -5 \\ -9 & 5 & -5 & 12 \end{bmatrix} = \begin{bmatrix} 1 & 0 & 0 & 0 \\ -1 & 1 & 0 & 0 \\ 2 & -5 & 1 & 0 \\ -3 & 8 & 3 & 1 \end{bmatrix} \begin{bmatrix} 3 & -7 & -2 & 2 \\ 0 & -2 & -1 & 2 \\ 0 & 0 & -1 & 1 \\ 0 & 0 & 0 & -1 \end{bmatrix} = LU $$

⚙️ Алгоритам за LU факторизација

  1. Редуцирај ја $ A $ до ешалонска форма $ U $ со редични трансформации кои не вклучуваат промена на редици (ако е можно).

  2. Стави ги елементите во $ L $ така што истите тие трансформации $ L $ би ја редуцирале до $ I $. Елементите на $ L $ се множителите користени во Гаусовата елиминација, поставени под дијагоналата со спротивен знак, а дијагоналата е составена од единици.

Пример:

$$ A = \begin{bmatrix} 2 & 4 & -1 & 5 & -2 \\ -4 & -5 & 3 & -8 & 1 \\ 2 & -5 & -4 & 1 & 8 \\ -6 & 0 & 7 & -3 & 1 \end{bmatrix} \sim \dots \sim U = \begin{bmatrix} 2 & 4 & -1 & 5 & -2 \\ 0 & 3 & 1 & 2 & -3 \\ 0 & 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 0 & 5 \end{bmatrix} $$

Матрицата $ L $ се формира од множителите:

$$ L = \begin{bmatrix} 1 & 0 & 0 & 0 \\ -2 & 1 & 0 & 0 \\ 1 & -3 & 1 & 0 \\ -3 & 4 & 2 & 1 \end{bmatrix} $$

📖 База, ранг, димензија, јадро и апликации

💹 Леонтиев влезно-излезен модел за побарувачка

Модел за економија поделена на $ n $ сектори, каде секој произведува конечна побарувачка $ d_i $.

💡 Пример

Purchased from:

Manufacturing

Agriculture

Services

Manufacturing

.50

.40

.20

Agriculture

.20

.30

.10

Services

.10

.10

.30

$ C = \begin{bmatrix} .5 & .4 & .2 \\ .2 & .3 & .1 \\ .1 & .1 & .3 \end{bmatrix} $. $ I - C = \begin{bmatrix} .5 & -.4 & -.2 \\ -.2 & .7 & -.1 \\ -.1 & -.1 & .7 \end{bmatrix} $. Ако $ \mathbf{d} = \begin{bmatrix} 50 \\ 30 \\ 20 \end{bmatrix} $, тогаш $ \mathbf{x} = (I-C)^{-1}\mathbf{d} $ се наоѓа со решавање на системот: $ \begin{bmatrix} .5 & -.4 & -.2 & 50 \\ -.2 & .7 & -.1 & 30 \\ -.1 & -.1 & .7 & 20 \end{bmatrix} \sim \dots \sim \begin{bmatrix} 1 & 0 & 0 & 226 \\ 0 & 1 & 0 & 119 \\ 0 & 0 & 1 & 78 \end{bmatrix} $. Треба да се произведе 226 од производство, 119 од земјоделство и 78 од сервиси.

🧮 Пресметка на $ (I-C)^{-1} $

$ (I-C)^{-1} = I+C+C^2+C^3+\dots $ (Тајлоров ред). Ова е итеративен начин на пресметка на инверзната матрица.

🖼️ Графика - хомогени координати

За да се направи транслацијата линеарна, се додава димензија. Пример - транслација за вектор $ (h,k) $:

$$ \begin{bmatrix} 1 & 0 & h \\ 0 & 1 & k \\ 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} x \\ y \\ 1 \end{bmatrix} = \begin{bmatrix} x+h \\ y+k \\ 1 \end{bmatrix} $$

Слично се прави и во $ \mathbf{R}^3 $, со додавање на 4-та координата.

🌐 Хомогени координати - генерално

$ (X; Y; Z; H) $ се хомогени координати за $ (x; y;z) $ ако $ H \neq 0 $ и: $ x=X/H $, $ y=Y/H $, $ z=Z/H $. Пример: И $ (10, -6, 14, 2) $ и $ (15, -9, 21, 3) $ се хомогени координати за $ (5, -3, 7) $.

👁️ Графика – перспективна проекција

Кога 3Д објекти се прикажуваат на 2Д екран, тоа е перспективна проекција.

Перспективна проекција

Пример: Проекција на кутија со центар на проекција во $ (0,0,10) $. $ PD = \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & -1/10 & 1 \end{bmatrix} \begin{bmatrix} 3 & 5 & 5 & 3 & 3 & 5 & 5 & 3 \\ 1 & 1 & 0 & 0 & 1 & 1 & 0 & 0 \\ 5 & 5 & 5 & 5 & 4 & 4 & 4 & 4 \\ 1 & 1 & 1 & 1 & 1 & 1 & 1 & 1 \end{bmatrix} = \begin{bmatrix} 3 & 5 & 5 & 3 & 3 & 5 & 5 & 3 \\ 1 & 1 & 0 & 0 & 1 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\ .5 & .5 & .5 & .5 & .6 & .6 & .6 & .6 \end{bmatrix} $. Со делење на првите три координати со четвртата, се добиваат проектираните точки.

🗄️ Потпростор, ранг, димензија, база, јадро

🌐 Потпростори од $ \mathbf{R}^n $

Дефиниција: Потпростор од $ \mathbf{R}^n $ е било кое множество $ H $ од $ \mathbf{R}^n $ за кое важат следниве три својства:

🏞️ Примери од $ \mathbf{R}^3 $

• Потпростори се:

• Потпростори не се:

📦 Простор од вектор колони на матрица – Колонски простор

Дефиниција: Простор на вектор колоните, или колонски простор (Col $ A $), на матрицата $ A $ е множеството од сите линеарни комбинации на вектор колоните на $ A $.

Пример: За да се провери дали $ \mathbf{b}=[3,3,-4]^T $ е во колонскиот простор на $ A = \begin{bmatrix} 1 & -3 & -4 \\ -4 & 6 & -2 \\ -3 & 7 & 6 \end{bmatrix} $, треба да се види дали $ A\mathbf{x}=\mathbf{b} $ има решение. $ \begin{bmatrix} 1 & -3 & -4 & 3 \\ -4 & 6 & -2 & 3 \\ -3 & 7 & 6 & -4 \end{bmatrix} \sim \begin{bmatrix} 1 & -3 & -4 & 3 \\ 0 & -6 & -18 & 15 \\ 0 & 0 & 0 & 0 \end{bmatrix} $. Системот има решение, па $ \mathbf{b} $ се наоѓа во Col $ A $.

0️⃣ Нулти простор (Null space)

Дефиниција: Нулти простор (Nul $ A $) на матрицата $ A $ е множеството вектори $ \mathbf{x} $ за кое важи $ A\mathbf{x}=\mathbf{0} $.

Теорема: Нултиот простор на $ m \times n $ матрицата $ A $ е потпростор од $ \mathbf{R}^n $. Еквивалентно, множеството на сите решенија на системот $ A\mathbf{x}=\mathbf{0} $ е потпростор на $ \mathbf{R}^n $. Доказ:

🌿 База

Дефиниција: База на просторот $ H $ е линеарно независно подмножество од $ H $ за кое важи дека негов покривач е $ H $.

Пример:

  1. Единечните вектори од $ \mathbf{R}^n $ претставуваат база за $ \mathbf{R}^n $.

  2. Било кои два линеарно независни вектори кои лежат на рамнина која минува низ координатниот почеток се база за векторскиот простор кој го претставува таа рамнина.

Пример: Да се најде една база за нултиот простор на $ A = \begin{bmatrix} -3 & 6 & -1 & 1 & -7 \\ 1 & -2 & 2 & 3 & -1 \\ 2 & -4 & 5 & 8 & -4 \end{bmatrix} $.

$$ \begin{bmatrix} A & \mathbf{0} \end{bmatrix} \sim \begin{bmatrix} 1 & -2 & 0 & -1 & 3 & 0 \\ 0 & 0 & 1 & 2 & -2 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 \end{bmatrix} $$

Од ова, $ x_1 - 2x_2 - x_4 + 3x_5 = 0 $ и $ x_3 + 2x_4 - 2x_5 = 0 $. Слободни променливи: $ x_2, x_4, x_5 $. $ \begin{bmatrix} x_1 \\ x_2 \\ x_3 \\ x_4 \\ x_5 \end{bmatrix} = x_2 \begin{bmatrix} 2 \\ 1 \\ 0 \\ 0 \\ 0 \end{bmatrix} + x_4 \begin{bmatrix} 1 \\ 0 \\ -2 \\ 1 \\ 0 \end{bmatrix} + x_5 \begin{bmatrix} -3 \\ 0 \\ 2 \\ 0 \\ 1 \end{bmatrix} $. База за Nul $ A $ е $ \left\{ \begin{bmatrix} 2 \\ 1 \\ 0 \\ 0 \\ 0 \end{bmatrix}, \begin{bmatrix} 1 \\ 0 \\ -2 \\ 1 \\ 0 \end{bmatrix}, \begin{bmatrix} -3 \\ 0 \\ 2 \\ 0 \\ 1 \end{bmatrix} \right\} $.

📏 Димензија

Дефиниција: Димензијата на ненултиот подпростор $ H $, $ \text{dim } H $, е бројот на вектори во која било база на $ H $. Димензијата на нулта подпростор $ \{\mathbf{0}\} $ по дефиниција е нула.

📊 Ранг

Дефиниција: Рангот на матрица $ A $ е димензијата на Col $ A $.

Теорема: Рангот на $ A $ + димензијата на нултиот простор = $ n $, каде $ n $ е бројот на колони на $ A $.

Теорема (за база): Нека $ H $ е $ p $-димензионален потпростор од $ \mathbf{R}^n $. Било кое независно множество од $ p $ вектори претставува база за $ H $. Исто така и било кое генераторно множество од $ p $ вектори претставува база за $ H $.

🔗 Поврзаност на $ A $ и нејзината ешалонска форма

Теорема: Пивот колоните на матрицата $ A $ формираат база за Col $ A $.

Теорема: Ако $ B $ е ешалонската форма на $ A $, тогаш нултите простори на $ A $ и $ B $ се исти.

🗺️ Координатен систем

Дефиниција: Нека множеството $ B = \{\mathbf{b}_1, \ldots, \mathbf{b}_p\} $ е база за потпросторот $ H $. За секој $ \mathbf{x} \in H $, координатите на $ \mathbf{x} $ во однос на базата $ B $ се тежините $ c_1, \ldots, c_p $ такви што $ \mathbf{x} = c_1 \mathbf{b}_1 + \dots + c_p \mathbf{b}_p $; и векторот $ \begin{bmatrix} c_1 \\ \vdots \\ c_p \end{bmatrix} $ во $ \mathbf{R}^p $ се нарекува координатен вектор на $ \mathbf{x} $ во однос на базата $ B $ или $ B $-координатен вектор на $ \mathbf{x} $.

➕ Продолжение на Теорема 8, теоремата за инверзибилна матрица

Теорема: Нека $ A $ е $ n \times n $ матрица. Тогаш следниве тврдења се еквивалентни и важат ако и само ако $ A $ е инверзибилна:

Доказ (краток преглед):