1. Логаритам

1.1. Експоненцијална функција y = bx бијекција је за базу b > 0 и b ≠ 1, за ∀x ∈ (-∞, +∞), када узима једино позитивне вредности ∀y > 0, у домену где има инверзну фукцију. Њена инверзна функција биће логаритам x = logb y, истог домена, базе логаритма b > 0 и b ≠ 1 и нумеруса логаритма y > 0.

1. 2. Зато што су узајамно инверзне, експоненцијална и логаритамска функција се поништавају:

\[ b^{\log_b x} = x, \quad \log_b b^x = x. \]

1. 3. Особина бијекције (узајамно једнозначног пресликавања) ових функција даје еквиваленције:

\[ f(x_1) = f(x_2) \iff x_1 = x_2, \] \[ x_1x_2 = x_1\cdot x_2 \iff b^{\log_b (x_1x_2)} = b^{\log_b x_1}\cdot b^{\log_b x_2} \iff \] \[ b^{\log_b (x_1x_2)} = b^{\log_b x_1 + \log_b x_2} \iff \log_b(x_1\cdot x_2) = \log_b x_1 + \log_b x_2. \]

Речима, логаритам производа једнак је збиру логаритама истих база, у оквиру домена.

1. 4. За дељење добијамо слично. Логаритам количника, ако постоји, једнак је разлици логаритама истих база:

\[ \log_b(x_1 : x_2) = \log_b x_1 - \log_b x_2. \]

1.5. Експонент нумеруса, у домену, може се избацити испред као фактор логаритма:

\[ \log_b x^a = a\cdot \log_b x. \]

Наиме, из дефиниције (1.1) и \(\log_b x^a = y\) следи \(x^a = b^y\), па \(x = b^{y/a}\), а отуда \(\log_b x = y/a\) и \(y = a\cdot \log_b x\). На основу полазне и завршне једнакости слиједи тражена једнакост.

1.6. Експонент \(a \in \mathbb{R}\) базе и нумеруса, логаритма у домену, може се скратити (проширити):

\[ \log_{b^a} x^a = \log_b x. \]

Наиме, слично претходном, из \( \log_{b^a} x^a = y\) следи \(x^a = (b^a)^y\), па \(x^a = (b^y)^a\), затим \(x = b^y\) и \(\log_b x = y\).

1.7. Заменом базе и нумеруса логаритам узима реципрочну вредност:

\[ \log_b x = \frac{1}{\log_x b}. \]

Дата једнакост еквивалентна је са \( (\log_b x)\cdot (\log_x b) = 1\), ова са \( \log_x b^{\log_b x} = 1\), тј. \(\log_x x = 1\), што је тачно, када је у домену. У доказу су користиштене претходне ставке.

1.8. За свако c > 0 и c ≠ 1, у домену логаритама биће:

\[ \log_b x = \frac{\log_c x}{\log_c b}. \]

Дата једнакост еквивалентна је са \( (\log_b x)\cdot(\log_c b) = \log_c x\), ова са \( \log_c b^{\log_b x} = \log_c x\), а ова са \( \log_c x = \log_c x\), што је тачно за сваку дозвољену базу c.

До недавно се у два случаја подразумевала база логаритма, \(\log_{10} x = \log x\) и \(\log_e x = \ln x\), али се та конвенција полако заборавља.

Rastući log Opadajući log

1.9. На сликама десно, горњој па доњој, имамо црвени и плави граф, експоненцијалне и исте базе логаритамске функције. То су редом:

\[ y = 2^x, \quad y = \log_2 x\] \[ y = (1/2)^x, \quad y = \log_{1/2}x \]

Иначе, све међусобно инверзне функције имају осу симетрије праву \(y = x\), која је и симетрала I и III квадранта Декартовог правоуглог система координата.

1.10. Када је функција растућа (опадајућа), тада је њој инверзна функција такође растућа (опадајућа). У случају логаритама, то значи да је он растући за базу b > 1, а за 0 < b < 1 опадајући. За x ∈ (0, 1) растући је негативан а иначе је позитиван. Обрнуто је, опадајући за x ∈ (0, 1) позитиван а даље негативан.

Према томе, Хартлијеве информације \( I = -\log_2 p\) позитивни су бројеви, јер вероватноћа \(p \in (0, 1)\). Шенонова информација:

\[ S = -p_1 \log_2 p_1 - p_2 \log_2 p_2 - p_n \log_2 p_n \]

такође је позитиван број, када су \(p_1, p_2, ..., p_n \in (0, 1)\) вероватноће неке расподеле.

2. Збир производа

Када имамо два низа бројева \(\vec{a} = (a_1, ..., a_n)\) и \(\vec{b} = (b_1, ..., b_n)\) произовљних, али фиксних једнаких дужина n = 1, 2, 3, ... можемо дефинисати збир производа парова њихових коефицијената

\[ Q = a_1\cdot b_1 + ... + a_n \cdot b_n. \]

У ситуацијама када ови сабирци представљају „слободе“ (Интелигенција), говорићемо о „информацији перцепције“. Касније ћемо овај израз проширити у скаларни производ вектора, па и даље, а утолико пре можемо већ сада користити ознаке попут \(Q = \vec{a}\cdot\vec{b}\), за сада само као краћи начин писања.

2.1. Збир производа је на следећи начин адитиван по другом фактору:

\[ Q = \vec{a}\cdot(\vec{b}' + \vec{b}'') = \vec{a}\cdot\vec{b}' + \vec{a}\cdot\vec{b}'' = Q' + Q'' \]

а због симетрије, у случају комутативности множења, аналогно важи за први фактор.

2.2. Када је n = 2 и \(a_1 \ge a_2\) и \(b_1 \ge b_2\), имамо еквиваленцију

\[ (a_1 - a_2)(b_1 - b_2) \ge 0 \iff a_1b_1 + a_2b_2 \ge a_1b_2 + a_2b_1, \]

где једнакост важи акко \(a_1 = a_2\) и \(b_1 = b_2\). Речима, множећи већи коефицијент првог (двочланог) низа са већим другог и мањи са мањим добијамо већи збир производа него множењем већег првог члана са мањим другог и мањег са већим. Даљим налазима се ово запажање ширити, а овде ћемо га само мало продубити.

2.3. Сваки ограничен низ \(\vec{a} = (a_1, ..., a_n)\) можемо пресложити тако да буде нерастући (опадајући). Ако је тада други низ \(\vec{b} = (b_1, ..., b_n)\) неуређен, пермутујући му чланове тако да упаримо његов већи број са већим првог, у сваком кораку добијаћемо већи збир производа. Како је n коначан број, тај ће се процес повећавања завршити и имаћемо поопштен претходни закључак, да множећи веће чланове са већим и мање са мањим добијамо максимални збир производа. Слично доказујемо обрнуто, да множећи мање са већим и веће са мањим добијамо минималан збир производа.

Поука овога је да „пркошење“, супротстављање већим акцијама јачих реакција, значи „виталност“, тј. одступање од принципа најмањег дејства, којег се буквално држе сва кретања данас познате физике.

3. Стереометрија регресије

Ово је „алатка“ коју сам користио за неке статистичке тестове, а у време када сам је објавио у књизи „Информација перцепције“ (3.6 Стереометриjа статистике) била је, а многима још увек је, непозната. Директно се тиче низова и њихових збирова производа, тек посредно дисперзије, или Поасоновог коефициjента линеарне корелациjе.

Stereometrija regresije

3.1. На слици лево приказане су n-торке бројева \(A(a_1, ..., a_n)\), \(A'(a'_1, ..., a'_n)\) и n-торка јединица \(U(1, ..., 1)\) са вектором \(\vec{u} = \overrightarrow{OU}\). Нека су:

\[ \bar{a} = \frac{a_1 + ... + a_n}{n}, \quad \bar{a}' = \frac{a'_1 + ... + a'_n}{n} \]

аритметичке средине датих n-торки.

3.2. Тачке M и M' дефинисане са:

\[ \vec{m} = \overrightarrow{OM} = \bar{a}\vec{u}, \quad \vec{m}' = \overrightarrow{OM'} = \bar{a}'\vec{u}, \]

тим редом пројекције су тачака A и A' на правац вектора \(\vec{u}\).

Наиме, троуглови OAM и OA'M' су правоугли, са правим угловима у теменима M и M' редом, што следи из скаларног производа вектора:

\[ \overrightarrow{OM}\cdot \overrightarrow{MA} = (\bar{a}, ..., \bar{a})\cdot (a_1 - \bar{a}, ..., a_n - \bar{a}) = \bar{a}(a_1 - \bar{a}) + ... + \bar{a}(a_n - \bar{a}) = \] \[ = \bar{a}(a_1 + ... + a_n) - (\bar{a}^2 + ... + \bar{a}^2) = n\bar{a}^2 - (n\bar{a}^2) = 0. \]

То значи окомитост, \(\overrightarrow{OM} \perp \overrightarrow{MA}\). Слично радимо са другом n-торком и доказујемо \(\overrightarrow{OM'} \perp \overrightarrow{M'A'}\).

3.3. На правој OA' налази се тачка B таква да су слични троуглови ΔBOM ∼ ΔA'OM', односно:

\[ BO : A'O = MO : M'O = MB : M'A. \]

Сада поред \(\bar{a}\) имамо и средњу вредност \(\bar{b} = (b_1 + ... + b_n)/n \) координата вектора \(\vec{b}\). При томе, за векторе \(\vec{a}' = \overrightarrow{OA'} = (a'_1, ..., a'_n)\) и \(\vec{b} = \overrightarrow{OB} = (b_1, ..., b_n)\) важи \(b_k = \lambda a'_k\), где је \( \lambda = \bar{b} / \bar{a}'\) за све k = 1, ..., n. Слика садржи и ознаке углова θ = ∠AOB и φ = ∠AMB. Јасно је:

\[ \cos\theta = \frac{\vec{a}\cdot \vec{b}}{|\vec{a}||\vec{b}|} = \frac{\sum_k a_kb_k}{\sqrt{\sum_k a_k^2}\sqrt{\sum_k b_k^2}}, \quad \cos \varphi = \frac{\vec{s}_a\cdot \vec{s}_b}{|\vec{s}_a||\vec{s}_b|} = \frac{\sum_k(a_k - \bar{a})(b_k - \bar{b})}{\sqrt{\sum_k (a_k - \bar{a})^2} \sqrt{\sum_k (b_k - \bar{b})^2}}, \]

где за два вектора окомита на OM стоје скраћенице:

\[ \begin{cases} \vec{s}_a = \overrightarrow{MA} = \overrightarrow{OA} - \overrightarrow{OM} = (a_1 - \bar{a}, ..., a_n - \bar{a}), \\ \vec{s}_b = \overrightarrow{MB} = \overrightarrow{OB} - \overrightarrow{OM} = (b_1 - \bar{b}, ..., b_n - \bar{b}). \end{cases} \]

Тај \(\cos\theta\) jе косинус угла између датих вектора \(\vec{a}\) и \(\vec{a}'\), односно \(\vec{a}\) и \(\vec{b}\), а \(\cos\varphi\) је Поасонов коефициjент r линеарне корелациjе.

3.4. Додамо ли овим средњим вредностима и следеће две:

\[ \overline{ab} = \frac{a_1b_1 + ... + a_nb_n}{n}, \quad \overline{a^2} = \frac{a_1^2 + ... + a_n^2}{n}, \]

па израчунамо коефицијенте:

\[ \beta = \frac{\overline{ab} - \bar{a}\bar{b}}{\overline{a^2} - \bar{a}^2}, \quad \alpha = \bar{b} - \beta \bar{a}, \]

добили смо линеарну регресију, једначину праве линије \(y = \alpha + \beta x\) која је најбоља праволинијска апроксимација координата (k, bk) у Декартовом правоуглом систему координата Oxy.

Ако задржавамо оригинални други вектор \(\vec{a}'\), горе наведена смена \(\vec{b} = \lambda \vec{a}'\), где је \( \lambda = \bar{b} / \bar{a}'\), повлачи смену \(\beta = \lambda \beta'\) и \(\alpha = \lambda \alpha'\) за нову линију регресије \(y = \beta' + \alpha' x\), тада парова тачака \((a_k, a'_k)\) у истом систему координата Oxy.

3.5. Означимо углове α = ∠AOM и β = ∠BOM = ∠A'OM'. Како је \(\vec{u}\cdot \vec{a} = a_1 + ... + a_n\), а са друге стране \(\vec{u}\cdot \vec{a} = |\vec{u}||\vec{a}|\cos \alpha \), па због \( |\vec{u}| = \sqrt{n}\) и \(|\vec{a}|^2 = n\overline{a^2}\), а слично за \(\vec{b}\), то је:

\[ \cos\alpha = \frac{\bar{a}}{\sqrt{\overline{a^2}}}, \quad \cos\beta = \frac{\bar{b}}{\sqrt{\overline{b^2}}}. \]

Отуда, дужина \(OM = a\cos\alpha = \bar{a} \sqrt{n} \), а такође \(OM = b\cos\beta = \bar{b}\sqrt{n}\), тј. \(\bar{a} = \bar{b}\). Према томе, \(\lambda = \bar{a}/\bar{a}'\), али то још увек не значи да су дужине припадних вектора једнаке (в. Косе шансе, 3.1).

4. Бинарни ход

Замислимо куглицу која пропада кроз слојеве, тако да у сваком кораку има по два једнако вероватна наставка. Из нулте позиције воде два наставка, сваки вероватноће \(\frac12\). Из те прве у друге воде четири, сваки вероватноће \(\frac14\), али две средње позиције се сабирају у једну. Сваки n-ти слој има 2n наставака једнаких вероватноћа, а суседни се сабирају у слојеве нижих позиција између.

Бинарни ход

4.1. Број сабирања n-тог слоја k-те позиције нека је \(C_k^n\). Тако се почиње са \(C_0^0 = 1\), па се наставља са \(C_0^1 = 1\), \(C_1^1 = 1\), затим је \(C_0^2 = 1\), \(C_1^2 = 2\), \(C_2^2 = 1\), те \(C_0^3 = 1\), \(C_1^3 = 3\), \(C_2^3 = 3\), \(C_3^3 = 1\) и даље као на слици десно. То је шема Паскаловог троугла коју дефинишу једнакости \(C_{k-1}^{n-1} + C_k^{n-1} = C_k^n\) и \(C_0^n = C_n^n = 1\).

4.2. При томе рачунамо да ће поједини кораци n-тих слојева имати (пре удруживања) вероватноће \(1/2^n\). Отуд сваки n-ти слој има другачије расподеле вероватноћа:

\[ P(2; n, k) = \Pr(C_k^n) = 2^{-n} C_k^n, \]

где је n = 0, 1, 2, ..., а k = 0, 1, ..., n. Лако је за проверити

\[ \sum_{k=0}^n P(2; n, k) = \sum_{k=0}^n (2^{-n} C_k^n) = 2^{-n} \sum_{k=0}^n C_k^n = 2^{-n} 2^n = 1, \]

што значи да у слојевима заиста стоје расподеле вероватноћа.

Galton Board

4.3. На слици лево је Галтонова табла и линк до симулације (JavaScript) која демонстрира горе речено, са додатим опцијама неједнаких вероватноћа левог и десног пута. Лоптице које пропадају кроз решетке нагомилавају се доле у количинама које имитирају биномну, звану и Бернулијевом расподелом вероватноћа.

4.4. Када се процес нагомилавања наставља, хрпе се тачније формирају у облику нормалне, познате као звонаста, или Гаусова расподела, густине вероватноће

\[ \rho(x) = \frac{1}{\sigma\sqrt{2\pi}}e^{-\frac12\left(\frac{x-\mu}{\sigma}\right)^2}. \]

Гаусова расподела математичким очекивањем μ и дисперзијом σ апроксимира Бернулијеву.

5. Индикатори

Ово је наставак „бацања коцке“, или претходног „бинарног хода“ са могућим вероватноћама скретања куглице, лево p ∈ (0, 1) и десно q = 1 - p. Понављамо опит n = 1, 2, 3, ... пута, непромењене вероватноће p успешног исхода и вероватоће q = 1 - p неуспешног. У једној серији од n покушаја, жељени резулт ће се десити тачно k ∈ (0, n) пута са вероватноћом \(p^kq^{n-k}\), али биће \(C_k^n = \binom{n}{k} \) комбинација таквих серија. Резимирам овде од раније познате резултате за евентуалне касније сложеније употребе.

5.1. Тако долазимо од опште бинарне, тзв. Бернулијеве расподеле вероватноћа:

\[ P(p; n, k) = \binom{n}{k}p^kq^{n-k} = \frac{n\cdot(n-1)\dots(n-k+1)}{1\cdot 2 \dots k} p^k(1-p)^{n-k}. \]

Да заиста имамо расподеле доказује израчунавање:

\[ \sum_{k=0}^n P(p; n, k) = \sum_{k=0}^n \binom{n}{k}p^kq^{n-k} = (p + q)^n = 1. \]

Овај збир је n-ти степен бинома p + q = 1.

5.2. На пример, коцка је бачена шест пута. Вероватноћа да је тачно два пута пала „шестица“ је:

\[ \binom{6}{2}\cdot \left(\frac16\right)^2 \cdot \left(\frac56\right)^4 = \frac{6\cdot 5}{1\cdot 2}\cdot \frac{1}{6^2}\cdot \frac{5^4}{6^4} \approx 0,2. \]

На \(\binom{6}{2}\) = 15 начина се могу десити две шестице у низу од шест бацања и то су:

66xxx, 6x6xxx, 6xx6xx, 6xxx6x, 6xxxx6,
x66xxx, x6x6xx, x6xx6x, x6xxx6, xx66xx,
xx6x6x, xx6xx6, xxx66x, xxx6x6, xxxx66.

Отприлике четири пута су веће шансе да „шестица“ у шест бацања не падне тачно два пута.

5.3. Биномна расподела \(\mathcal{B}(p; n)\) има случајну променљиву k ∈ {0, 1, ..., n} вероватноће \(p_k =P(p; n, k)\) и средње вредности \(\mu = E(k)\):

\[ \mu = \sum_{k=0}^n kp_k = \sum_{k=1}^n \left[k\binom{n}{k}\right] p^kq^{n-k} = \sum_{k=1}^n \left[n\binom{n-1}{k-1}\right] p^kq^{n-k} = \] \[ = np\sum_{k=0}^n\binom{n-1}{k-1}p^{k-1}q^{n-k} = np\sum_{j=0}^m \binom{m}{j} p^j q^{m-j} = np. \]

У угластој загради је позната једнакост биномних коефицијената, а на крају је n = m + 1 и k = j + 1. Ово μ = np значи да ће се у низу од n покушаја са вероватноћом p најчешће јављати k ≈ np жељених исхода. Математичко очекивање μ се назива и стандардна девијација.

5.4. Други начин дефинисања случајне варијабле је бројање покушаја до првог жељеног исхода. Када је вероватноћа p исхода независна од претходних покушаја, онда се тачно у k-том кораку тај исход први пут јавља са вероватноћом \(p_k = q^{k-1}p\), као што смо видели у случају бацања коцке. Овај се израз може писати у експоненцијалном облику \(p_k = ab^{-\lambda k}\), где је λ > 0 када је b > 1, а број \(a = b^\lambda - 1\) даје захтев да имамо расподелу. Том се везом биномна расподела сврстава и у експоненцијалне.

5.5. Експоненцијалне расподеле су у категорији оних „без памћења“ (мој израз). Те вероватноће имају максималну информацију за задато очекивање, оне су независне (као следеће бацање новчића коме исход не зависи од претходних). Тежећи мањој информацији, систем који не памти браниће се било настојећи разредити густину информације уситњавањем, ширећи се у више мањих јединица, рецимо просторно а што значи и временски, било организовањем.

5.6. Пример експоненцијалне расподела је и Поасонова \(\mathcal{P}(x;\mu)\), вероватноће

\[ p_k = e^{-\mu}\frac{\mu^k}{k!}, \]

где је k број појављивања, Ојлеров број e = 2,71828..., а може се показати да је μ очекивање, у биномној једнако np. Када је број покушаја велики, рецимо n > 100, за очекивање np < 10 препорука је биномну расподелу апроксимирати Поасоновом, иначе Гаусовом.

5.7. Гаусова се расподела (4.4) такође може подвести под експоненцијалне, непрекидне. Одступање варијабле x од средње вредности μ прогласимо новом варијаблом x' = x - μ, а ову сматрајмо величином пропорционалну брзини. Тада ће у експоненту Гаусове густине верованоће бити кинетичка енергија, а сама та густина њена експоненцијална расподела.

Тако сведена Гаусова расподела постаје још једна „без меморије“ и, заиста, постоји теорема теорије информације која каже да Гаусова расподела има највећу информацију од свих задате дисперзије σ. Стога није чудно што је она добра апроксимација биномне, за велике n.

5.8. У граничном случају, \(b \to 1\), експоненцијална расподела постаје униформна, константне густине ρ(x) = a свугде на интервалу (x1, x2), а ρ = 0 изван тог интервала. Из услова:

\[ \int_{x_1}^{x_2} a \ dx = 1 \]

следи \(a = 1/(x_2 - x_1)\). Већ у том смислу униформну можемо сматрати расподелом без памћења, онда и зато што знамо да иначе максималну информацију имају расподеле једнаких вероватноћа. Условни је максимум расподела ограничених интервала (x1, x2) вероватноћа. Разликујмо је од експоненцијалне функције која је максималне информације међу свим датог очекивања μ, или максимума информације нормалне расподеле у класи унапред датих дисперзија σ (в. Екстреми 1.5-1.7).

6. Копије

Због ограничене брзине светлости (c ≈ 300 000 km/s) оно што видимо није оно што је „сада“, него је „некада“. Како ја примам информацију о прошлости предмета који гледам, тако и тај предмет добија информацију о мојој прошлости. Простор је такав магацин памћења, утолико релативно старијег што су тела која се гледају међусобно удаљенија. Не сматрам да је то једини начин на који „простор памти“, али чини се најочигледнијим.

6.1. Посматрање удаљеног предмета интерпретирамо пресликавањем. Оно што видимо је копија онога што сматрамо да је тамо било, а све удаљенији предмети, судећи према Талесовој теореми о сличности троуглова, сразмерно уаљености све су мањи. Површине се смањују са квадратом, запремине са кубом дужине. Сходно коначној дељивости информације (Packages) ова смањивања нису бесконачна. Овакве примедбе у теорији информације добијају на значају.

Са једне стране, копирање информације прошлости схваћено као пренос „са сметњама“ биће примена ергодичке теореме (Информатичка Теорија II, 61.2.) у класичној физици простора. Међутим, можемо томе додати и закон одржања информације, па блеђење старих порука разумети помоћу повећавања количине неизвесности. Када бисмо били прецизнији, верујем, старије поруке могле би се показати и информативније (неизвесније) од одговарајућих садашњих, јер процеси иду ка вероватнијима.

6.2. Када имамо пренос неких n сигнала расподеле вероватноћа \(\vec{x} = (x_1, ..., x_n)\) на улазу стохастичке матрице \(S = (s_{ij})\), на излазу добијамо расподелу \(\vec{y} = S\vec{x}\), где је \(\vec{y} = (y_1, ..., y_n)\). Као што је познато из алгебре, само у случају својственог вектора \(\vec{v} = (v_1, ..., v_n)\) дате матрице биће \(\vec{v} = S\vec{v}\). Приметићемо прво да сваким проласком датим каналом (деловањем дате матрице) излазни вектор постаје ближи својственом, а затим да својствена расподела има максималну информацију (шум канала).

Наиме, одузимање даје \(\vec{v} - \vec{y} = S(\vec{v} - \vec{x})\), а у том систему једначина уочимо m-ту која има максималну апсолутну разлику \(|v_m - y_m|\). То је једначина \(v_m - y_m = \sum_k(v_k - x_k)s_{mk}\). Матрица је стохастичка, тј. \(\sum_j c_{jk} = 1\), па је:

\[ \max_k|v_k - y_k| = |v_m - y_m| \le \sum_k |v_k - x_k|s_{mk} \le \max_k|v_k - x_k|. \]

Прва је неједнакост троугла, а друга због збира и коефицијената sjk ∈ (0, 1). Дакле, процеси преноса ће (постепено) мењати поруке у својствене датог канала.

Да су својствени вектори максималне информације очекујемо већ и због њиховог излаза на крају дугог преноса понављањем канала, те повећања сметњама, шумом који се тада гомила у том ланцу. Али исто се може и формално доказивати. Овде, за сада погледајте 4. пример поднаслова Инвертибилност, који ово предвиђање потврђује на свој начин.

6.3. Након „бесконачно“ много преноса, рецимо након 13,8 милијарди година, оно што добијамо биће нешто попут „Великог праска“. То без обзира шта се тада „заиста“ могло десити. Све теореме, физички налази као и наше најбоље (хипо)тезе биће усклађене са таквим опажањем, па ћемо на тај начин моћи и веровати у њега.

7. Трансформације

7.1. Стохастичка матрица је квадратна матрица чије су колоне вектори расподела вероватноћа. Вектор вероватноће је низ реалних бројева вредности од 0 до 1 збира 1. Стохастичка матрица описује прелазе, промене вектора вероватноће, а тада се назива Марковљева матрица. Композиција истих, степен дате стохастичке матрице, у преносу вектора вероватноће назива се и Марковљев ланац.

Детаљније речено, подразумевана је „лева“ стохастичка матрица. Она множена са вектором (колоном) вероватноће стоји лево од вектора (колоне). Слична јој је „десна“ стохастичка матрица која од вектора (врсте) вероватноће при множењу стоји са десне стране. Свака од њих је реална квадратна матрица са коефицијентима од нуле до јединице закључно. Постоји и „двострука“ стохастичка матрица, квадратна матрица ненегативних реалних бројева са сваким редом и колоном збира 1.

7.2. Пример стохастичке матрице трећег реда имамо у трансформацији вероватноћа \(\vec{q} = C\vec{p}\), или

\[ \begin{pmatrix} q_1 \\ q_2 \\ q_3 \end{pmatrix} = \begin{pmatrix} c_{11} & c_{12} & c_{13} \\ c_{21} & c_{22} & c_{23} \\ c_{31} & c_{32} & c_{33} \end{pmatrix}\begin{pmatrix} p_1 \\ p_2 \\ p_3 \end{pmatrix}. \]

Она је „лева“, па је \(c_{1k} + c_{2k} + c_{3k} = 1\) за сваку од колона k = 1, 2 и 3, а свако cjk ≥ 0. Коефицијенти су вектора вероватноћа такође ненегативни, а p1 + p2 + p3 = 1 и q1 + q2 + q3 = 1, што се претпоставља за улазне, а за излазне израчунавамо:

\[ \sum_{j=1}^3 q_j = \sum_{j=1}^3 ( c_{j1}p_1 + c_{j2}p_2 + c_{j3}p_3 ) = \] \[ = \left(\sum_{j=1}^n c_{j1}\right)p_1 + \left(\sum_{j=1}^n c_{j2}\right)p_2 + \left(\sum_{j=1}^n c_{j3}\right)p_3 \] \[ = 1\cdot p_1 + 1\cdot p_2 + 1\cdot p_3 = 1. \]

Ненегативност коефицијената qj следи из ненегативности свих осталих и једино присутних операција сабирања и множења. Одговарајући ставови „десних“, па „двоструких“ стохастичких матрица слично се доказују.

7.3. Квази-стохастичке матрице биле би неквадратне, свих коефицијената ненегативних бројева и опет са јединичним збировима елемената у свакој колони. Да ће производи таквих, ако је множење могуће, бити такође неке (квази)стохастичке матрице демонстрира следећи пример AB = C:

\[ \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ a_{31} & a_{32} \end{pmatrix} \begin{pmatrix} b_{11} & b_{12} & b_{13} \\ b_{21} & b_{22} & b_{23} \end{pmatrix} = \begin{pmatrix} c_{11} & c_{12} & c_{13} \\ c_{21} & c_{22} & c_{23} \\ c_{31} & c_{32} & c_{33} \end{pmatrix}, \]

где је \(c_{jk} = a_{j1}b_{1k} + a_{j2}b_{2k}\). Сабирајући елементе c колоне налазимо:

\[ \sum_{j=1}^3 c_{jk} = \sum_{j=1}^3 (a_{j1}b_{1k} + a_{j2}b_{2k}) = \left(\sum_{j=1}^3 a_{j1}\right)b_{1k} + \left(\sum_{j=1}^3 a_{j2}\right)b_{2k} = b_{1k} + b_{2k} = 1. \]

Јасно је да се ово односи и на множење правих стохастичких матрица.

7.4. Квази стохастичке матрице могу бити модели за разумевање промене броја исхода расподеле вероватноће, поред промене вредности самих исхода. То видимо из следећих примера:

\[ A\vec{x} = \vec{y}, \quad B\vec{y} = \vec{u}, \] \[ \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\ a_{31} & a_{32} \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \end{pmatrix} = \begin{pmatrix} y_1 \\ y_2 \\ y_3 \end{pmatrix}, \quad \begin{pmatrix} b_{11} & b_{12} & b_{13} \\ b_{21} & b_{22} & b_{23} \end{pmatrix} \begin{pmatrix} y_1 \\ y_2 \\ y_3 \end{pmatrix} = \begin{pmatrix} u_1 \\ u_2 \end{pmatrix}, \]

где је \(y_j = a_{j1}x_1 + a_{j2}x_2\) и \(u_\ell = b_{\ell 1}y_1 + b_{\ell 2}y_2 + y_{\ell 3}y_3\), за j = 1, 2, 3 и ℓ = 1, 2. Даље је лако проверити нормираности \(y_1 + y_2 + y_3 = 1\) и \(u_1 + u_2 = 1\), када год је \(x_1 + x_2 = 1\).

7.5. Нека су најмањи и највећи коефицијенти стохастичке матрице r-тог реда:

\[ m = \min_{1\le j,k \le r} c_{jk} \quad M = \max_{1 \le jk \le r} c_{jk} \]

Ако је \(0 < m \le M < 1\), онда је то матрица са свим позитивним елементима. Тада је:

\[ q_j = c_{j1}p_1 + c_{j2}p_2 + ... + c_{jn}p_r \] \[ mp_1 + mp_2 + ... + mp_r \le q_j \le Mp_1 + Mp_2 + ... + Mp_r \] \[ m \le q_j \le M \]

јер је \( p_1 + p_2 + ... + p_r = 1 \). Таква матрица C сужава распон коефицијената излазне расподеле.

7.6. Детаљније, посматрајмо коефицијенте s-тог степена (s = 1, 2, 3, ...) матрице C, увек стохастичке. Лево од једнакости \( C^s = (c_{jk}^s)\) је експонент матрице, а десно у загради исти број s је горњи индекс елемента. Нека су најмањи и највећи коефицијенти k-те колоне (k = 1, 2, ..., r) степене матрице:

\[ m_k^s = \min_{1\le j,k \le r} c_{jk}^s \quad M_k^s = \max_{1 \le jk \le r} c_{jk}^s \]

Тада важи:

\[ c_{jk}^{s+1} = \sum_{i=1}^r c_{ji}c_{ik}^s \ge \sum_{i=1}^r c_{ji}m_k^s = m_k^s \] \[ c_{jk}^{s+1} = \sum_{i=1}^r c_{ji}c_{ik}^s \le \sum_{i=1}^r c_{ji}M_k^s = M_k^s \]

Да се степеновањем матрице C заиста сужава распон коефицијената показује разлика овог максимума и минимума, која тежи нули када s → ∞. Начин на који је то доказао сам Марков приказан је у скрипти Информатичка Теорија II (61.2. Ергодичка теорема) за десне стохастичке матрице. Овде преносим тај доказ за леве стохастичке матрице.

7.7. Свака колона степене матрице (Cs) је расподела вероватноћа, њихови јединични збирови одузети дају нуле, али нису сви елементи колона међусобно једнаки (не морају бити). Разлике неких парова су позитивне, означимо збир таквих са \(z_{il}^+\), а онда осталих негативне, означимо збир њихових апсолутних вредности са \(z_{il}^-\). Две произвољне колоне дате степене матрице i-та и l-та, и имамо:

\[ \sum_{j=1}^r c_{ji}^s - \sum_{j=2}^r c_{jl}^s = z^+ - z^- = 0. \]

Сви коефицијенти ових матрица су ненегативни, тако да је \( 0 < \max_{il} z_{il}^+ = d < 1 \). Даље је:

\[ \max_i c_{ji}^s - \max_l c_{jl}^s = \max_{i,l} (c_{ji}^s - c_{jl}^s) \le \max_{i,l} z_{il}^+ = d. \]

Употребимо ознаке m и n за степене матрице, па имамо:

\[ \max_i c_{ji}^{m+n} - \min_l c_{jl}^{m+n} \le \max_{i,l} (c_{ji}^{m+n} - c_{jl}^{m+n}) = \] \[ = \max_{i,l} \sum_{\alpha = 1}^r |c_{\alpha i}^m - c_{\alpha l}^m|c_{j\alpha}^n \le \max_{i,l} (z_{il}^+ \max_\alpha c_{j\alpha}^n + z_{jl} \min_\alpha c_{j\alpha}^n) \] \[ = \max_{i,l} [z_{jl}^+ (\max_\alpha c_{j\alpha}^n - \min_\alpha c_{j\alpha}^n)] = d\cdot (\max_\alpha c_{j\alpha}^n - \min_\alpha c_{j\alpha}^n). \]

Отуда, за s = 1, 2, 3, ... је \( \max_i c_{ji}^{ms} - \min_l c_{jl}^{ns} \le d^s \to 0 \).

7.8. Укратко, ова ергодичка теорема утврђује, ако је за неки степен s = 1, 2, 3, ... сваки елеменат матрице \( C^s = (c_{jk}^s)\) реда r позитиван, тада је за свако ј = 1, 2, ..., r

\[ \lim_{s \to \infty} c_{jk}^s = t_j \]

где бројеви tj, који се називају граничне (финалне) вероватноће редака, не зависе од колона k = 1, ..., r. Она не захтева да првих неколико степена стохастичке матрице имају све коефицијенте позитивне.

7.9. Уз ово погледајте и троугаону матрицу (15. пример). Она такође може бити стохастичка и то таква да јој степени конвергирају резултатима ове теореме, иако сама не задовољава почетне услове. Таква матрица у сваком ретку осим првог има нуле, па су јој у граничном случају и сви остали коефицијенти тих редака нуле.

Уопште, ако степеновањем добијемо стохастичку матрицу константних редова, она се даљим степеновањем неће мењати, што демонстрира следећи пример:

\[ C^2 = \begin{pmatrix} \alpha & \alpha & \alpha \\ \beta & \beta & \beta \\ \gamma & \gamma & \gamma \end{pmatrix}^2 = \begin{pmatrix} \alpha & \alpha & \alpha \\ \beta & \beta & \beta \\ \gamma & \gamma & \gamma \end{pmatrix} = C, \]

јер је α + β + γ = 1. У многим случајевима се ни коефицијенти ових колона неће много, или се никако разликовати, што значи да ће средња информација расподеле (Шенонова) коју оне представљају бити велика, или максимална. Свеједно, таква матрица увек је „црна кутија“, она нам на основу излазне не казују улазну расподелу:

\[ C\vec{p} = \begin{pmatrix} \alpha & \alpha & \alpha \\ \beta & \beta & \beta \\ \gamma & \gamma & \gamma \end{pmatrix} \begin{pmatrix} p_1 \\ p_2 \\ p_3 \end{pmatrix} = \begin{pmatrix} \alpha \\ \beta \\ \gamma \end{pmatrix} = \vec{c}, \]

јер је p1 + p2 + p3 = 1. Колона ове матрице је њен својствени вектор са својственом вредношћу 1.

У наставку тог (3. 8. Троугаона матрица, 18. пример) наведена је позната лакша метода за степеновање дате матрице помоћу дијагоналне (ако таква постоји), са којом се могу и додатно проверавати слична израчунавања.

7.10. Последице ергоричке теореме су многобројне и често незапажене. На пример, информације које можемо добијати из прошлости засићене су сметњама (шумом канала) и зато су веће од садашњости, текућих. Садашњост се тако понаша као да бежи од вишка информација (што откривамо на другачије начине и мојом теоријом информације). Други пример, далека прошлост васионе, пре 13,8 милијарди година, изгледа нам управо онако како бисмо очекивали на основу ергодичке теореме без обзира шта је тада заиста било.

8. Спектрална теорема

8.1. Нема јасних примена „спектралне теореме“ (погледајте тамо и 34. пример) линеарне алгебре у класичној теорији информације. Један од разлога је неусклађеност стандарда теорије вероватноће са алгебром вектора. Прва ради са реалним бројевима између нуле и један и расподелама вероватноћа укупног збира један, док друга ради са било каквим комплексним бројевима. Разлика нас подсећа на железницу која би у превозу робе морала прелазити са ускотрачних на шире пруге, због тога успоравајући транспорт, али ипак не спречавајући га сасвим.

Марковљев ланац је класични преносник расподеле вероватноће \( \vec{x} = (\xi_1, ..., \xi_n) \) кроз процес канала \( M : \vec{x} \to \vec{y} \) који се понавља, ниже у ланац узастопних трансформација. Поједина матрица \( M = (M_{jk}) \) стохастичка је (колоне су расподеле), са коефицијентима условним вероватноћама, где је елеменат Mjk вероватноћа да ће се j-ти сигнал трансформисати у k-ти. Тако \( \vec{y} = M\vec{x} \) значи \(\eta_j = M_{j1}\xi_1 + ... + M_{jn}\xi_n \) и то редом за све j = 1,..., n формирајући излазни вектор расподеле \( \vec{y} = (\eta_1, ..., \eta_n) \). При том преносу је збир коефицијената сваке колоне унутар матрице, као и улазног и излазног вектора расподела, један.

Други случај је квантна механика, која такође ради са вероватноћама, али на свој начин. Другачијим правилом (Квантна механика, 1.1.6 Борнов закон), у матричним једначинама \( \vec{y} = Q\vec{x} \) тада су вектори који се нормирају на јединицу на начин Питагорине теореме. Њима је \( \|x\|^2 = |\xi_1|^2 + |\xi_2|^2 + ... = 1 \), а такође и \(\vec{y}\), при чему ове векторе називамо „суперпозиције“. Њихови коефицијенти су и (произвољни) комплексни бројеви.

8.2. Размотримо за пример следећу дуплу стохастичку матрицу, која је уједно симетрична и реална:

\[ M = \begin{pmatrix} 0,7 & 0,2 & 0,1 \\ 0,2 & 0,6 & 0,2 \\ 0,1 & 0,2 & 0,7 \end{pmatrix}, \quad M^{-1} = \begin{pmatrix} 1,58333333 & -0,5 & -0,08333333 \\ -0,5 & 2 & -0,5 \\ -0,08333333 & -0,5 & 1,58333333 \end{pmatrix}, \ \]

детерминанте det M = 0,24 ≠ 0 и зато са инверзном, али не-стохастичком матрицом M-1. На основу излаза \(\vec{y} = M\vec{x} \) и инверзне матрице могуће је сазнати (израчунати) послату поруку \( \vec{x} = M^{-1}\vec{y} \), али није могуће послати поруку назад, јер то не дозвољава спонтани развој стања мање информативним (минимализам), односно ка вероватнијим.

Пошто је M ермитска, односно само-адјунгована, за њу важи спектрална теорема: њени својствени вектори v1, v2 и v3 чине ортонормирану базу и дијагоналну матрицу обзиром на неку ортонормирану базу e1, e2 и e3 простора у којем је. Погледајмо то детаљније.

8.3. Својствене вредности λ налазимо из det(M - λI) = 0 и након израчунавања детерминанте, те нула полинома, кубне једначине. Затим из матричне једначине (M - λI)v = 0, са три пронађене својствене вредности, налазимо припадне својствене векторе. Сва три пара прегледно су:

\[ \lambda_1 = 1 \quad \lambda_2 = 0,6 \quad \lambda_3 = 0,4 \] \[ v_1 = \begin{pmatrix} -0,577350 \\ -0,577350 \\ -0,577350 \end{pmatrix} \quad v_2 = \begin{pmatrix} -0,707106 \\ 0 \\ 0,707106 \end{pmatrix} \quad v_3 = \begin{pmatrix} 0,408248 \\ -0,816496 \\ 0,408248 \end{pmatrix} \]

Проверите да је M vk = λk vk за свако k = 1, 2, 3. Такђе проверите да су ови својствени вектори узајамно ортогонални, да је \(\langle v_1, v_2\rangle = 0\), \(\langle v_2, v_3\rangle = 0\) и \(\langle v_3, v_1\rangle = 0\), те да су ортонормирани:

\[ \langle v_1, v_1\rangle = \|v_1\|^2 = |-0,577350|^2 + |-0,577350|^2 + |-0,577350|^2 = 0,999999 \approx 1, \] \[ \langle v_2, v_2\rangle = \|v_2\|^2 = |-0,707106|^2 + |0|^2 + |0,707106|^2 = 0.999998 \approx 1, \] \[ \langle v_3, v_3\rangle = \|v_3\|^2 = |0,408248|^2 + |-0,816496|^2 + |0,408248|^2 = 0,999999 \approx 1. \]

8.4. Својствени вектори чине придружену матрицу P, којој је инверзна P-1 једнака транспонованој Pτ (због симетричности M):

\[ P = \begin{pmatrix} -0,577350 & -0,707106 & 0,408248 \\ -0,577350 & 0 & -0,816496 \\ -0,577350 & 0,707106 & 0,408248 \end{pmatrix} \]

Дијагонална матрица иначе се добија из ове матричним множењем D = P-1MP, или овде:

\[ D = P^\tau M P = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0,6 & 0 \\ 0 & 0 & 0,4 \end{pmatrix}. \]

Очекивано, то је дијагонална матрица са својственим вредностима дуж дијагонале.

8.5. Оно што нам спектрална теорема алгебре даље нуди, иако смо „на погрешним трачницама“, веома је занимљиво. Из \( M = PDP^{-1} \) следи \( M^2 = MM = (PDP^{-1})(PDP^{-1}) = PD^2P^{-1}\), па степеновањем даље \( M^n = PD^n P^{-1} \). Дијагоналну матрицу је лако степеновати и у овом случају налазимо:

\[ M^n = PD^nP^{-1} = P \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0,6^n & 0 \\ 0 & 0 & 0,4^n \end{pmatrix} P^{-1} \to P \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 0 \\ 9 & 0 & 0 \end{pmatrix} P^{-1}, \quad n \to \infty, \] \[ M^n \to \begin{pmatrix} -0,577350 & -0,707106 & 0,408248 \\ -0,577350 & 0 & -0,816496 \\ -0,577350 & 0,707106 & 0,408248 \end{pmatrix} \begin{pmatrix} -0,577350 & -0,577350 & -0,577350 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix} = \] \[ = \begin{pmatrix} \frac13 & \frac13 & \frac13 \\ \frac13 & \frac13 & \frac13 \\ \frac13 & \frac13 & \frac13 \end{pmatrix} = B. \]

Резултат дугог ланца Маркова је „црна кутија“, овде означена матрицом B, али која може узимати још неке облике. Заједничко свим „црним кутијама“ преносника података, је да се на основу излаза никако не може сазнати улаз. Наиме, шта год је улазни вектор \(\vec{x} = (\xi_1, \xi_2, \xi_3)\) излазни је \( \vec{y} = B\vec{x}\), односно:

\[ \vec{y} = \begin{pmatrix} \eta_1 \\ \eta_2 \\ \eta_3 \end{pmatrix} = \begin{pmatrix} \frac13 & \frac13 & \frac13 \\ \frac13 & \frac13 & \frac13 \\ \frac13 & \frac13 & \frac13 \end{pmatrix} \begin{pmatrix} \xi_1 \\ \xi_2 \\ \xi_3 \end{pmatrix} = B\vec{x}, \] \[ \begin{pmatrix} \eta_1 \\ \eta_2 \\ \eta_3 \end{pmatrix} = \begin{pmatrix} \frac13(\xi_1 + \xi_2 + \xi_3) \\ \frac13(\xi_1 + \xi_2 + \xi_3) \\ \frac13(\xi_1 + \xi_2 + \xi_3) \end{pmatrix} = \begin{pmatrix} \frac13 \\ \frac13 \\ \frac13 \end{pmatrix}, \]

јер је у питању расподела вероватноћа чији је збир \( \xi_1 + \xi_2 + \xi_3 = 1 \), уосталом као и збир три трећине. Детерминанта матрице B (као и сваке црне кутије) је нула, па њена инверзија није могућа, нити ћемо на основу униформног излаза \( \vec{y} \) сазнати нешто о улазу \( \vec{x} \). Ово је прилог „ергодичкој теореми“.

8.6. Ергодичка теорема на другачији, општији начин доказана је и у скрипти Информатичка Теорија II (61.2. Ергодичка теорема). Коментаре о истој можете видети у горњим прилозима (Копије), а још један додатак у Унутрашњим операторима линеарне алгебре (Спектрална теорема, 24. пример) на допунској страници овог сајта. Уз минимални полином у излагању алгебре вектора комплексних простора наћи ћете када Марковљев ланац (Mn, када n → ∞) не конвергира црној кутији (верујем непознат доказ).

9. Корени јединице

Ово је допуна школским прилозима о „Комплексним“ бројевима, па у наставку „Матрицама“, затим у посебном прилогу „Позитивни оператори“ и уз „минимални полином“ где проблем стиже до периода Марковљевог ланца. Обједињавање оваквих „корена“ такође олакшаће ми популарнијиа објашњења, на пример, у блогу (Measurement). Поучни су и Реални простори (в. 10. и 14. став).

9.1. Корени јединице пре свега су цели бројеви +1 и -1. Ова два су специјалан случај n-тих (n = 1, 2, 3, ...) корена броја z = 1 који су комплексни бројеви (i² = -1):

\[ \sqrt[n]{z} = \exp(2\pi ik/n) = e^{i\frac{2\pi k}{n}} = \cos \frac{2\pi k}{n} + i \sin\frac{2\pi k}{n}, \quad k = 0, 1, ..., n-1. \] Podela kruga

Наиме, за сваки од корена n и свако решење k:

expn(2πik/n) = exp(2πik) =
= cos(2πk) + i sin(2πk)
= 1 + i⋅0 = 1.

На слици лево је јединична кружница у равни ℂ и прикази zk петих корена јединице. Иначе, за n = 1 је само једно решење

exp(2πi) = 1,
а даље имамо редом:

\[ (n = 2) \ \begin{cases} k = 0: & \exp(0) = 1 \\ k = 1: & \exp(\pi i) = -1 \end{cases} \] \[ (n = 3) \ \begin{cases} k = 0: & \exp(0) = 1 \\ k = 1: & \exp(2\pi i/3) = -\frac12 + i\cdot \frac{\sqrt{3}}{2} \\ k = 2: & \exp(4\pi i/3) = -\frac12 - i\cdot \frac{\sqrt{3}}{2} \end{cases} \]

па следе све сложенији записи.

9.2. Паулијеве матрице σx, σy, σz су корени јединичне матрице I (Квантна Механика):

\[ I = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \quad \sigma_x = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, \quad \sigma_y = \begin{pmatrix} 0 & -i \\ i & 0 \end{pmatrix}, \quad \sigma_z = \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}. \]

Оне могу бити блок матрице, па и својствене вредности (јер тело скалара не мора бити комутативно на операцију множења) због чега, као корени јединице, могу формирати периодични „ланац Маркова“. А то би онда били такви „стохастички“ преносници порука који не би конвергирали у „црну кутију“. Све три Паулијеве матрице су ермитске, једнаких су својствених вредности ±1, али различитих својствених вектора.

9.3. Дијагонална матрица D, са својственим вредностима λ1, ..., λm које су све неки корени јединице али бар једна од њих је комплексан број, није ермитска. Међутим, када је n најмањи заједнички садржалац тих корена, онда ће бити Dn = I, па даљим степеновањем ове матрице, (Dn)D = ID = D, тада множењем њоме јединичне, креће нова периода. Њено степеновање је периодично.

Матрица A која се дијагонализује формулом A = PDP-1, где је D дијагонална матрица попут поменуте, а посебну матрицу P чине колоне својствених вектора матрице A, степеновањем даје:

A² = (PDP-1)(PDP-1) = PD(P-1P)DP-1 = PD²P-1,

па је опет An = PDnP-1 = PIP-1 = I. Множећи даље са матрицом A процес креће испочетка, степеновање матрице A је периодична појава.

На пример, A³ = PD³P-1 = I, биће са матрицама:

\[ \begin{pmatrix} -\frac12 & -i\frac{\sqrt{3}}{2} \\ -i\frac{\sqrt{3}}{2} & -\frac12 \end{pmatrix}^3 = \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} -\frac12 + i \frac{\sqrt{3}}{2} & 0 \\ 0 & -\frac12 - i\frac{\sqrt{3}}{2} \end{pmatrix}^3 \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix} \] \[ = \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}. \]

Дакле, матрица A није ермитска, има својствене вредности (дијагонални елементи D) које нису реални бројеви, али јесу корени јединице и, према претходном, њено степеновање даје периодичне вредности.

9.4. Нека друга помоћна матрица P, рецимо Q, а иста дијагонална матрица D даваће другачију матрицу A, на пример B = QDQ-1. Две матрице A и B имају исте (комплексне) својствене вредности и подједнако нису ермитске, што значи да би у физичкој интерпретацији биле без одговарајућих својствених стања које би могле представљати обзервабле, иако евентуално са својственим векторима колонама матрице Q. Оне (матрице A и B) исказивале би различите физичке процесе у распону истих могућности λ1 и λ2, у међувремену могућих физичких догађаја, стварних обзервабли.

На пример, проверите следећу једнакост (B = QDQ-1):

\[ \begin{pmatrix} \frac{-25 - 7\sqrt{3}i}{50} & \frac{24\sqrt{3}i}{50} \\ \frac{24\sqrt{3}i}{50} & \frac{-25 + 7\sqrt{3}i}{50} \end{pmatrix} = \begin{pmatrix} \frac35 & \frac45 \\ \frac45 & - \frac35 \end{pmatrix} \begin{pmatrix} -\frac12 + i \frac{\sqrt{3}}{2} & 0 \\ 0 & -\frac12 - i\frac{\sqrt{3}}{2} \end{pmatrix} \begin{pmatrix} \frac35 & \frac45 \\ \frac45 & - \frac35 \end{pmatrix}. \]

Такође, проверите да су колоне матрице B, као и матрице P, нормиране.