1. Екстреми

Видели смо да збир производа \(Q = a_1b_1 + ... + a_nb_n\) има интервал вредности, од min до max, зависно од узајамне пермутације коефицијената \(a_n, b_n\). Минимално Q постиже се када се у сабирцима множе мањи коефицијенти једног од низова, \(\vec{a} = (a_1, ..., a_n)\) и \(\vec{b} = (b_1, ..., b_n)\), већим другог. Максимално када се множе мањи са мањима и већи са већима.

Природно стање ствари је тежити том минимуму. Зато што Q представља информацију перцепције, а ова узајамни однос опажања субјекта и објетка, односно комуникацију, затим што је та информација еквивалент физичком дејству (производу импулса и пута, односно енергије и времена), зато кажемо „принцип најмањег дејства“ присутан је у свим трајекторијама данас познате физике. Наравно, рећи ћемо обрнуто ако не изводимо физику из ове теорије.

Ekstremi

1.1. Познато је да ће мању информацију имати вероватнији догађај. Када знамо да ће се нешто десити и то се деси, то и није нека вест, па стога логаритам расте када вероватноћа опада. Знамо да је Шенонова информација

\[ S = -p_1\log p_1 - \dots - p_n\log p_n \]

у „природном току“ ствари, јер у сабирцима спаја мање са већим факторима. Тачније речено наша „наопака импликација“ потврда је коректности класичне теорије информације.

1.2. Другу врсту ограничења видимо на графу десно, црвене праве линије ордината \(y_1 = x - 1\) и плаве логаритамске кривуље \(y_2 = \log(x)\). Друга је стално испод прве осим у тачки где се додирују, што значи \(y_1 > y_2\) за све x > 0, осим у апсциси x = 1 када су им ординате једнаке.

1.3. Писао сам о томе више пута, на пример у блогу у једном од одговора на питања о „емергенцији“, а поновићу и овде. Смењујући \(x = q_k/p_k\) у неједнакости \(\log x \le x - 1 \), редом за k = 1, ..., n, добијамо низ неједнакости \(p_k \log q_k - p_k \log p_k \le q_k - p_k\), који сабран даје

\[ -\sum_{k=1}^n p_k \log p_k \le - \sum_{k=1}^n p_k \log q_k, \]

када је \(q_k\) такође нека расподела са истим бројем могућности. Ова неједнакост је једнакост акко (ако и само ако) је \(p_k = q_k\) за све k = 1, ..., n.

1.4. Горња неједнакост се лако преноси на густине вероватноћа и интеграле у облик

\[ -\int f(x)\ln f(x)\ dx \le - \int f(x)\ln g(x) \ dx. \]

где је лево опет Шенонова информација. Неједнакост каже да је Шенонова информација најмања за дату густину расподеле \(f(x)\), горње вероватноће \(p_k\), и све могуће друге густине расподеле \(g(x)\), горње вероватноће \(q_k\).

1.5. Када је дата густина вероватноће f(x) са непрекидном реалном променљивом x, тако да је f(x) = 0 свугде изван интервала (x1, x2), тада постоји информација за коју важи S ≤ log(x2 - x1), при чему вреди једнакост ако и само ако је f(x) униформна на (x1, x2). Погледајте и 5.8. Индикаторе.

Наиме, за другу, узмимо расподелу униформне густине

\[ g(x) = \begin{cases} (x_2 - x_1)^{-1}, & x \in (x_1, x_2), \\ 0, & x \notin (x_1, x_2), \end{cases} \]

Шенонове информације \( \ln(x_2 - x_1)\), што је лако проверити. Тада имамо:

\[ S = - \int_{-\infty}^{+\infty}f(x)\ln f(x) \ dx \le - \int_{x_1}^{x_2}f(x)\ln g(x)\ dx = \] \[ = - \int_{x_1}^{x_2}f(x)[-\ln(x_2 - x_1)]\ dx \le \ln(x_2 - x_1). \]

Дакле, униформна расподела има највећу информацију међу осталим ограничених интервала.

1.6. Ако је \(f(x) = 0\) за \(x < 0\) и ако постоји коначно очекивање \(\mu\) тада постоји информација и важи \(S \le \ln(e\mu)\), при чему једнакост вреди ако и само ако \(f\) има експоненцијалну расподелу.

Наиме, за другу, узмимо експоненцијалну расподелу густине:

\[ g(x) = \begin{cases} \lambda e^{-\lambda x}, & x \ge 0, \\ 0, & x < 0, \end{cases} \]

Шенонове информације \( 1 - \ln \lambda = \ln (e\mu)\), што је познато. Тада имамо:

\[ S = - \int_{-\infty}^{+\infty}f(x)\ln f(x) \ dx \le - \int_0^{+\infty}f(x)\ln g(x)\ dx = \] \[ = -\int_0^\infty f(x) \left(-\ln \mu - \frac{x}{\mu}\right)\ dx = \ln \mu + \frac{1}{\mu}\int_0^\infty xf(x)\ dx = \ln(e\mu). \]

Дакле, експоненцијална расподела има највећу информацију уколико је задато очекивање.

1.7. Ако постоји коначна варијанса \(\sigma^2\), тада постоји информација таква да је \(S \le \ln (\sigma\sqrt{2\pi e}) \), при чему једнакост вреди ако и само ако \(f(x)\) има нормалну расподелу.

Наиме, за другу (1.4), узмимо нормалну расподелу густине:

\[ g(x) = \frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{x^2}{2\sigma^2}}, \]

Шенонове информације:

\[ S = - \int_{-\infty}^{+\infty} g \ln g\ dx = -\ln (\sigma\sqrt{2\pi e}), \]

чега доказ је у Информатичкој Теорији I (40.), као и овде претходног. Тада имамо:

\[ S = - \int_{-\infty}^{+\infty}f(x)\ln f(x) \ dx \le - \int_{-\infty}^{+\infty}f(x)\ln g(x)\ dx = \] \[ = - \int_{-\infty}^{+\infty}f(x)\left(-\ln(\sigma\sqrt{2\pi}) - \frac{x^2}{2\sigma^2}\right)\ dx = \ln(\sigma\sqrt{2\pi}) + \frac{1}{2\sigma^2}\int_{-\infty}^{+\infty} x^2f(x)\ dx = \] \[ = \ln(\sigma\sqrt{2\pi}) + \frac12 = \ln(\sigma\sqrt{2\pi e}). \]

Тиме је доказано да нормална расподела има највећу информацију од свих задате варијансе \(\sigma^2\).

2. Комутатор

Информација је еквивалентна физичком дејству, производу промене импулса током пута, или што је исто промени енергије за дато време. Да обоје, информација и дејство, могу бити еквиваленти просте геометријске површине видећемо помоћу „комутатора“, идеје коју сам развијао много раније.

Комутатор 2.1

2.1. На слици десно, површина троугла ABO може се добити као збир површина троугла OxAA и трапеза xAxBBA, минус површина троугла xBBO:

\[ \Pi(ABO) = \frac12x_Ay_A + \frac12(y_A + y_B)(x_B - x_A) - \frac12x_By_B = \] \[ = -\frac12(x_Ay_b - x_By_a) = -\frac12[A, B], \]

где je комутатор \([A, B] = -2\Pi\). Комутатор [A, B] = xAyB - xByA овде дефинише негативну површину троугла ABO управо због негативне орјентације троуга, што указује да у рачун комутатора улазе и смерови, односно орјентације. Приметимо да је смер координата апсцисе супротан координатама ординате; када \(\Delta x = x_B - x_A > 0 \), тада је \(\Delta y = y_B - y_A < 0 \). То искористимо у следећем запажању.

2.2. Узмимо сада да апсциса одређује физичку дужину, а ордината импулс неке материјалне тачке, или физичког система. Тако је:

\[ [x, p] = x_1\cdot p_2 - x_2\cdot p_1 = x_1\cdot (p_2 - p_1) - (x_2 - x_1) \cdot p_1 = x_1\cdot\Delta p - \Delta x\cdot p_1 < 0. \]

Овде је комутатор \([x, p] = -|p||\Delta x| - |\Delta p||x| = -2 \Delta x \Delta p \), за ознаке промена положаја и импулса које одговарају датој слици, при чему промене и прве координате сматрамо квантованим. А смер промена остаје битан, као и у случају „просте“, геометријске површине. Аналогно имамо \([t, E] = -2\Delta t\Delta E\), ако апсциса представља физичко време, а ордината енергију.

Комутатор 2.3

2.3. Површина троугла ABC на слици лево, једнака је збиру површина троуглова BCO и CAO минус површина троугла BAO, односно:

\[ \Pi(ABC) = \frac12[A, B] + \frac12[B, C] + \frac12[C, A], \]

где је урачуната негативна вредност [A, B] због супротне орјентације темена. Сличним ће се обилажењем темена надовезивањем комутатора тачака, било конкавног или конвексног многоугла, добијати тачан збир за површину многоугла. Поопштење комутатора је детерминанта и, са другачије стране гледано, тензорски мешовити производ.

Примењено на дејство и информацију, ово ће сабирање комутатора говори о њиховој адитивности такође. Приметимо да још увек нема потребе позивати комутаторе квантне механике и да су „комутатори тачака“ појмовно прилично различити од оних одавно познатих.

3. Косе шансе

На ограниченом интервалу x ∈ (x1, x2) униформна расподела, хоризонталаног графа, има максималну информацију (1.5.). То значи да свака нагнута има мању, а због тежње природе ка мањој информацији, зато би у практичним ситуацијама лакша прва претпоставка требала бити коса расподела. Овде кратко погледајмо такве троугаоне, а више детаља о њима потражите у мојој књизи „Физичка Информација“.

Kose šanse

3.1. На слици десно је троугао са теменима A(x1, 0), B(x2, 0) и C(x3, y3). Он је јединичне површине и представља „троугаону расподелу“ вероватноћа. Претходни рачун комутатора зато даје [A, B] + [B, C] + [C, A] = 2, односно:

\[ (\cancel{x_1y_2} - \cancel{x_2y_1}) + (x_2y_3 - \cancel{x_3y_2}) + (\cancel{x_3y_1} - x_1y_3) = 2, \] \[ (x_2 - x_1)y_3 = 2, \]

што је тачно, јер је произод основице и висине троугла једнак половини његове површине. Отуда y3 = 2(x2 - x1)-1. Троугао не мора бити једнакокраки, али средине крака CB и CA биће средње вредности пројекција тих дужи \[ A'\left(\frac{x_2+x_3}{2}, \frac{y_3}{2}\right), \quad B'\left(\frac{x_3+x_1}{2}, \frac{y_3}{2}\right), \]

као и припадних случајних варијабли тих страница. Дуж A'B' је средња линија троугла, паралелна је основици AB и једнака половини њене дужине. То знамо из геометрије и на основу ових координата можемо лако проверити. Међутим, стереометријом регресије нашли смо такође да средње вредности варијабли бочних страна морају бити једнаке, тако да је сада \(\bar{a} = \bar{b} = \frac12\)y3 = (x2 - x1)-1.

3.2. Једначине правих AC и CB одређују позитивне вредности густине ове троугаоне расподеле унутар апсциса дуж AB, са нултим вредностима свугде изван:

\[ f(x) = \begin{cases} \frac{2(x - x_1)}{(x_2 - x_1)(x_3 - x_1)}, & x \in [x_1, x_3], \\ \frac{2(x_2 - x)}{(x_2 - x_1)(x_2 - x_3)}, & x \in [x_3, x_2]. \end{cases} \]

Отуда за средњу вредност, или математичко очекивање варијабле x, налазимо:

\[ \mu = E(x) = \int_{x_1}^{x_3} \frac{2x(x-x_1)}{(x_2-x_1)(x_3-x_1)}\ dx + \int_{x_3}^{x_2}\frac{2x(x_2-x)}{(x_2-x_1)(x_2-x_3)}\ dx = \] \[ = \frac{-x_1^2 - x_1x_3 +2x_3^2}{3(x_2 - x_1)} + \frac{x_2^2 + x_2x_3 - 2x_3^2}{3(x_2 - x_1)} = \frac{x_1 + x_2 + x_3}{3}. \]

Очекивање троугаоне расподеле је апсциса њеног тежишта x0 = (x1 + x2 + x3)/3, ординате y0 = y3/3 која представља вероватноћу те вредности. Из геометрије знамо да је тежите троугла (на слици горе лево) у тачки T(x0, y0) која се налази у пресеку тежишница AA' и BB'.

3.3. Варијанса, или средње квадратно одступање ове расподеле је:

\[ \sigma^2 = E((x-\mu)^2) = \int_{x_1}^{x_3} \frac{2(x-\mu)^2(x-x_1)}{(x_2-x_1)(x_3-x_1)}\ dx + \int_{x_3}^{x_2}\frac{2(x-\mu)^2(x_2-x)}{(x_2-x_1)(x_2-x_3)}\ dx = \] \[ =\frac{1}{18}(x_1^2 + x_2^2 + x_3^2 - x_1x_2 - x_2x_3 - x_3x_1) = \frac{(x_1 - x_2)^2 + (x_2 - x_3)^2 + (x_3 - x_1)^2}{36}. \]

Средње квадратно одступање троугаоне расподеле σ2 износи 36. део збира квадрата дужина пројекција темена троугла на апсцису, \(|x_1 - x_2|\), \(|x_2 - x_3|\) и \(|x_3 - x_1|\).

Догађа се да је конкретна провера тежа од опште и то је сада случај са троугаоном расподелом за коју знамо да има мању Шенонову информацију од униформне (1.5). Није толико тешко то израчунавање интеграла \(-\int f \ln f \ dx\) колико је резултат опширан због логаритама, непрегледан и овде непотребан.

3.4. Пример. Неки састанак треба да почне у 14 часова и обично касни 10 минута, али никада више од пола сата. Колике су шансе да ће састанак почети до 14.20?

Решење: Уместо Гаусове, користимо троугаону расподелу за прву апроксимацију. Радимо у минутама и на горњој слици темена троугла су A(120, 0), B(150, 0) и C(130, y3). Координата y3 = 2(150 - 120)-1 = 1/15 је навећа вероватноћа тренутка. Густина вероватноће је функција

\[ f(x) = \begin{cases} \frac{2(x - 120)}{30\cdot 10}, & x \in [120, 130], \\ \frac{2(150 - x)}{30\cdot 20}, & x \in [130, 150]. \end{cases} \]

па израчунавамо за задати интервал:

\[ \Pr(120 \le x \le 140) = \int_{120}^{140} f(x)\ dx = \int_{120}^{130} \frac{x-120}{150}\ dx + \int_{130}^{140} \frac{150-x}{300}\ dx = \frac13 + \frac12 = \frac56. \]

Вероватноћа 1/3 до типичног кашњења од 10 минута мања је од истог временског дела касније, јер је тај успон стрмији и површина испод AC мања је. Дисперзија, средње одступање од просека:

\[ \sigma = \sqrt{\sigma^2} = \sqrt{\frac{30^2 + 20^2 + 10^2}{36}} \approx 6,236 \]

у минутама је. Очекивано време састанка је 14.10 ± 6 минута, па су јасне овако добре шансе 5 : 1 у користи почетка од 14.00 до 14.20 часова.

4. Конзервирање

На примеру Бернулијеве расподеле видећемо разлику између Шенонове и информације за коју важи закон одржања, коју сам називао физичком. Већ смо уз Бацање коцке (4.1) видели средњу вредност, тј. Шенонову информацију, најпростијег случаја биномне расподеле \(S_1 = -p\log p - q \log q\). To je догађај чији је исход вероватноће p ∈ (0, 1) и не-исход вероватноће q = 1 - p, а догађај се дешава само једном.

4.1. У две реализације истог, дати догађај може се десити оба пута са вероватноћом p2, само једном са вероватноћом pq (да се први пут деси, други не) или qp (да се други пут деси, а први не), или да се ни једном не деси са вероватноћом q2. То су три различите могућности које чине једну расподелу, јер је \(p^2 + 2pq + q^2 = 1\). Шенонова информација таквих је

\[ S_2 = -p^2 \log_2 p^2 - 2pq \log_2 (2pq) - q^2 \log_2 q^2 = \] \[ = -[2p^2 \log_2 p - 2pq \log_2 (pq) - 2q^2 \log_2 q] - (2pq \log_2 2) \] \[ = - [2p^2 \log_2 p - 2pq \log_2 p - 2pq \log_2 q - 2q^2 \log_2 q] - (2pq) \] \[ = [2p( -p \log_2 p - q \log_2 q) + 2q( - p \log_2 p - q \log_2 q)] - 2pq \] \[ = 2(p + q)(-2 \log_2 p - q\log_2 q) - 2pq \] \[ = 2S_1 - 2pq. \]

Означимо са \(L_1 = S_1\) и \(L_2 = 2L_1\) и назовимо овакво \(L_n = nL_1\) физичком информацијом, односно са таквом за коју важи закон одржања. Из израза \(S_2 = L_2 - 2pq\) схватамо да ће „физичка информација“ бити већа од Шенонове, од тзв. средње вредности информације Бернулијеве расподеле.

4.2. На графовима троугаоне расподеле можемо видети разлике међу „средњим вредностима“. Тако је очекивање μ, које је апсциса темена C троугла (3.1), различито од средине интервала AB, или „средина“ које можемо дефинисати на основу аритметичке, геометријске, хармонијске или сличне, из алгебре. У статистици, поред средње вредности μ, тако имамо медијану, модус, или средину опсега, а повремено и још неке.

Да дефинисање физичке информације \(\mathcal{B}(p; 3)\) за Бернулијеву расподелу у трећем кораку има смисла, видимо из следећег:

\[ L_3 = -p^3 \log p^3 - 3p^2q \log p^2q - 3pq^2 \log pq^2 - q^3 \log q^3 = \] \[ = -3p^3\log p - 3p^2q\cdot 2\log p - 3p^2q\log q - 3pq^2\log p - 3pq^2\cdot 2\log q - 3q^3\log q \] \[ = -3p^2(p + q) \log p - 3pq(p + q)\log q - 3pq(p + q)\log p - 3q^2(p + q)\log q \] \[ = -3p(p + q)^2 \log p - 3q(p + q)^2 \log q \] \[ = 3(-p\log p - q \log q), \]

тј. \(L_3 = 3L_1\). Доказ је универзалан и зато изостављам базу логаритма.

Означимо вероватноћу појединог исхода Бернулијеве расподеле \(\mathcal{B}(p; n)\) са \(h_k = p^{n-k}q^k\), па можемо краће писати Бернулијеву вероватноћу \(P_k = \binom{n}{k}h_k\) за разлику од ове. Физичка информација је у том општем случају:

\[ L_n = - \sum_{k=0}^n P_k \log h_k = \sum_{k=0}^n \binom{n}{k} p^{n-k}q^k \log (p^{n-k}q^k) = \] \[ = - \sum_{k=0}^n\binom{n}{k}(n-k)p^{n-k}q^k \log p - \sum_{k=0}^n\binom{n}{k}p^{n-k}kq^k \log q \] \[ = -p\left[\frac{\partial}{\partial p}\sum_{k=0}^n \binom{n}{k} p^{n-k}q^k\right] \log p - q\left[\frac{\partial}{\partial q} \sum_{k=0}^n \binom{n}{k}p^{n-k}q^k\right] \log q \] \[ = -p\left[\frac{\partial}{\partial p} (p + q)^n\right]\log p - q\left[\frac{\partial}{\partial q}(p + q)^n\right]\log q \] \[ = -np(p + q)^{n-1} - nq(p + q)^{n-1} \log q \] \[ = n(-p \log p - q \log q), \] \[ L_n = nL_1, \]

па у том смислу можемо \(\mathcal{B}(p; n)\) сматрати као n расподела \(\mathcal{B}(p; 1)\). Још неке расподеле израчунавао сам оваквом „конзервираном средином“ у књизи „Физичка Информација“.

5. Неизвесност

Као што у сваком низу од n = 2, 3, 4, ... узастопних природних бројева постоји по један дељив са n, или томе налик, претпоставио сам присутност „неизвесности“ у свим системима природе. Било је то давно, почетком 80-их у време мојих студија математике у Београду и откривања нових „димензија“ времена помоћу топологије, те првих идеја о можда ревизији тада једине теорије информације.

5.1. Каква год да је претпостављена неизвесност, вероватнији догађаји чешћи су исходи. То је сматрано чињеницом која се подразумевала, а било је примећивано и да су такви догађаји мање информативни. Међутим, ово двоје су еквивалентне, опште природне појаве, схватио сам у једном тренутку. Доследно томе, сва стања природе теже мањој информацији! Одушевљавао сам се својевремено овим открићем, мада дуго нисам знао шта са њиме чинити. Оно је сада у (мом) начелу минимализма.

5.2. Математика нема јасну представу о неизвесности, наука се њоме не бави, а кадшто је ми приватно сматрамо разлитим појмовима. У „теорији информације“, какву сам тад започео градити, неизвесност би била и она коју ловац намеће необавештеном плену припремајући му клопку. Објективно је било и незнање пре сазнања, ако би истину било немогуће открити другачије сем новим чињеницама, путем додатних информација. То је смисао „објективности случајности“ одлучио сам. За такву, неизвесност у ужем смислу, поменуте додатне димензије временена биле би фикција, можда погодна апстракција, а никако врста реалности.

Електромагнетно зрачење сунчевих пега стиже нам брзином светлости и пребрзо за уочавање штете коју почиње правити. Зато га предвиђамо образцима који могу бити понављани, а сви остали случајеви објективно су непредвидиви. Слично је и са током садашњости у будућност, које се одвија брзином светлости.

Корак даље било би признање „реалности“ опцијама и тек тада се захуктавају приче (нове) теорије информације. Као да је отворена Пандорина кутија, тезе се одједном појављују у свим правцима, од математике, преко физике, њене квантне механике, гравитације, или науке о топлоти, до биологије, психологије, социологије, права и шире. Што би рекли, само небо је граница, а сада ни оно.

5.3. На том путу налази се и откриће „сила неизвесности“. На почетку стоји безазлена идеја „чешћих реализација вероватнијих исхода“, назовимо је начелом вероватноће, која постаје „сила која нас гура“ из мање у већу извесност. Као и сам појам енергије који је заправо веома апстрактан, биће и „случајна појава“ опипљива рецимо попут гравитације, ево како.

Чебишевљева неједнакост описује максимални број екстремних вредности у дистрибуцији случајних варијабли X, било које расподеле дате дисперзије σ. Наводи да не више од одређеног броја вредности (1/r) биће изван границе око просека дистрибуције (удаљен више од r ⋅ σ). Теорема је посебно корисна јер се може применити на било коју расподелу вероватноће, чак и на ону која крши нормалност (није звонастог типа), све док су средња вредност μ и варијанса σ2 познате. Неједначина гласи:

\[ \Pr(|X - \mu| \ge r\sigma)\le \frac{1}{r^2}. \]

Последица је закон великих бројева, односно појава коју видимо око себе у макро свету, да не видимо случајност као што не видимо ни поједине атоме.

Чебишевљева неједнакост такође каже да број повољних исхода N0 подељен бројем свих покушаја N постаје све тачније једнак броју pω који називамо вероватноћом датог исхода (ω). Она није једина која говори о сличним нагомилавањима случајних вредности, иако је можда једноставнија међу таквима.

5.4. Замислимо низ n = 1, 2, 3, ... случајних догађаја ω1, ..., ωn, попут бацања новчића, коцке, извлачења броја из лото бубња и слично. Сваки понављајмо N пута да би регистровали N1, ..., Nn жељених исхода појединих догађаја и формирали тзв. статистичке вероватноће Pk = Nk/N, редом за k = 1, ..., n. Правила великих бројева налажу да \(P_k \to p_k\) када \(N \to \infty\), где су Pk и pk статистичка и права вероватноћа k-те жељене реализације. Нека векторе \(\vec{P} = (P_1, ..., P_n)\) и \(\vec{p} = (p_1, ..., p_n)\) чине поменуте вероватноће.

Ма колико велики број n димензија ових векторских простора био, та два вектора (\(\vec{P}\) и \(\vec{p}\)) леже у једној равни и разапињу један паралелограм површине \(|\vec{P}||\vec{p}| \sin\varphi\), где су \(|\vec{P}|\) и \(|\vec{p}|\) интензитети ових вектора, а \(\varphi = \angle(\vec{P},\vec{p})\) је угао који они заклапају. Закон великих бројева каже да \(\vec{P} \to \vec{p}\) када \(N \to \infty\).

5.5. Штавише, ако уочимо векторе \(\vec{M}' = (N'_1, ..., N'_n)\) и \(\vec{M}'' = (N''_1, ..., N''_n)\) у корацима понављања поменутих опита, који ће бити све већи и већи, опет је могуће имати аналогну раван и паралелограм површине \(\Pi = |\vec{M}'||\vec{M}''| \sin\phi\). Краци овога биће све дужи а, за константну разлику понављања опита, угао међу њима биће све мањи. Дефинишемо ли добро тај апстрактни простор вероватноћа, односно његову метрику, дешавати ће се да површина разапетог паралелограма остаје иста док бројеви опита расту, да је Π = const.

То је аналогно Кеплеровом другом закону који каже да потег од Сунца до планете за једнака времена пребрише једнаке површине. Овде имамо још нешто, да ће се врхови оваквих вектора (\(\vec{M}\)) кретати по хиперболама, што обоје указује на централне константне силе, које сам назвао „силама неизвесности“. У међувремену имамо и општу законитост која говори како о кретању набоја по коникама (елипсама и параболама у случају привлачења, а хиперболама код одбијања), тако и константним површинама које оне пребришу, ако је сила која их покреће централна и константна (Прилози, Централно кретање).

6. Равнотежа

6.1. Клинч акције и реакције представљамо збиром производа, \(Q = \vec{a}\cdot \vec{b}\). Тада је сваки од сабирака \(a_kb_k\) врста равнотеже, или тежње ка равнотежи, одговарајућих интеракција рецимо субјекта \(\vec{a}\) са објектом \(\vec{b}\). Када су оба низа опадајући (нерастући), такви да је \(a_1 \ge a_2 \ge ... \ge a_n\) и \(b_1 \ge b_2 \ge ... \ge b_n \), онда је збир \(Q = a_1b_1 + ... + a_nb_n\) максималан и представља напетост која би спонтано опадала.

На пример, ако се први члан реакције субјекта смањи за ε, а други за толико повећа, а сви остали исти су, онда је разлика старог и новог збира:

\[ Q - Q' = (a_1b_1 + a_2b_2) - [(a_1 - \varepsilon)b_1 + (a_2 + \varepsilon)b_2] = \] \[ = [a_1 - (a_1 - \varepsilon)]b_1 + [a_2 - (a_2 + \varepsilon)]b_2 \] \[ = \varepsilon b_1 - \varepsilon b_2 = \varepsilon(b_1 - b_2) \ge 0. \]

Овај вишак дејства (информације) тежиће да се ослободи из „загрљаја“ акције и реакције.

6.2. Спонтана тежња природних система да смање напетост, односно интеракцију или комуникацију, иако није тако названа, примећена је и у математичкој теорији графова. Наиме, далеководи, интернет комуникације, богатства и токови новца, као и познанства међу људима, тежиће мањем броју чворова „концентратора“ са много повезница и великом броју чворова сиромашних повезницама. Структура ће мрежа комуникација (интеракција) тако се организујући постати ефикаснија, у смислу да троши мање корака у ходу између задатих чворова (Six degrees of separation). Попут садржајнијег, или паметнијег текста она постаје и мање информативна.

Претерана концентрација повезница одвела би мрежу у другу крајност, да су изузетно ретки и богати чворови униформно окружени крајње сиромашним са по једном повезницом. У екстремном случају ће један чвор садржати све повезнице када само два корака раздвајају било која два чвора. Међутим, није природна таква једнакост, јер униформне расподеле имају максималну информацију и биће спонтано избегаване. Ово нам говори о равнотежама које су негде између крајњих стања и циљеви су супротних токова.

6.3. Као широко у воду набачена рибарска мрежа коју затим вучемо скупљајући улов, већа количина неизвесности (информације) концентрише се у мању, усмеравајући се искључујући неке опције тиме добијајући на организованости и способности деловања. Паметнији избори мање су информативни, селективнији су, али увек извучени из ширег корена многобројнијих и касније непотребних опција. Таква почетна ширина обухвата неопходна је попут дизања терета на вишу потенцијалну енергију и добијање корисног рада његовим спуштањем.

Прелазак стања из активе у пасиву спонтан је процес. То је начелна штедљивост информације, дејства у физици, која би неусмеравана ишла у уситњавање, разводњавање и мању густину комуникације, а не обавезно у неки користан рад са нашег становишта. То је и процес постепеног (неприметног) умирања живих бића, укључујући и њихове организације.

Зато је, на пример, Хамурабијев законик (до 1750. год. п.н.е.) био прекретница Вавилона, крај успона и почетак пада тог царства. По сличној апстрактној шеми дешавао се и успон српског царства до Душана Силног (до 1355) Законодавца након којег је оно остајало превише профињено у рукама Уроша Нејаког (1355–1371), или успон тада до зрелости Отоманске Империје са Сулејманом Величанственим (до 1566) исто званим Законодавцем, да не набрајам даље (в. Democracy). Виталност тежи пасиви.

6.4. Равнотежа је попут вртлога, такво локално „добро“ стање система из којег он „не жели“ изаћи. Али околни процеси не стоје и тај за себе оптималан систем заостаје у односу на шире окружење, да би тим нелокалним догађајима временом постао „превазиђен“. У разговорима о еволуцији врста на земљи и о потреби мешања гена, или разлозима постојања мушког и женског пола, ради наглашавања сам стања равнотежа добро уређених и себи окренутих система називао и „феминизацијом“, не само у биологији (Приче о информацији, 1.4 Феминизација).

Феминизације, у том смислу, биле би процеси стања ниже информације у односу на ближу околину из којег систем неће спонтано изаћи (Mинимализам). Супротност му је стање панике, претераног страха када чинимо ствари које иначе не би, или склоност срљању (чешће неких мушких чланова колектива, него женских) која понекад добаце друштво до следећег оптимума, наравно и разорно дејство вањских фактора које заједницу у стагнацији избаци из даље трке.

6.5. Налази о овим равнотежама лако се преносе на виталност уопште. На пример, економија одавно познаје скокове „квантитета у нови квалитет“, када један начин привређивања бурно прелази у други, или Фон Нојманова „минимакс“ теорема која говори о оптималним местима стратегија као „седлима“ матрице добити, односно „равнотежама“ у којима противника остављамо без за њега најбољих потеза.

Описао сам везу те теореме кратко у стратегији, као поједностављену верзију и специјални случај шире стратегије реципроцитета. Ову другу би мало прецизније било називати стратегијом равнотежа, када нам „реципроцитет“ значи до те мере једнако узвраћање да оно постаје превише предвидљиво. Наиме, суштина виталности је у вишку непредвидљивости. Отуда способност живих бића да пркосе принципу најмањег дејства физике, да лажу и да се надмећу.

7. Осцилације

7.1. Окретање унутрашњем уређењу смањиваће виталност и постајати одраз, супротност, путу према ризику и мањој сигурности. Шира база слобода потенцијал је попут гравитационог и терета који би спуштањем вршио користан рад. Слично широко бацаној мрежи ради улова нешто рибе скупљањем мреже приликом њеног извлачења. Дакле, количине опција у виталности могу значајно осциловати. Њене су амплитуде много веће него такве мртве физичке твари која се „као пјан плота“ слепо држи начела најмањег дејства.

Бар две се силе ту надмећу, одбојна сила неизвесности против закона одржања информације. Прва произилази из веровања да се вероватнији исходи чешће реализују, а друга из наше убеђености да можемо веровати експериментима — да информације које мерењима можемо сакупљати из ничега неће настајати нити ће у ништа нестајати.

7.2. Слободно тржиште новца, роба и услуга развијаће се у малобројне имаоце веома много токова (лица, фирме, корпорације), наспрам многобројних чворова са веома мало повезница. То је позната закониторст математичке теорије слободних мрежа која је, наравно, сагласна начелу штедљивости информације (Минимализам). Тако се за нешто милијарди чворова постиже повезаност у највише шест до седам корака. Међутим, само један концентратор са повевезницама до свих осталих са по једном, када би се у свега два корака стигло имеђу било која два места, друга је крајност којој ће се опирати исти разлози минимализма.

У ограниченом домену, униформна расподела имаће максималну информацију. Природа спонтано тежи мањој комуникацији, као што бежи у стања веће вероватноће, па се такви системи развијају у удаљене депресије. Настају изолована места са мањом информацијом од непосредне околине и она привлаче попут вртлога. Међутим, заробљавање развоја немогуће је (Rotation II), што се надилази „застаревањем“ локалних места и „преузимањем“ од даље околине. На пример, биолошке врсте су често двополне, са углавном мушким јединкама које имају већу дисперзију понашања (склоности срљању), ради лакшег премошћавања „сигурности“ депресије (Emancipation).

7.3. Ако је неизвесност објективна појава, онда процеси временом постају такви да њихови исходи не зависе од улаза. Оно што добијамо на излазу попут је „Великог праска“, тј. униформне расподеле, ма шта стварно било на почетку (Полином оператора, 2.2). То онда значи да извесност обавезно води у периодичност, макар то били и процеси детерминистичке теорије хаоса (Chaos). Посебно када је матрица M датог процеса коначно-димензионална и низ њених степена M0 = I, M1 = M, M2, M3 ... има коначно линеарно независних чланова, може их имати највише dim M.

Типични представник периодичних процеса су ротације, али ни оне нису периодичне када је угао ротације ирационалан број. Ротације су и универзалне изометријске трансформације (Symmetry). Геометријска пресликавања које чувају удаљености између парова тачака (транслације, симетрије, рефлексије) без изузетка се могу свести на ротације, а сада видимо да ни оне не морају бити тачно перидичне, нити су, ако је неизвесност објективна појава.

7.4. Спавањем замењујемо јаву у дневним циклусима, исхраном допуњавамо потребу за сагоревањем калорија, такође, дисањем надокнађујемо потражњу ткива за кисеоником. Живимо са осцилацијама осцилација, али тако да се временом полако мењамо, трошимо.

Oscilacije

Ове наизглед периодичне промене, које су нама апстраховане форме, делови су природних, спонтаних процеса присутних у спину квантних честица, смени електричног и магнетног поља кретања фотона, у таласању све физичке материје (Де Број, 1924), па и у снази лажи (Lies Power). Природа је света малих величина стјешњена, сведена на своје елементе који она затим усложњава и разводњава због пружања ка бесконачностима, а са друге тежње минимализму.

8. Корелација

Корелација (лат. con = са, relatio = однос) је суоднос или међусобна повезаност између различитих појава представљених вредностима две варијабле, овде X и Y. Представљају их случајне вредности реалних бројева xk, yk ∈ ℝ, вероватноћа pk ∈ (0, 1), тј. позитивних и мањих од један такође реалних бројева. Они су део неке расподеле вероватноћа, што значи ∑ pk = 1, где k = 1, 2, ..., m.

Korelacija

8.1. Уопште, случајне варијабле Z представљају вредности zk ∈ Φ неког тела скалара (углавном реалних, али и комплексних бројева), при чему поједини су облика zk = xk + iyk. Сви ти сабирци xk и yk су реални бројеви, a имагинару јединицу дефинишемо уобичајено i² = -1.

Математичко очекивање, или средња вредност случајне варијабле, која уопштава аритметичку средину дајући већу тежину вероватнијем, када постоје такве разлике, држи се правила „очекуј више од оног што даје више“. Такво очекивање израчунавамо формулом:

\[ \mu_z = \sum_{k=1}^m p_kz_k = \sum_{k=1}^m p_k(x_k + iy_k) = \sum_{k=1}^m p_kx_k + i\sum_{k=1}^mp_ky_k = \mu_x + i\mu_y. \]

Ову очекивану вредност (енг. Expected value) пишемо и као функцију E(Z) = μz = μx + iμy. Очекивање средњег квадратног одступања од средње вредности је:

\[ \sigma_z^2 = \sum_{k=1}^m p_k|z_k - \mu_z|^2 = \sum_{k=1}^m p_k[(x_k - \mu_x)^2 + (y_k - \mu_y)^2] = \] \[ = \sum_{k=1}^m p_k(x_k - \mu_x)^2 + \sum_{k=1}^m p_k[(y_k - \mu_y)^2 = \sigma_x^2 + \sigma_y^2. \]

Назива се и варијанса, стандардна девијација, па и нејасним изразима попут одступање, дисперзија. Толико уопште, али у наставку статистике бавимо се само реалним бројевима.

8.2. Особине математичког очекивања су:

  1. E(X) = c, ако је X = c, где је c неслучајна величина;
  2. E(cX) = cE(X);
  3. E(X + Y) = E(X) + E(Y);
  4. E(XY) = E(X)E(Y), ако су X и Y независне.

Доказ: (1) и (2) је очигледно: када су сви c таква им је и средња вредност, и када c пута увећамо сваку вредност толико пута се увећа и средња вредност. (3) што је ∑(xk + yk)pk = ∑xkpk + ∑xkpk је адитивност сабирања. (4) изводимо из особине X и Y, да је p(xj, yk) = p(xj)q(yk):

\[ E(XY) = \sum_j \sum_k x_j y_k p(x_j, y_k) = \sum_j \sum_k x_jy_kp(x_j)q(y_k) = \] \[ = [\sum_j x_j p(x_j)][\sum_k y_k q(y_k)] = E(X)E(Y), \]

дакле из дефиниције независности. ∎

Особина (4) се лако проширује на више независних варијабли E(X1X2...Xn) = E(X1)E(X2)...E(Xn), али не важи обрнуто: ако је E(XY) = E(X)E(Y) не следи да су варијабле X и Y независне. Овде радимо само са коначним математичким очекивањима.

8.3. Користећи горње особине очекивања, лако доказујемо особину варијансе:

\[ \sigma^2(X) = E[X - E(X)]^2 = E(X^2) - [E(X)]^2. \]

Наиме:

\[ \sigma^2(X) = E[X - E(X)]^2 = E\{X^2 - 2XE(X) + [E(X)]^2\} = \] \[ = E(X^2) - 2E(X)E(X) + [E(X)]^2 = E(X^2) - [E(X)]^2. \]

Разлог за управо овакву дефиницију варијансе је следећи.

8.4. Израз E(X - ξ)² посматран као функција од ξ достиже минимум за ξ = E(X).

Наиме:

\[ E(X - \xi)^2 = E[X - E(X) + E(X) - \xi]^2 = \] \[ = E[(X - E(X))^2 + 2(X - E(X))(E(X) - \xi) + (E(X) - \xi)^2 ] \] \[ = \sigma^2(X) + 2(E(X) - \xi)E(X - E(X)) + (E(X) - \xi)^2 \] \[ = \sigma^2(X) + (E(X) - \xi)^2. \]

Помоћу горњих особина очекивања лако доказујемо и следећу неједнакост важну за законе великих бројева.

8.5. Нека случајна променљива X, чије се апсолутне вредности |x1|, ..., |xm| налазе у неком интервалу позитивних реалних бројева (a, b), има коначно математичко очекивање квадрата E(X²). Бирамо ли било које α ∈ (a, b) важиће Чебишевљева неједнакост за вероватноћу (енг. Probability)

\[ \Pr(|X| \ge \alpha) \le \frac{E(X^2)}{\alpha^2}. \]

Наиме:

\[ E(X^2) = \sum_{k=1}^m x_k^2p_k = \sum_{x_k < \alpha} x_k^2p_k + \sum_{x_k \ge \alpha} x_k^2 p_k \ge \sum_{x_k \ge \alpha} x_k^2 p_k \ge \sum_{x_k \ge \alpha} \alpha^2 p_k = \alpha^2 \Pr(|X| \ge \alpha). \]

На исти начин се ова доказује интегрирањем у случају густине вероватноће.

8.6. Остале особине варијансе су:

  1. σ²(X) = 0 акко је варијабла константа, X = c;
  2. σ²(X + c) = σ²(X);
  3. σ²(cX) = c²σ²(X);
  4. ако су X и Y независне, онда је σ²(X + Y) = σ²(X) + σ²(Y).

На пример, (4) следи кроз:

\[ \sigma^2(X + Y) = E(X + Y)^2 - [E(X + Y)]^2 = \] \[ = E(X^2 + 2XY + Y^2) - [E(X) + E(Y)]^2 \] \[ = E(X^2) + 2E(XY) + E(Y^2) - [E(X)]^2 - 2E(X)E(Y) - [E(Y)]^2 \] \[ = E(X^2) - [E(X)]^2 + E(Y^2) - [E(Y)]^2 \] \[ = \sigma^2(X) + \sigma^2(Y). \]

Независност, која за очекивање значи мултипликативност E(XY) = E(X)E(Y), за варијансу постаје адитивност. Она (4) лако проширује на већи број сабирака.

8.7. Расподелу чини рецимо скуп избора ω1, ω2, ..., ωm ∈ Ω, редом вероватноћа p1, p2, ..., pm, да можемо писати Pr(ωk) = pk, редом за k = 1, 2, ..., m. Када понављамо овај опит N пута, увек се деси елеменат из скупа Ω, па је ∑k Pr(ωk) = 1, јер је реч о расподели вероватноћа. Међутим, можемо мерити дешавање појединог елемента, његов број појављивања Nk и његову фреквенцију

\[ P_k = P(\omega_k) = \frac{N_k}{N}, \quad N_1 + N_2 + ... + N_m = N, \]

која се назива статистичка вероватноћа. Закон великих бројева каже да Pkpk када N → ∞, да ће све статистичке вероватноће постајати математичке када број понављања неограничено расте.

На пример, лото бубањ има m куглица редом означених бројевима од 1 до m. Тако америчка лутрија Мега Милиони извлачи пет гумених лоптица из машине која садржи m = 70 лоптица. Шести се број, тзв. Мега лоптица, затим извлачи из другог бубња од 25 бројева. Многе друге лутрије раде са самим једним бубњем и мањим бројем куглица, јер имају мање тржиште.

Ако је игра фер, након хиљада извлачења, са растућим бројем понављања N, статистичке вероватноће ће тежити хомогеној расподели, где се свака куглица (ωk) јавља исти број пута (N/m). Другим речима, Pk → 1/m, за свако k = 1, 2, ..., m. Међутим, неки случајни догађаји су неједнаких вероватноћа, такви да би се појављивања „куглица“ могла дешавати са различитим фреквенцијама.

8.8. Начелно у (мојој) теорији информације стоји тежња мањој комуникацији, у свим могућим врстама појава, а онда и њихово прилагођавање (Adaptation) мање информативним стањима. Међу познатијим су теоремама оне о највећим средњим информацијама у датим условима (Екстреми). Тако ће на датом интервалу униформна (једнолика) расподела имати максималну информацију, што значи да ће таква спонтано дегенерисати у неку неједнолику.

Ово се надовезује на једну од „ергодичких теорема“ (Информатичка Теорија III), да се расподеле много исхода (великог броја m из Ω) појављују груписане у мало њих са релативно великим вероватноћама и многобројне маловероватне. Опет, физикално, то можемо разумети као море нечега небитног око нас, због чега нам је за опстанак довољно ово мало чула које имамо.

На пример, по истом, догађа се да ће паметнији, смисленији текстови (Слова, Андрић и Селимовић) бити мање информативни имајући нека од слова знатно фреквентнијима од многих других. На такав начин могли бисмо препознавати рецимо да делфини разговарају, када приметимо да пуштају звуке уредно различитих средњих фреквенција, за разлику од неинтелигентног равномерног звучања. Тако бисмо знали да тамо неки разговарају, а да немамо појма о чему разговарају. Ево како ћемо сазнати да ли се ради о истом језику.

8.9. Коефицијент корелације (Correlation) случајних променљивих X и Y дефинише се као

\[ \rho_{X,Y} = \frac{E[(X - E(X))(Y - E(Y))]}{\sqrt{E(X^2) - E(X)^2} \sqrt{E(Y^2) - E(Y)^2}} = \frac{\mu_{xy} - \mu_x \mu_y}{\sigma_x \sigma_y}, \]

где је μxy очекивање производа варијабли. Када за варијабле узимамо бројеве појављивања исхода, на примеру {a, a, a, b, b, c} видимо да је 3 : 2 : 1 однос статистичких вероватноћа појављивања a, b, c. Тада нам збирни бројеви покушаја и математичке вероватноће, нису неопходни за процену корелације. То олакшава рачун.

Наиме, када имамо \(x = (x_1, ..., x_m) \) и \( y = (y_1, ..., y_m) \), опадајуће низове броја исхода, налазимо:

\[ \mu_x = \frac{x_1 + ... + x_m}{m}, \quad \mu_y = \frac{y_1 + ... + y_m}{m}, \quad \mu_{xy} = \frac{x_1y_1 + ... + x_my_m}{m}, \] \[ \sigma_x = \frac{1}{m}\sqrt{(x_1 - \mu_x)^2 + ... + (x_m - \mu_x)^2}, \quad \sigma_y = \frac{1}{m} \sqrt{(y_1 - \mu_y)^2 + ... + (y_m - \mu_y)^2} \]

и тих пет бројева уврштавамо у горњу формулу корелације. Добијамо:

\[ \rho_{X,Y} = \frac{\frac{1}{m}\sum_k x_ky_k - \mu_x \mu_y}{\sigma_x \sigma_y}. \]

Ако је један од (опадајућих) ових низова дужи од другог, одбацимо вишак последњих чланова дужег као ирелевантне.

Ово је Пирсонов коефицијент корелације. Његове су особине:

  1. |ρx,y| ≤ 1;
  2. За независне варијабле је ρx,y = 0, али обрнуто не мора бити.
  3. |ρx,y| = 1 ако и само ако Y = aX + b.

Када је (3) коефицијент a < 0, имамо негативну потпуну корелацију ρx,y = -1, иначе је позитивна. Боља корелација, боље ρx,y је ближе 1.

У случају да, као у горе поменутом примеру са фреквенцијама ћириличних Андрићевих и латиничних Селимовићевих слова — нити истих дужина низова нити истих учесталости евентуално истих слова, је боља корелација биће већа сличност језика.

8.10. На пример:

\[ x = (5, 4, 3, 2, 1), \quad y = (11, 9, 7, 5, 3), \quad y' = (-9, -7, -5, -3, -1), \] \[ \mu_x = \frac{5 + 4 + 3 + 2 + 1}{5} = 3, \quad \mu_y = 7, \quad \mu_{y'} = -7, \] \[ \sigma_x = \frac{1}{5}\sqrt{(5 - 3)^2 + (4 - 3)^2 + (3 - 3)^2 + (2 - 3)^2 + (1 - 3)^2} = \frac{1}{5}\sqrt{10} \] \[ \sigma_y = \frac{1}{5}\sqrt{(11 - 7)^2 + (9 - 7)^2 + (7 - 7)^2 + (5 - 7)^2 + (3 - 7)^2} = \frac{2}{5}\sqrt{10} \] \[ \rho_{X,Y} = \frac{\sum_k x_ky_k - m\mu_x \mu_y}{m\sigma_x \sigma_y} = \frac{125 - 5\cdot 3 \cdot 7}{5\cdot \frac15 \sqrt{10}\cdot \frac25 \sqrt{10}} = \frac{125 - 105}{\frac25\cdot 10} = \frac{20}{20} = 1. \]

Овај екстремни случај, који због \(Y = 2X + 1\) и \( Y' = -2X + 1\) представља тоталну позитивну и негативну корелацију, открива и разлике између Пирсонове корелације и информације перцепције. Сличност је у већој вредности обе када су низови усклађени (када су вредности првог низа сразмерне коефицијентима другог). Међути, корелација показује усклађеност одступања од средње вредности, док информација перцепције говори о тоталној вредности.

9. Ротација

Физичка ротација је кружно кретање око централне осе. У равни, то је окретање око исходишта O угаоном брзином ω. За време Δt потег од исходишта до дате тачке тела пребрише угао Δθ = ω⋅Δt.

Rotacija1

9.1. У математици, ротација у равни око њене фиксне тачке O, за угао θ, је пресликавање ρ(O, θ) : AA' тачака (A), такво да удаљености остају непромењене (OA' = OA), а угао θ = ∠AOA'. Позитиван угао ротације је обрнут смеру казаљке на сату.

Да удаљености произвољне две пресликане тачке A, B → A', B' ротацијом остају непромењене, видимо на слици лево. Како су троуглови OAB и OA'B' подударни, биће A'B' = AB. Ротација је зато изометрија (пресликавање које чува удаљеност тачака). А такве су и транслација, централна симетрија, осна симетрија, или рефлексија.

Штавише, свака изометрија може се свести на ротације. На пример, централна симетрија је ротација за 180° око центра. Транслацију можемо извести помоћу две централне симетрије, као што се види на следећој слици десно.

Rotacija2

9.2. Транслација је задата вектором \( \vec{v} = \overrightarrow{AA'} \). Конструишемо пола тог вектора \( \overrightarrow{OO'} \) и централно симетрично око тачке O пресликамо A у A'', затим око тачке O' централно симетрично пресликамо A'' у A'. Приметимо да на исти начин, произвољну тачку B пресликамо ли централно симетрично око дате тачке O у тачку B'', па ову око O' у B', добијамо транслацију B у B' за исти дати вектор \(\vec{v}\).

Осна симетрија је ротација око осе за 180° кроз димензију ван равни, а огледалска рефлексија је ротација око равни огледала за 180° кроз нову димензију простора.

Изометрије су такође и оператори из линеарне алгебре који чувају норму (интензитет) вектора. Квантна стања и процеси су репрезентације вектора и оператора, па ћемо „стања“ и „процесе“ (у теорији информације) поопштити на макро свет аналогно прихватању атома и молекула у том „нашем“ свету, иако их не можемо непосредно видети. Законе одржања тако интерпретирамо изометријама.

Rotacija2

9.3. На новој слици лево приказан је правоугли систем координата (OXY) ротиран (око O за угао θ) у други правоугли систем (OX'Y'). Пројекције тачке T на први су (x, y), на други (x', y'). Пресек дужи Tx и Ox' је тачка A.

Како су углови са окомитим крацима једнаки, то су правоугли троуглови AxO и Ax'T слични, те је:

\[ Ox' = OA + Ax', \] \[ x' = \frac{x}{\cos\theta} + y'\text{tg} \ \theta, \] \[ x'\cos\theta = x + y'\sin\theta, \] \[ x = x'\cos\theta - y'\sin\theta. \]

Аналогно налазимо \( y = x'\sin\theta + y'\cos\theta \). Доказ попут овога са применама налази се и у мојој књизи „Простор-Време“ (1.4.2 Ротациjе), а још један мало другачији метод следи из прилога о комплексним бројевима, овдашњег у прегледу линеарне алгебре.

9.4. На истој претходној слици Декартових координатних система, тачка T је комплексан број. Тада је OT = r, ∠xOT = φ, ∠x'OT = φ, па имамо:

\[ z = x + iy = r\cos\varphi + ir\sin\varphi = r\cos(\theta + \varphi') + ir\sin(\theta + \varphi') = \] \[ = r(\cos\theta\cos\varphi' - \sin\theta\sin\varphi') + ir(\sin\theta\cos\varphi' + \cos\theta\sin\varphi') \] \[ = r(\cos\varphi' + i\sin\varphi')\cos\theta + ir(\cos\varphi' + i\sin\varphi')\sin\theta \] \[ = r(\cos\varphi' + i\sin\varphi')(\cos\theta + i\sin\theta) \] \[ = (x' + iy')(\cos\theta + i\sin\theta) \] \[ = (x'\cos\theta - y'\sin\theta) + i(x'\sin\theta + y'\cos\theta). \]

Упоређивањем реалних и имагинарних делова налазимо:

\[ \begin{cases} x = x'\cos\theta - y'\sin\theta \\ y = x'\sin\theta + y'\cos\theta \end{cases} \]

а то су исте трансформације координата као претходне.

9.5. Следећи од елементарних начина посматрања ротација је помоћу комутатора. Њих сам користио раније, често до књиге „Квантна Механика“ (2018), када су били мање познати у литератури. Идеја је да двоструку површину троугла OTS пишемо као комутатор [T, S] = TxSy - TySx, што је лако доказати.

Када је OT = OS = r, а угао θ = ∠TOS, посматрамо скаларни производ вектора и компоненту векторског производа у датој (OXY) равни:

\[ \vec{S}\cdot\vec{T} = S_xT_x + S_yT_y = r^2\cos\theta, \quad (\vec{S}\times\vec{T})_z = S_xT_y - S_yT_x = r^2\sin\theta, \] \[ \begin{cases} T_x = T_x\cdot\frac{S_x^2 + S_y^2}{r^2} = \frac{S_x(S_xT_x + S_yT_y) - S_y(S_xT_y - T_xS_y)}{r^2} = S_x\cos\theta - S_y\sin\theta \\ T_y = T_y\cdot \frac{S_x^2 + S_y^2}{r^2} = \frac{S_x(S_xT_y - S_yT_x) + S_y(S_xT_x + S_yT_y)}{r^2} = S_x\sin\theta + S_y\cos\theta \end{cases} \] \[ \begin{pmatrix} T_x \\ T_y \end{pmatrix} = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix} \begin{pmatrix} S_x \\ S_y \end{pmatrix}, \] \[ \vec{T} = R\vec{S}, \]

где је R = ρ(O, θ). То су исте форме трансформације координата као и претходне.

9.6. Ротације 3-дим правоуглог Декартовог система координата Oxyz равнина Oxy, Oyz, Ozx око z, x, y оса редом за угао θz, θx и θy, имају матрице:

\[ R_z = \begin{pmatrix} \cos\theta_z & -\sin\theta_z & 0 \\ \sin\theta_z & \cos\theta_z & 0 \\ 0 & 0 & 0 \end{pmatrix}, \quad R_x = \begin{pmatrix} 0 & 0 & 0 \\ 0 & \cos\theta_x & -\sin\theta_x \\ 0 & \ \sin\theta_x & \cos\theta_x \end{pmatrix}, \quad R_y = \begin{pmatrix} \cos\theta_y & 0 & -\sin\theta_y \\ 0 & 0 & 0 \\ \sin\theta_y & 0 & \cos\theta_y \end{pmatrix}. \]

Вектор положаја \( \vec{r} = (x, y, z)^{\perp} \) тако постаје \( \vec{r}' = R\vec{r} \), где је R ∈ {Rz, Rx, Ry}, или је композиција ових ротација.