Previous

Новембар 2023 (English ≽)

Next



Amount

Питање: Шта је то „количина могућности“?

Аmount

Одговор: Тело може имати разне мере себе истог: дужину, брзину, тежину, запремину, ..., а егзактно дефинисану сваку од њих. Тако је и са „бројањем опција“.

Пет новчића на столу може бити различито постављано са писмом или не горе, на 25 = 32, или може бити, 35 = 243, начина различите куповне вредности, од чега је пет информација, 32 је број комбинација, са посебно три новчане вредности. Таква је је и дефиниција информације бинарним тражењем.

Низом од k = 1, 2, 3, ... бинарних цифара, 0 или 1, могуће је писати N = 2k различитих бројева, док је информација једнаковероватних свих оваквих k-торки логаритам њиховог броја log2N = k, где база логаритма одређује јединицу мере. Уопште, по Хартлију (1928. г.), информација N = 1, 2, 3, ... једнако могућих шанси је log N.

Вебер (Weber, 1834) је нашао математичку формулацију да приближно, у извесним ограничењима, диференцијални праг дражи ΔW је константан разломак интензитета W дражи

\[ \frac{\Delta W}{W} = \text{const}. \]

Односно да би количина енергије ΔW која мора бити додата да произведе опажај промене требала бити пропорционална енергији W већ датој. Тај би диференцијални праг за тежину 50 грама износио рецимо један грам, односно треба тежина од бар 51 грам да се осети разлика у тежини. Ако је тежина 100 грама, рецимо песка у руци, диференцијални праг износи 2 грама, тј. два пута већој тежини одговара два пута већа неосетљивост на разлике.

Сабирајући по овом Веберовом закону, за укупни велики број промена n које једно чуло може опазити, налазимо

\[ \frac{\Delta W_1}{W_1} + \frac{\Delta W_2}{W_2} + ... + \frac{\Delta W_n}{W_n} = n\cdot(\text{const}.) \]

где је W1 апсолутни (најнижи) праг за дато чуло, а затим W2 = W1 + ΔW1, W3 = W2 + ΔW2, ..., Wn = Wn-1 + ΔWn-1. Изузетно осетљивих чула разлике ΔW су инфинитезималне, а таква је и константа Веберовог закона, али је зато број различитих опажаја (n) веома велики. Тада горњи збир можемо израчунавати и помоћу инфинитезималног рачуна, па добити логаритам количника, Wn/W1, док смисао десне стране остаје непромењен. Тај број је пропорционалан броју опажаја, мери за „количину могућности“ какву би век касније Хартли назвао информацијом

\[ I(W) = C\cdot\log\frac{W}{W_1}. \]

Ту је C нека константа зависна од базе логаритма, од јединице којом се мери информација. Бројем W мери се интензитет надражаја до укупног броја података (информације I) које чуло разликује, од апсолутног прага (W1). Растко Вуковић: Природа података, Нови Глас, Бањалука 1999.

Mean

Питање: Шта је то „Шенонова информација“?

Mean

Одговор: Шенонова (1948) информација је још једна мера „изненађења“ исхода случајних догађаја која представља средњу вредност Хартлијевих (1928). Како имамо разне „средње вредности“ у математици међу којима стоје извесне неједнакости, поред још неких и у статистици, задржаћу се на посебности Шенонове „средине“.

Расподела вероватноћа се заснива на потпуном скупу ωk ∈ Ω независних случајних догађаја. Ово значи да ће се сигурно десити један и само један од њих. Када је њихов скуп дискретан, са n ∈ ℕ чланова, а вероватноћа је k-тог исхода pk ∈ (0, 1), јасно је да је збир свих сигуран догађај:

\[ p_1 + p_2 + ... + p_n = \sum_{k=1}^n p_k = 1. \]

Сваки од догађаја ωk посматрамо као мноштво од mk једнако вероватних (фиктивних) исхода, тако да је pk = 1/mk, само да бисмо могли рачунати на његову Хартлијеву информацију Ik = log mk = -log pk. Унутар сваке од таквих n група, у k-тој, налази се по mk једнако вероватних елемената, па је збир свих m = ∑k mk далеко већи од n. Средња вредност информација тих група, њихово тзв. математичко очекивање, је:

\[ S = - p_1 \log p_1 - ... - p_n \log p_n = -\sum_{k=1}^n p_k \log p_k = -\sum_{k=1}^n p_kI_k. \]

То је дискретна Шенонова информација.

На пример, када је 0 < p < 1 вероватноћа да ће се догађај A десити, онда је q = 1 - p вероватноћа да се неће десити (кажемо десиће се A'). Формула за Шенонову информацију даје

\[ S = -p \log p - q \log q, \]

што би код бацања новчића и догађаја A = „писмо“, са p = 0,5 и бинарни логаритам дало S = 1 bit (binary digit).

Када исхода има непребројиво много и радимо са густинама вероватноће ρ = ρ(ω) > 0, тада за густину и Шенонову информацију важи:

\[ \int_\Omega \rho\ d\omega = 1, \quad S = -\int_\Omega \rho \cdot \log \rho \ d\omega. \]

Иначе ρ⋅log ρ → 0, када ρ → 0, па интервале како појединих густина тако и вероватноћа можемо проширити на затворене интервале [0, 1].

Екстремне вредности Шенонове информација густина су на униформној, експоненцијалној и Гаусовој расподели вероватноћа, зависно од задатих услова, како следи:

  1. На задатом Ω ограниченом интервалу, максималну Шенонову расподелу имаће униформна расподела густина вероватноћа.
  2. Са задатом средњом вредношћу (очекивањем μ), максималну ће Шенонову информацију имати експоненцијална расподела.
  3. У случају задате дисперзије (варијансе σ²) максимална је за Гаусову расподелу.

Последице ових ограничења су разноврсне. Униформна расподела има максималну Шенонову информацију на ограниченим интервалима, па ће начелни минимализам информације спонтано мењати вероватноће у нехомогене. Слободне мреже (равноправних повезница) тежиће групама малобројних чворове са много веза и много њих са мало веза. Зато ће код веома дугих низова могућности, само мали број њих бити релевантан.

На пример, слободно тржиште (повезивања) новца и услуга развија се у малобројне веома богате и многобројне сиромашне. Други пример, наш релативно мали број чула у односу на релативно огромно мноштво свих других стимуланса, релевантан је за опстанак врсте. Опет, матичне (stem) ћелије младог организма, рећи ћемо, развијају се у потребне врсте ћелија током ембрионалног развоја (ембрионалне матичне), као и телу одрасле особе (одрасле матичне).

Експоненцијалну расподелу би имало размножавање бацила (што тврде медицинске енциклопедије), али то неће бити због начела минимализма. Заражени постаће имуни или ће умрети и тренд ширења опадаће, начин је реализације тог начела. Овако или одговарајуће ће процес садашњости успоравати на уштрб све дебљег памћења. Прошлост кочи будућност, јер се тако одржава укупна количина информације, а текуће догађање бива све извесније.

Ове расподеле и њихове Шенонове информације често сам помињао, или тумачио. На пример, како избегавати Гаусову расподелу (Dispersion II) и како је свести на експоненцијалну кинетичке енергије интерпретирајући њену варијаблу брзином (Veracity). Зато овде не детаљишем.

Surprises

Питање: Можете ли ми објаснити тај појам „изненађења“?

Surprises

Одговор: У овом питању акценат треба ставити на радњу, прелазак из стања суперпозиције (опција) у један исход. Када бацимо коцку и падне „писмо“ или „глава“, тај је на чину „бацања“.

Хоћу рећи да обратимо пажњу на поступак преображаја који може реализовати „изненађење“, или на енергију и време потребно да се оно деси. Доследно настојању природе да вероватнији догађаји буду чешће остварени, да то буду мање информативни. Долазимо до тога да „теорија информације“ (развијам је) на аналогној „природној тежњи“ заснива сваку силу и физичка дејства.

Полазећи од принципа најмањег дејства изведиве су и опште једначине гравитације, као уосталом све остале данас из теоријске физике познате трајекторије. Примери су Минимализам Информације, 2.5 Аjнштаjнове опште jедначине и познати Снелов закон о преламању светлости (Speed of light, Snell's law). Многе друге наизглед неповезане појаве заједнички узрок имају у овом принципу, он у штедљивости информације, а обоје у склоности вероватнијим исходима.

Физичка супстанца у сендвичу је ових склоности, тежњи мањем, бар што се тиче информације. Са једне стране је виталност, до које се стиже скупа са вишковима информације система у односу на посебне информације из супстанце од које се такав састоји, а са друге стране су физичким тварима неприметни светови идеја и апстракција. Занимљивост ове конструкције, теорије информације, је могућност описа интелигентних живих бића која могу перципирати делове сваког од та три слоја. Посебност су талог идеја који раздваја жива од неживих бића, или физичка супстанца због каквог се (не)присуства разликују идеје од виталних.

Када су вероватноће дискретне расподеле у опадајућем (нерастућем) низу p1p2p3 ≥ ... ≥ 0, или имамо опадајућу густину вероватноћа ρ(ω), онда су (p < e-1) опадајући и сабирци Шенонове информације:

\[ -\rho(\omega) \cdot \log \rho(\omega) \ge -\rho(\omega + \varepsilon) \cdot \log \rho(\omega + \varepsilon) \]

за свако \( \varepsilon \ge 0 \). То можете доказати, рецимо, помоћу извода функције

\[ f(x) = \frac{\log_bx}{x}, \]

и видети да је \( f'(x) \lt 0 \) за свако \( x \gt e \), те да је функција f(x) опадајућа. Закључак је да мање вероватноће p ∈ (0, 1), иако са већим Хартлијевим информацијама I = -logb p > 0, чине мање додатке, сабирке Шеноновој информацији.

Други начин да видимо исто је на следећој слици. Горњи, плави граф је функције y = -x⋅log2 x, а нижи црвени y = -x⋅log10 x. Обе ординате расту све до исте апсцисе x = e-1 ≈ 0,37 након чега опадају. Апсцисе су сада са вредностима вероватноћа x ∈ [0, 1], а у дугом збиру Шенонове формуле нема их (много) сабирака у којима су оне веће од 0,37.

Shanon

У низу све мањих (апсциса) вероватноћа xk → 0, ординате yk = -xk⋅ log xk убрзано постају све мање и све су мање битне за збир S = ∑k yk који даје средњу вредност информације. Да слично важи и за густине, погледајте на примеру нормалне расподеле. Шеноновој вредности S већи допринос дају исходи веће вероватноће!

Бројне су и разноврсне последице овог става. На пример, веома велика изненађења веома мало учествују у средњој информацији, Шеноновој. Друго, минимализам мења вероватноће расподеле одвајајући од мање групе информација значајних за просек многобројну неинформативну са, парадоксално, мање вероватним исходима.

Слободу разумемо исто као „количину опција“ датог система, начином информације, а посебно као њену средњу вредност. Тада већој слободи мање доприносе велике неизвесности. Испада да регулација повећава слободне изборе, рецимо друштва. Када невероватности игноришемо, избегавамо узалудно трошење наших могућности, (Шенонове, средње) информације.

Disposition

Питање: Јесу ли вероватноће увек у некој тзв. расподели?

Disposition

Одговор: „Расподела“ је највише и најлакше објашњива структура вероватноћа, толико да се стиче нетачан утисак да је и једина.

Када бацамо фер новчић радимо са расподелом два исхода (писмо и глава) једнаких вероватноћа, то су p = q = 0,5. Када бацамо коцку, расподела има шест могућности, страна коцке и обично означених бројевима 1, 2, ..., 6. У фер коцке све су вероватноће исте p = 1/6.

Шенонове информације, средње неизвесности бацања фер новчића па коцке изражене логаритмима базе b = 2 (у bit-има) износе:

\[ S(\text{coin}) = -\frac12 \log_2 \frac12 - \frac12 \log_2 \frac12 = \frac12 \log_2 2 + \frac12 \log_2 2 = \log_2 2 = 1, \] \[ S(\text{dice}) = -\frac16 \log_2 \frac16 - ... - \frac16 \log_2 \frac16 = 6\cdot \frac16 \log_2 6 = \log_2 6 \approx 2,58. \]

Два ипо пута је коцка неизвеснија од новчића, по Шенону. Уопште, ако нека расподела има n ∈ ℕ једнако вероватних исхода, а логаритми су са базом b = n, онда је њена Шенонова информација S(n) = logn n = 1. Али, исти је однос резултата у било којој од база (b) логаритма, јер је:

\[ \log_2 6 : \log_2 2 = \frac{\log_b 6}{\log_b 2} : \frac{\log_b 2}{\log_b 2} = \frac{\log_b 6}{\log_b 2} : 1 = \log_b 6 : \log_b 2, \]

те је и у свим мерним јединицама информације исти однос. Нефер игре, исхода различитих вероватноћа, даваће мање (Шенонове) информације од ових.

Наиме, када знамо да ће се нешто десити, па се то и деси, мања је вест. Али, из претходног видимо да, сменом x = 1/p, за вероватноћу p < 1/e, Шенонов сабирак постаје мањи када је вероватноћа (p) мања. Овакво смањивање вероватноће репа вртоглаво смањује Шенонов сабирак, за разлику од доприноса на средњем делу. Тако интуитивно разумемо да напуштање униформне расподеле смањује Шенонову информацију, а строжији доказ је у прилогу Екстреми.

Расподелу чини таква група могућности да се (увек) дешава само једна од њих. Кажемо да је та група, или скуп (Ω) комплетна те да поседује речену зависност, једнозначност исхода. Појављују се свуда око нас, у извлачењу куглице из лото бубња, или чекању да ли ће престати киша наредних час времена и слично. Оне теку и паралелно једна са другом, преклапајћи се.

Рецимо да имамо n = 1, 2, 3, ... расподела вероватноћа Ω1, Ω2, ..., Ωn сваку са неком Шеноновом информацијом, редом S1, S2, ..., Sn, таквих да током неког времена можемо (статистички) установити да ће се k-та расподела огласити Nk пута. Нека је збир свих ових изјашњавања

N1 + N2 + ... + Nn = N.

Тада ће разломци, бројеви Pk = Nk/N изражавати „фреквенције“, односно „статистичке вероватноће“ исхода појединих расподела. Даље их можемо употребити као вероватноће расподеле средњих информација. Налазимо опет средњу информацију датих Шенонових информација

L = P1S1 + P2S2 + ... + PnSn.

Она се понаша слично Шеноновој, тада средњих вредности информација Хартлија (Ik), а сада средњих вредности тих средњих вредности (Sk). Због ове лакоће прављења расподела вероватноћа чак и тамо где их очигледно нема, оне су постале веома интересантне математици и важне у примени. Последице су им углавном сличне, што можети сами истражити.

Међутим, истиче се једна од разлика између средњих вредности S и L. Из веће вероватноће p добија се мањи логаритам вероватноће „-log p“, а исто и обрнуто, (минус) логаритам мање вероватноће је већи број, па у првом случају (S) имамо ситуацију принципа најмањег дејства, док у другом (L) то не мора бити. Информативнија расподела може се чешће јављати, или мање информативна ређе.

Ово запажање додатно објашњава синергију и емергенцију, појаву већих слобода датог система од неживих твари, а са њима и најаву виталности. Видимо да се те могу осликати у сложеним системима са истовременим, паралелним појавама расподела вероватноћа, за разлику од линеарног, једнодимензионалног. Како би ишла ова прича даље видећемо касније, јер она има много наставака.

Tendency

Питање: Ако је еквивалент дејству, ствара ли неизвесност силу?

Tendency

Одговор: Питање је реторичко? Због начелног минимализма, не дешава се исход неизвесности у информацију, осим најчешће, са мањком опција који би покренуо такву активност.

Подразумевамо да су најчешћи исходи они највероватнији, али управо то можемо разумети као да је деловање неке апстрактне силе вероватноће. Иста, која би стања вукла ка вероватнијим, је наличје силе неизвесности, која стања гура од себе. Трећи начин је посматрати тежње мањој информацији. Дакле, имамо три приступа. У наставку погледајмо још један.

Замислимо жицу која титра разапету између две фиксне тачке, заменску за кретање честице-таласа по апсциси под утицаjем потенциjала V(x) = 0 за x ∈ [0, a], и V(x) = ∞ за x ∉ [0, a], као у књизи Квантна Механика, 1.3.8 Таласи материjе, Пример 1.3.74 (Честица у кутиjи). Она формира стојећи талас тако да се цела извија горе-доле док крајеви мирују (n = 1), или се два њена дела извијају (n = 2) са још једном непокретном тачком између крајњих, или се три њена дела извијају (n = 3) са две непокретне тачке између крајева, и тако даље. То су стојећи таласи.

Шредингерова jедначина зa x ∈ [0, a]

\[ -\frac{\hbar}{2m}\frac{d^2\psi(x)}{dx^2} = E\psi(x), \]

даје својствене вредности (eigenvalues) и припадне својствене векторе (eigenvectors):

\[ E_n = \frac{\hbar^2n^2}{8ma^2}, \quad \psi_n(x) = \sqrt{\frac{2}{a}}\sin\left(\frac{n\pi x}{a}\right), \]

за n = 1, 2, 3, ..., а изван тог интервала за x ∉ [0, a] ове вредности су нуле. Ту је ℏ редукована Планкова константа, m је маса и x је положај честице-таласа. Функција ψn даје амплитуде припадне енергије En. Приметимо да енергија расте са квадратом броја „трбуха синусоиде“ (n) и да такав може повезати са „густином неизвесности“.

У књизи даље следе решавања Шредингерове једначине, на пример, за просте честице-таласе, продирања кроз препреке, атом водоника. Веома тачно се ти резултати слажу са експерименталним налазима. Штавише, то су најтачнија слагања теорије и мерења уопште у физици и наукама, што оправдава Де Бројеву хипотезу (1924) о таласима материје.

Ово нам даје за право да таласе узимамо за дубљу основу материје, потом енергију и масу из њих изведеним. Мерење дефинише претходну путању честице-таласа (Хајзенберг, 1927), па извијања која дају горње синусоиде тек назначавају густине вероватноћа евентуалног налажења путање. Тада промене ових „синусоида“ представљају промене вероватноћа и промена ових постаје енергија потребна промени кретања честица-таласа. Другим речима, ускладили смо се са уводним делом овог текста (одговора).

Таласи вероватноће елементарних честица у сложенијим структурама све су одређенији, сходно законима великих бројева теорије вероватноће. Ти имају и све већу енергију коју, почев од титрања молекула па до звучних и таласа на површини воде, можемо установити једноставним апаратима па чак и чулима непосредно. Решења таквих диференцијалних једначина задовољавају аксиоме векторских простора, стога су ови таласи вектори. Уопште, вектори су стања, али су то и процеси. Они који интерпретирају линеарне операције над векторима.

У књизи Простор-Време (1.1.5 Васиона и хаос, стр. 22), навео сам пример градића од око 10 хиљада становника са периодичним успоном и падом трговине. Постоје и примери успона, сазревања и проподања виталности цивилизација иза којих се дижу нове, или еволуције живота кроз сличне процесе јединки, које такође имају елементе таласа материје, мешавине синусоида и неизвесности. Све оне преносе неку енергију, поседују своју тромост, инерцију и силу деловања, иако тога не морамо бити свесни.

Summary

Питање: Информација је само број?

Summary

Одговор: Класично она јесте пуки „број опција“, каже се који треба разликовати од садржаја, података. Чак и тада спретније рачунџије виде даље од бројева, слутећи шта они премошћавају.

Изразит је пример Ајнштајновог (1935) наслућивања тада спорне „квантне спрегнутости“ угледане из самих бројева, толико јасне и уједно страшно необичне, да јој се није могло веровати.

Знамо како се ротацијом Декартовог правоуглог система добијају његове разне позиције и при томе мењају вредности тачака, док координатне осе стално остају окомите (ортогоналне). Тако се скаларни производ Ψ може на различите начине развијати у низ ортогоналних функција:

\[ \Psi(x_1, x_2) = \sum_{n=1}^\infty \psi_n(x_2) u_n(x_1) = \sum_{s=1}^n \varphi_s(x_2) v_s(x_1), \]

где су први фактори сабирака коефицијенти развоја збирне функције Ψ у низ ортогоналних функција представљених другим факторима. При томе су x1 и x2 варијабле првог и другог система. Слобода у избору координата, I и II система, чини ову једнакост парадоксалном.

Наиме, својствене вредности an и bs којима припадају редом својствене функције un и vs интерпретирамо, прве обзерваблама а друге квантним стањима, тачније вероватноћама појаве тих и исказане ситуације. Опис, квантни систем, редефинишу ови збирови а дајући му смисао окружења при мерењу. У два различита окружења, веома удаљена, мерење једног тренутно ће се одразити на мерење другог и, приметио је Ајнштајн, било би то „фантомско деловање на даљину“ које би нарушавало ограничење преноса информације брзином светлости.

Резимие тог „безазленог“ рачуна скаларног производа линеарне алгебре је у његовој позадини уочавање истовремености различитих стања, а која обзиром да радимо са преношењем просторно-временских координата у физику, значи да постоје различите истовремености које други учесници временског тока не примећују као такве. Такође, разликују се просторне удаљености истог код релативних посматрача, а што је у време открића поменутог АПР-парадокса било познато и није помогло разумевању.

Егзистенцију идеја различитих од бројева доказују музичари, сликари, па и геометри топологије (облицима без дефинисања дужине), графова или разни други у математици којима метрика није тема. Већ и саме те функције збира производа, било горњег израза Ψ, или простије врсте „информације перцепције“, казују пуно више од резултата конкретних израчунавања. Оне нам заправо говоре више опште, него израчунате.

Када расправљамо о информацији перцепције, приметићете, тумачимо неизрачунате величине, јер нам такве бивају корисније као „замагљене“ целине, него много „јасни“ парчићи. Немогуће је или скоро бескорисно дефинисати све детаље иначе веома дугог низа перцепција неког макро-објекта, као што је јалово набрајање свих до једног молекула предмета којима бисмо махали руком. Из посматрања суперпозиције (расподеле вероватноћа) зна неко извући више података, такође, него из појединих њених колабирања (исхода).

Ово је тема на коју се често враћамо (Farming, П: Знање је информација опскрбљена значењем?). Суштина природе је у таквој слојевитости да јој можете облачити разне кошуље које су јој по једнако тачној мери (почев од геометрије облика преко једначина, анализе „чистим“ бројевима, или „небулозама“ вероватноћа, скупова, до разних већ, недавно, откривених апстракција), па онда и нема „најбоље“.

Наиме, поред Геделове прве теореме непотпуности (све конзистентне аксиоматске форме садрже неодлучиве ставове) стоји и друга теорема непотпуности (да ниједан конзистентан аксиоматски систем не може доказати сопствену доследност). Другим речима, нема таквог „смисла“ који би био самодовољан. Са друге стране, нема таквог „бесмисла“ које нећемо љуштити попут луковице, користећи и бројеве као алатке.

Creativity II

Питање: Шта је то креативност?

Creativity II

Одговор: Прво од питања је било како правити креативност, друго је шта би она могла бити. Смисао овог другог је велика тема овакве теорије информације.

Претпоставка креативности била би виталност, а онда и искорак у неизвесност. Напуштање удобног мишљења већине, међутим, није пријато. Бекство од слободе, кода у начелном минимализму, постаје нам снажно привлачно када смо очи у очи са крупнијим правим новинама. Спуштања у ниже „захвате опција“ од нормалног или сопственог такође нам је одбојно, због попуњености и закона одржања. У нижим, слабијим виталностима рутине су гушће и креативност остаје ређа (у живом свету уопште).

Из даљине наука изгледа креативно. Лаику је тај магацин рутина и даље свеж, иновативан, зато тежак или одбојан, али многим је практикантима наука фабричка трака. Она је утолико празнија колико је боље утврђена, а парадоксално и тежа за озбиљне иновације. У многим областима лакша је креативност него у егзактном, посебно од апстрактнијег и тачнијег.

„Сви креативни људи желе урадити нешто неочекивано“ — Ламар (Hedy Lamarr, 1914 – 2000, аустријско-америчка глумица и проналазач), али и онај ко бар једном окуси креативност пожелеће је још једном, додао бих. Таква зависност као лакших наркомана збуњујућа је одлика креативаца. Она је можда део сексуалног нагона (Origin), или је тескоба стиснутог на њему погрешном месту. Свеједно, неприпадање је највећи дар који нас тада побуди.

Према објашњењу квантне спрегнутости (Summary), посебно дела (мог, информатичког) да се ту ради о истовремености коју други посматрачи не виде таквом, постоји могућност велике концентрације такве квантно спрегнуте супстанце и, даље хипотетишем, која би могла манипулисати дејствима „испод радара“. Теза је да би овако необичне супстанце могао имати мозак и да је он зато посебан, издвојен из претежно живог ткива.

Природа не воли једнакост и испада да је централизована хијерархија лошија од расуте попут чворова слободних мрежа. Зато, ма како моћан мозак имали, он не би добро сам управљао телесним функцијама иоле сложенијег живог организма (стварањем еритроцита, процесима јетре, метаболизмом, у нашем телу). Отуда специјална могућност мозга која даје свест, интелигенцију и креативност.

Dual Likely

Питање: Да ли је „информација перцепције“ више информација него вероватноћа?

Dual Likely

Одговор: Постоји дуализам међу информацијом и вероватноћом, па за одговоре на оваква питања није довољно пронаћи само неки „проценат мешавине“. Иначе, то би се могло поставити једнако и Хартлијевој информацији (-log p) као и Шеноновој (производима Хартлијевих и вероватноћа).

На слици је Венов дијаграм уније скупова (AB) разложен на три дисјунктна скупа, без заједничких елемената (A\B, AB и B\A). Из тога се лако налазе једнакости за број елемената ових скупова, вероватноће када скупове видимо као случајне догађаје и интерференције, у једначинама:

n(AB) = n(A) + n(B) - n(AB),
P(A + B) = P(A) + P(B) - P(AB),
|A + B|² = |A|² + |B|² + 2ℛℯ(A*B).

Исте су ознаке за слова A и B, али доследно значењу операција, у првој једнакости то су скупови, у другој су догађаји, а у трећој суперпозиције честица-таласа (тачно је рећи и таласа вероватноће).

У трећој, реални двоструки део производа коњугованог A са B, расте за интерференције истог смера (конструктивне), а опада супротног смера (деструктивног). Ово се види из ℛℯ(A*B) = axbx + ayby = ab које лакше препознајемо као скаларни производ вектора a = (ax, ay) и b = (bx, by), где су комплексни бројеви A = ax + iay и B = bx + iby, а i² = -1.

Та универзалност примене (скуп, догађај, талас) типично математичка, заправо настаје где год би са појмовима радили довољно прецизно или огољено, апстрактно. Информације су нама дискретне појаве (Packages) које физички изоловане нису лажне, оне су саме по себи „алгебарски тачне“. Да их можемо такве перципирати утврђује и Борељ-Кантелијева лема теорије вероватноће, поред других налаза теорије информације (у великом скупу јасно дефинисаних само мали број је релавантних).

Када су вероватноће дискретне расподеле у опадајућем (нерастућем) низу p1p2p3 ≥ ... ≥ 0, или имамо опадајућу густину вероватноћа ρ(ω), онда су (p < b-1) опадајући и сабирци Шенонове информације (Surprises). Тада и -p log p → 0, када p → 0. Другим речима, у мноштву сабирака просечне, тачније Шенонове информације, релевантни остају само они сабирци са највећим вероватноћама. Парадоксално је али, у мноштву, већи укупни збир информацији дају веће вероватноће.

На вишем, сложенијем нивоу, где наступа законитост великих бројева, неизвесност полако прераста у извесност, а вероватноће квалитативно прелазе у квантитативне „информације перцепције“. Тако (Disposition) колабирање суперпозиције у једну и само једну од могућности постаје сложено, више димензионално, или кажемо паралелно догађање пуно исхода одједном. Макро свет око нас не одвија се попут шаховске игре, потез ја па потез ти, или интеракција елементарних честица.

Зато се горње форме броја елемената скупа, или вероватноћа, односно интерференције, преносе на саме макро информације. Можемо рећи на масу, енергију, или неке друге физичке величине нашег реда. Као што физичке моћи тела долазе од у њему садржаних молекула, а овима од њихових вибрација и још нижих делова, тако и макро информација у себи садржи латентну „снагу“ коју испољава синергија и емергенција.

Computable

Питање: Да ли је васиона израчунљива?

Computable

Одговор: Не. Претпоставка о објективности неизвесности еквивалентна је тој и толикој непредвидљивости да васиону није могуће комплетирати и симулирати у потпуности.

Детерминистичке појаве биле би такве које имају увек највише по један исход својих стања. Али ми радимо са теоријом која ставља информацију у срж свега, а њену бит видимо као неизвесност. Израчунљивост, ни предвидљивост исхода, попут бацања новчића, није могућа.

Због закона одржања, бесконачна дељивост информације није могућа и она се емитује у пакетима. Зато су дискретни кораци параграфа, ставки и доказа. Такви су и квантни физичког дејства (производ промене енергије и протеклог времена), а отуда и еквиваленција физичке информације и дејства. Са друге стране, свака структура таквих, па и „сав“ универзум, у стању су неке неизвесности било унутрашње или вањске. У том смислу васиона нити просторно, ни временски, или материјално не може бити ограничена.

Ово је у складу са елаборацијама Раселовог парадокса (Sufficiency). Нема скупа свих скупова, па нема таквог универзума, нити мултиверзума, који би требао обухватати све опције. Претпоставка да постоји такав обухват контрадикторна је. Овде говоримо о информацијама, не само физичким, која је онда у складу и са Геделовом ( Kurt Gödel, 1931) теоремом да нема нити теорије свих теорија. Доследно, та идеја да бисмо (нешто свемогуће, некада) могли имати такав „суперкомпјутер“, ум, или ма какав пројектор који би могао тачно копирати, симулирати „сву“ васиону противречна је.

Питање: Можете ли ми појаснити ту Геделову теорему?

Одговор: Ок. Геделов доказ његове теореме заснива се на самопозивању: у математичкој форми, изјава „Ова реченица је недоказива“ је и тачна и формално недоказива. Детаљи доказа су тешки, али је амерички логичар Смулиан (Raymond Smullyan, 1919-2017) ипак пронашао сјајан начин да пренесе суштину Геделове теореме непотпуности користећи једноставне логичке загонетке о казивачима истине и лажовима. Ево његове једне.

У Океану дедукције лежи логично острво Ако. Људи ту рођени припадају једном од два племена: Алетијанцима и Псеуђанима. Једини начин да би разликовали Алетијанца од Псеудијанца је да разговарате са њима. Први увек говоре истину, други ће увек изговарати неистине, шта год било.

У центру острва, Господар Алетијанаца држи Књигу идентитета, књигу у којој су наведена имена свих рођених острвљана укључујући са њиховим племеном. Информације у Књизи идентитета су тачне и слободне свима који питају. И, једног ће дана неустрашива истраживачица стићи на Ако. Она среће разне становнике и идентификује их као Алетијце и Псеуђане постављајући мудра питања.

После неколико успешних таквих сусрета, она упознаје човека по имену Курт. Истраживачица не зна његову племенску припадност, али пре што стигне да му постави питање, он каже: „Никада нећете имати конкретне доказе који потврђују да сам Алетијанац“. Такав Курт нити је Алетијанац ни Псеуђанин!

Ево како. Ако би био Псеудијанац, онда би била у реду изјава да „Никада нећете имати доказе који потврђују да сам Алетијанац“. Али Псеуђанин никада не говори истину, па Курт не може бити Псеудијанац. Ако би био Алетијанац, онда је тачно све што каже, па самим тим и изјава „Никада нећете имати конкретне доказе који потврђују да сам Алетијанац“. Али знамо да је изјава лажна, јер Књига садржи његово име и проверу да ли је Алетијанац. Дакле, Курт није Алетијан. Закључак је да Курт не може бити рођен на острву Ако.

Геделова теорема о непотпуности каже да постоје математички искази који су тачни, али нису формално доказиви. Верзија ове слагалице нас води до нечег сличног, до изјаве која је истинита, али нема конкретних доказа њене истинитости.

Distances

Питање: Зашто је свемир раван?

Distances

Одговор: Да ли је свемир раван, дискутабилно је питање. Наиме, одговарајуће растојање које би могли мерити од Земље до краја видљивог универзума је око 46 милијарди светлосних година, а једна светлосна година је дужина коју светлост пређе брзином од око c = 300 000 km/s за годину дана. Са друге стране, свемир је настао Великим праском пре 13,8 милијарди година.

Та два броја рећи ће нам да се свемир ширио брзинама већим од светлости, односно да видимо даље него што би требало, ако је брзина светлости увек била иста.

Друго, знамо да је просечна удаљеност Земље од Сунца око 150 милиона километара. Светлост пређе ту дужину за око 500 секунди, или 8 минута. Растојање од 8 минута наспрам 46 милијарди година, пређено брзином c, много је мање чак и од најбоље видљиве удаљености на земљи упоређено са величином наше планете, а знамо колико би било тешко убедити неке од нас, посматраче голим оком, да Земља није равна плоча. Перцепцијом мрава, детаљ кружнице километарских пречника права је линија.

За разлику од простијег мерења удаљености од нас до далеких галаксија, помоћу флуктуација површинске светлости и боје галаксије, за тражење кривине простора, пре или касније, користимо триангулације. Потребне су нам што удаљеније тачке из којих посматрамо свемир, да би мерења била што тачнија. А она су у овоме односу, нешто мало минута наспрам десетина милијарди година, да видимо свемир равним, чак и ако он није такав. Тачке са којих посматрамо васиону још увек су само оне са Земље на њеној орбити око Сунца.

Иначе, разматрао сам тензорски модел ротирајућег универзума (2014), или метрику торуса као модел универзума (2016), да поменем само неке егзотичне поред познатијих, ради поређења са евентуалним мерењима не само кривине простор-времена универзума. Шта рећи осим да онако како данас меримо свемир, до даљњег, он остаје раван.

Liberty

Питање: Какво би било то ново информатичко значење „слободе“?

Liberty

Одговор: Приче о Информацији популарно говоре о слободама, а нарочито прва од њих. Међутим, на овако директно питање треба одговарати помоћу Информације Перцецпције, полазећи од њене формуле збира производа

Q = a1b1 + a2b2 + ... + anbn.

Први фактори чине низ, вектор \( \vec{a} = (a_1, a_2, ..., a_n) \), други чине вектор \( \vec{b} = (b_1, b_2, ..., b_n) \). То су рецимо компоненте одговарајућих перцепција субјекта и објекта, а тада је њихов иначе природни број n ∈ ℕ толико велики да је информацију перцепције корисније истраживати теоријски него конкретно.

На вишем, сложенијем нивоу, где наступа законитост великих бројева, неизвесност полако прераста у извесност, а вероватноће квалитативно прелазе у квантитативне „информације перцепције“ (реченица из Dual Likely). Отуда су овакви коефицијенти на макро-нивоу реални бројеви, ak, bk ∈ ℝ. Виталност те спреге значи веће могућности кретања од пуких физичких, од решења Ојлер-Лагранжових једначина из којих је могуће извести све до данас познате трајекторије теоријске физике (Lagrangian). Оне су израз принципа најмањег дејства.

Не комуницира све са свачим тако да поједине компоненте, чланове ових низова, заиста можемо представљати компонентама вектора, па проблем третирати помоћу векторских простора линеарне алгебре. Тиме знамо да мањи угао φ између два вектора \( \vec{a} \) и \( \vec{b} \) значи већу сличност одговарајућих њихових коефицијента и већи скаларни производ \( Q = \vec{a}\cdot\vec{b} = ab\cos\varphi \), са ознаком ab производа интензитета ових вектора. То је зато што косинус φ расте уколико угао распона вектора пада ка нули.

Покушајте величину Q разумети као резултат спреге себе и околине. Што је тај збир већи, већи је ниво ваше комуникације, већа је ваша виталност, способност да не делујете као мртва супстанца од које се састојите, дакле, располажете са већим слободама. При томе, одговарајући коефицијенти ak и bk, редом за k = 1, 2, ..., n, представљају информације које би субјекат размењивао са околином.

1. Када на јаче акције околине (опонента) узвраћамо јачим реакцијама, позитивним на позитивне и негативним на негативне, збир Q је већи, већа је виталност спреге, односно већи је ниво надметања. На пример:

-5 = 3⋅(-2) + 2⋅3 + (-1)⋅5 < (-1)⋅(-2) + 2⋅3 + 3⋅ 5 = 23.

Најмањи отпор пружаће слабији одговор јачем и јачи слабијем, за исте коефицијенте (непромењен интентзитет) другачије пермутоване. Опција која дословно увек попушта, која се држи леве стране ове неједнакости, је мртва природа, а стратегија I лиге се држи десне.

За разлику од „најмањег дејства“, главне одреднице физике, већи збир производа Q указује на додатне изборе субјекта у спрези. Тај вишак, или виталност, увећање је слобода субјекта наспрам мртве физичке супстанце од које се састоји. Већи збир значи већу способност надигравања простих природних токова, снажније пркошење спонтаности, или назовимо исту моћима реципрочног узвраћања субјекта на изазове околине. При томе се и сама околина „адаптира на силеџију“; физичка природа „попушта“.

2. Када тако разумемо „слободу“, она нам је предмет изучавања формуле „збира производа“. Прво што тада видимо је да више сабирака n значи више чула и перцепција, а онда и већу виталност. Субјекат, рецимо неки комуникациони центар, са више прикључака n је информативнији. При томе, већи интензитет компоненти код размењених порука доприносиће већем збиру када је производ у сабирку позитиван (akbk > 0), а мањем збиру када је такав производ негативан (akbk < 0). Прво ће бити када су фактори истог предзнака (оба позитивна или оба негативна), а друго је са тим множитељима ak и bk реалним бројевима различитог предзнака.

На најнижем нивоу, у микро-свету, где се ови забирци своде на множења комплексних бројева, A = ax + iay и B = bx + iby, видели смо (Dual Likely) да се они могу интрерпретирати и као интерференције, свака са додатком 2ℛℯ(A*B) ≷ 0, који може појачавати или слабити амплитуде збира таласа зависно од њихових фаза. Виши нивои такође разликују конструктивне и деструктивне утицаје на свој начин, због којих постоје и позитивни или негативни ови реални бројеви — ако их субјекат успева разликовати.

3. Међу таквим разликама је тактика „завади па владај“. Наиме, субјекат који има довољно суптилности у игри надметања против опонента и успе k-ти сабирак негативних множитеља расчланити на одговарајуће парове, akbk = (ak' + ak'')(bk' + bk'') → ak'bk' + ak''bk'', смањиваће се укупни збир за мешани производ ових и спустити иницијатива опонента (објекта):

15 = (-3)⋅(-5) = (-2 - 1)⋅(-3 - 2) > (-2)⋅3 + (-1)⋅(-2) = 8.

Приметите да одговоре раздвајам одмерено, да збир максимализујем, па мањи напад на мању од два дела почетне иницијативе изгледа као већа подршка (мања штета) слабијој страни, по чему назив тактике.

4. Демонстрирано цепање негативних утицаја пожељно је субјекту, јер му значи њихово укупно смањивање. Напротив, исто цепање неког сабирка са позитивним утицајем на два позитивна значи субјекту мање „доброг“, па му је непожељно:

15 = 3⋅5 = (2 + 1)⋅(3 + 2) > 2⋅3 + 1⋅2 = 8.

Оно тада одговара тактикама „груписања и организовања“, код војних и сличних сукоба, или просто изражава синергију, односно емергенцију.

Приметимо да груписањем и бољим организовањем градова постижемо већу моћ апсорпције становника, већи распон њихових делатности а то значи и већу њихову виталсност, односно слободу. Разликујмо слободу групе од (просека) слобода њених чланова.

5. Коначно, при цепању позитивног сабирка akbk на два ak'bk' + ak''bk'', опет позитивна сабирка, али фактора различитих предзнака, увећава се збир. То демонстрира пример:

15 = 3⋅5 = (4 - 1)⋅(7 - 2) < 4⋅7 + (-1)⋅(-2) = 30.

Наравоученије је да ћемо у борби за већу добит, виталност, или победу у надметању, настојати бити суптилни. Ма како нам неки део опонента био позитиван, ако има негативности њих треба сразмерно спречавати, као што је добро оне преостале позитивне прихватати.

6. Обрнуто, при цепању негативног утицаја, тада негативног множитеља (bk < 0) којем је супротстављен негативан (ak < 0), да би њихов производ остао позитиван (akbk > 0), игра постаје напорна и добро је избегавати је. Другим речима, код претежно негативних утицаја, напорније је одвајање „жита од кукоља“ толико да се понекад не исплати:

15 = (-3)⋅(-5) = (-4 + 1)⋅(-7 + 2) < (-4)⋅(-7) + 1⋅2 = 30.

Трошак расте и интервенција се може показати штетна, да оваква подела не вреди труда. Међутим, када је присутна, показатељ је веће виталности, односно слободе субјекта.

Укратко, то би било ново информатичко значење „слободе“. Прилично је алгебарско и замршено за објашњење у пар реченица, али заправо много је прецизније од досадашњег интуитивног.

Channeling

Питање: Које су границе преноса информација, посебно Марковљевим ланцима?

Channeling

Одговор: Теорија информације са којом радим сматраће до даљњег све истине (псеудо) реалним. Она тиме обухвата како физичке тако и математичке појаве, заједно са њеним бесконачностима.

1. Зато одједном постаје важнија Борељ-Кантелијева лема, да се, у конвергентном реду вероватноћа расподеле, може вероватноћом 1 реализовати само коначно много догађаја које оне представљају. Тако се, од скоро безбројних гласовних могућности као рођена деца, развијамо у људе који користе само двоцифрен број слова у дневном споразумевању.

2. Штавише, фреквенција појаве слова текста зависи од језика, односно азбуке, или од теме, од стила писца. Ово можете проверавати програмом „rates“, где сам као пример наводио одломак из Андрићевог романа „На Дрини ћуприја“, са нађеним словима:

а     е     о     и     н     у     ...

фреквенција у опадајућем редоследу:

\[ \frac{579}{5284} \ \frac{564}{5284}, \ \frac{526}{5284}, \ \frac{459}{5284}, \ \frac{288}{5284}, \ \frac{274}{5284}, \ ... \]

То је низ статистичких вероватноћа наведених слова, приближно:

0,110     0,107     0,100     0,089     0,055     0,052     ...

укупног збира 1. Приметимо да има и неколико слова српске азбуке која се у том Андрићевом одломку уопште не појављују.

3. Различите фреквенције слова долазе из информативности датог текста (Letter Frequency) и врста су „отиска прста“ језика, теме, или писца. Што је текст садржајнији, у смислу да је јаснији, одређенији, мање је расута и „шупља прича“, он је мање информативан! То може изгледати апсурдно колико и логично, па сам зато ту тезу проверавао (у поменутом прилогу) на различитим текстовима.

Међутим, расподеле једнаких вероватноћа највећих су информација, па их зато природа „не воли“. Она ће спонтано тежити различитости. Тако насумичан, једноличан текст такође постаје мање информативан, слова различитих фреквенција и на свој начин карактеристичан.

4. Пресликавање идеја у причу и текст врсте су преноса информација. На претходној слици линк води до тумачења вишеканалног (multichannel) и свеканалног (omnichannel). Први израз се односи на кориштење више од једног канала за извођење маркетиншких кампања, а други их орјентише на купца. То су такође начини преноса порука. Специфичне преносе чине и усмена предања кроз векове, уобличена и сачувана римом и ритмом, у српским народним песмама (в. доле 7.).

Када дословно преписујемо текст, слово по слово, реч по реч, избегавамо креативности као у пресликавању идеја у причу, али ма како се трудили јављаће се грешке преноса. Рецимо нека су вероватноће горе поменутих слова (Андрићевог одломка) у истом опадајућем редоследу p1, p2, ..., pn, где је n укупни број слова (великих, малих, размака, интерпукције). Ако је mij вероватноћа преписа i-тог слова у j-то, онда имамо матрицу канала преноса M = (mij), где \( \vec{q} = M\vec{p} \), односно

\[ \begin{pmatrix} q_1 \\ q_2 \\ ... \\ q_n \end{pmatrix} = \begin{pmatrix} m_{11} & m_{12} & ... & m_{1n} \\ m_{21} & m_{22} & ... & m_{2n} \\ ... & ... & ... & ... \\ m_{n1} & m_{n2} & ... & m_{nn} \end{pmatrix} \begin{pmatrix} p_1 \\ p_2 \\ ... \\ p_n \end{pmatrix}, \]

где су mii вероватноће тачног преноса i-тог слова (i = 1, 2, ..., n), а mij је вероватноћа грешке, да се i-то слово препише као j-то (ji). Када су те условне вероватноће матрице константне, онда је матрица M једна од карика Марковљевог ланца, тзв. генератор ланца.

Channeling c

Последња слика била је пример писања (на енглеском) са много грешака, али са још увек препознатљивим садржајем. Таква нам говори да из низа слова опадајућих фреквенција, попут горе наведеног Андрићевог, може бити избачено неколико последњих, или ређих слова, а да садржај текста остане читљив.

5. Када се из текста избаце најмање вероватна слова, средња (Шенонова) информација текста најмање се мења. Уопште, када је низ вероватноћа дискретне расподеле опадајући p1p2p3 ≥ ... ≥ 0, онда је опадајући и низ сабирака -p1⋅logb p1 ≥ -p2⋅logb 2 ≥ -p3⋅logb 3 ≥ ... ≥ 0, pа такви чланови Шенонове информације постају утолико мање битни у збиру (Surprises), за вероватноће мање од e-1. На пример:

-2-2⋅log2 2-2 = 1 > 2-2 = -2-4⋅log2 2-4

То сам помињао као разлог да у макро-свету (Хартлијеве) информације можемо (приближно) сматрати сразмерним вероватноћама, што постаје значајно у изразу информације перцепције. Погледајте и 5. пример.

6. Копирањем, па узастопним копирањем последњих у даље нове копије, оригинална порука све више се деформише, губи. У другом кораку је:

\[ \vec{q} = M\vec{q} = M(M\vec{p}) = M^2\vec{p}, \]

а уопште у k-том кораку \( \vec{s}(k) = M^k\vec{p} \). Ово \( \vec{s}(2) = \vec{q} \) и \( \vec{s}(1) = \vec{p} \). Поставља се питање шта се догађа након дугог степеновања Марковљеве матрице (шта бива са Mk, када k → ∞), да ли постоји лимес \( \vec{s}(k) \to \vec{x} \), када k → ∞ и ако да, које је вредности?

У прилогу „Трансформације“ (7.5) наћи ћете зашто ће сваки корак ланца Маркова сужавати распон вероватноћа улазне расподеле, а затим следе и примери граничних резултата након бесконачно корака. Шири примери из „Спектралне теореме“ (8.3 - 8.6) заправо начин су тражења или доказ егзистенције граничне расподеле \( \vec{x} \), такве за коју је \( M\vec{x} = \vec{x} \).

Назив овог \( \vec{x} \) је „својствени“, или „карактеристични вектор“ (eigenvector) дате матрице M. Деловање његове матрице неће му променити вредности компоненти, али он представља униформну расподелу (истих шанси), па дуги низ степеновања (Mk, за k → ∞), подужи Марковљев ланац, постаће „црна кутија“.

Сваки улазни вектор ће низањем кроз такав ланац апсорбовати све више шума, сметњи, дезинформација, да би постао својствени са униформном расподелом максималне информације. Са излаза, све даљи улаз видимо товарен са више и више ометања, да су нам сами ближи кораци све мање информативни, а они даљи све мутнији, неизвеснији.

7. У прилогу „Корени јединице“ објашњавана је ситуација, врста канала преноса, када улазна информација траје. То су осцилације, периодична, или назовимо их кружна, понављања улазне поруке и њених облика са неким коначним периодом. Скоро као што су рима и ритам чували горе поменуте (4) српске народне песме. Слични томе примери копирања су сви облици таласног кретања, од познатих физичких облика до преноса живота рађањем и умирањем.

Stalemate

Питање: Да ли два играча лиге „узвраћања“ увек чека реми?

Stalemate

Одговор: Не, наравно. Али ако исти такав софтвер игра један против другог, реми је чешћи него победа. Слично стварним ситуацијама (ратови, политика, привреда), тамо где су борења вишедимензионална, правила стратегије „узвраћања“ изгледа да од истог воде отприлике до истог, углавном.

Међутим, ако један од софтвера ојачамо, вероватнија је (његова) победа него реми. То назовимо другом ситуацијом и она је увек могућа — просто због начела објективне неизвесности. Увек постоје нове опције које би повећале збир производа „информације перцепције“, а тиме и виталост спреге субјекат-објекат, односно играч-опонент, чиме се диже виталност и снага игре.

Ево још неколико мојих искустава из понављаних симулација. Блокаде које настају код подједнаких играча те I лиге настају иако софтвер има довољно раскрсница са случајним бирањем наставка. Састављам разне модуле са помало различитим, али у суштини истим одговорима истих изазова. Догађа се да процеси теку наизглед непредвидљиво, а заправо на дуже стазе циклично и — нема напредовања, нема победника.

Претпостављам да се исто може дешавати и у надметањима биљака (за станиште), животиња, људи, када су јединке подједнаке из исте врсте. Појачање игре даће чешћа процена позиције (бољи увид, перцепције), веће могућности одговора (виталност субјекта), већа суптилност. Веће теоријске вредности углавном се потврђују овим симулацијама. Уноси који повећавају „информацију перцепције“, уграђивање тих финеса у пакете програма, увећава шансе победе самог софтвера (Liberty).

Ипак, спусти ли се ниво (оба играча) из категорије „злоћа“ у другу лигу, избегавајући понекад „узвраћања“, опоненти са истим софтвером праве ређе ремије. Нерешена игра постаје и ређа када из лиге „манипулатора“, олабавимо софтвер до дна, у класу „добрица“. Та апсурдна појава указује на већу нестабилост стања склоних попуштању, начелно мањем дејству, али и на појаву нечега попут силе одржавања виталности као одговора минимализму. Динамика, случај и промене су у сржи мртве природе, а доминација над њом и општа тежња контроли ствар су животности. На овом апсурдну скелет је универзалних форми.

Friend of Friend

Питање: Шта мислите о стратегији попут „пријатељ мог пријатеља мој је пријатељ“, ако таква постоји?

Friend of Friend

Одговор: Можемо је открити, ако не постоји. Вреди тестирати је и, очекујем да буде нека из II лиге. Ако је „манипулатор“ у ланцу, тај нас качи на лошу процену добро-зло и испадамо из I лиге, а опет, остаје рецимо „жртва до победе“ па не упадамо у III лигу.

За сада, у симулацијама и према „информацији перцепције“ воде стратегије правовременог, одмереног и непредвидљивог узвраћања „добрим“ на „добре“ и „лошим“ на „лошије“ потезе опонента. Уз још понеку финесу која подиже „количину опција“ игре, односно виталност спреге играча. То је опис стратегије I лиге. Она није савладива играчима II лиге који се повремено не придржавају тих правила. Свака од њих побеђује стратегије III лиге, играча који спајају само „добро са добрим“.

Требам тек осмислити алгоритме у „ратовима жетона“, на предложени начин „пријатељ мог пријатеља мој је пријатељ“, уз све додатке можда „пријатељ мог непријатеља мој је непријатељ“, такође „непријатељ мог пријатеља мој је непријатељ“ са коначно „непријатељ мог непријатеља мој је пријатељ“. Предвиђам да то неће бити стратегије I лиге, односно непобедиве за остале две лиге, јер ју је лакше манипулисати.

Наиме, појам „пријатељ“ релативан је, променљив и израз је просека. Прва лига тражи суптилност, она ће у (скоро) сваком „добром“ детаљу тражити понеко „зло“ да прво подржава а друго омета, као и обрнуто, лоше иницијативе ће слично делити. Стратегији „пријатеља“ мутне су такве ситуације и понашаће се као спор, приглуп, или наиван дошљак, залутао на врхунско такмичење.

Због ове непрецизности релација „бити пријатељ“ није транзитивна. Рецимо да су A и B пријатељи зато што их повезује најмање 60 одсто заједничких интереса, а такође B са C има коефицијент узајамности изнад 0,6. Тада би (0,6×0,6) повезаност A и C могла бити свега 36% и такви нису „пријатељи“, слепо поверење међу A и C није оправдано.

Са друге стране, пријатељство подразумева и помагање у недаћама. Особина стратегије „добрица“ (III лиге), да се пуштају „низ воду“, би чинила одустајања од пријатељства код прве потребе за напором без нужне потребе. Стратегија „пријатеља“ у том смислу је изнад III лиге.

Укратко, појасни ми дефиницију релације „бити пријатељ“ да почнем радити алгоритме њене вештине, али свакако верујем да неће имати шансе против „Терминатора“ (пакет модула стратегије „узвраћања“: правовременим, одмереним и делом непредвидим активностима).

Datum

Питање: Како повезујете „знање“ и „информацију“?

Datum

Одговор: Почетак је углавном овако. Замислимо да радимо са енциклопедијским подацима из разних области, више врста, са базама података рачунара, или сличним. Скуп таквих чињеница нека је Ω, а ω његов подскуп, или елеменат.

Појмови B1, B2, ... BN, попут кућа, ватра, вода, ... могу формирати у реченице. На пример, B1B2: кућа гори, B2B3: вода гаси ватру. Кућа гори и гасимо је водом било би B1B2B3, и слично. Овакви Bk, или ωk, где је k = 1, 2, ..., N, елементи су Ω.

Као у некој причи само у инфинитиву, имамо низ од N = 1, 2, ... позиција b1b2...bN, где свака ставка има код, или број bk са позицијом k = 1, 2, ..., N приче, при чему је она у том низу присутна (bk = 1), или одсутна (bk = 0). Лако је приметити да имамо низ N бинарних цифара који могу означити M = 2N различитих могућности. Број N је информација (у bit-има), а M је број различитих прича, количина знања која се може испричати.

Даље радим са још дубљом аналогијом. Знања су подскупови поменутог Ω и могу а не морају имати заједничких појмова низа B1, B2, ... BN. Јасно је да се са оваквим елементима може радити као иначе са скуповима и да их можемо обрађивати на начин вероватноће (Dual Likely).

1. Елементе два скупа, X и Y, пребројава формула

n(XY) = n(X) + n(Y) - n(XY),

што сада можемо интерпретирати као: „информација“ уније два „знања“ једнака је збиру појединих X и Y минус заједничких (поновљених).

2. То се може проверавати оваквим једноставним примерима:

X: 100110101 (5)
Y: 001100110 (4)

U: 101110111 (7)

Унија „знања“ овог примера има 7 = 5 + 4 - 2 „информација“, елемената. Аналогија се преко појмова знање, информација, број елемената скупа, протеже и на вероватноће, затим суперпозиције квантних стања, потом на интерференције таласа свих величина. Моћ математике у применама огромна је, само када се изведбе добро уклопе у њене апстракције.

Две плус две краве су четири краве, 2 + 2 = 4, али и две плус две чаше су четири чаше, иако су краве, сами бројеви као и чаше сасвим различити појмови.

3. На претходном се не заустављамо, него користимо и „формулу потпуне вероватноће“, редуковану на:

\[ m(Y) = \sum_{k=1}^N m(YX_k), \]

наравно, са одговарајућом интерпретацијом. Скупови су „знања“, збир је њихова унија, а производ је пресек, док YXk представља елеменате скупа Y који су и елементи Xk. Дисјунктни скупови Xk су „знања“ која разлажу укупно „знање“ (Ω, унију N њих) на такође дисјунктне скупове YXk. Број елемената скупа ω је m(ω).

Дисјунктна (немају заједничких елемената) знања Xk чија је унија Ω чине једну декомпозицију, разбијање Ω у подскупове.

4. Са њима важи „Бајесова формула“ вероватноће:

\[ P(X_i|Y) = \frac{m(X_iY)}{m(Y)} = \frac{m(YX_i)}{\sum_{k=1}^N m(YX_k)} = \frac{P(X_i)P(Y|X_i)}{\sum_{k=1}^N P(X_k)P(Y|X_k)}. \]

Њену интерпретацију лако изводимо из претходне. На пример, Ω је град становника, чији квартови Xk разлажу град, тј. дисјунктни су подскупови становника чија унија је Ω, а Y је скуп посетилаца неке робне куће током једног дана.

Тада је P(Xi|Y) вероватноћа да је становник i-тог кварта био посетитељ робне куће, док је m(XiY) број посетилаца робне куће из i-тог кварта, а m(Y) укупни број (различитих) посетилаца робне куће.

The facts

Питање: Где се још могу употребљавати те формуле (Datum: 1, 2, и 3)?

The Facts

Одговор: Обострано једнозначно пресликавање, бијекција, када су испуњени услови (1) гаранција је формула (2) и (3). Приметите да у том одговору (Datum) користим две мере „броја елемената“ скупа, рецимо n и m = 2n, или слично за које важи тај услов.

На слици десно, универзални је скуп разбијен на три дисјунктна скупа, X1 + X2 + X3 = Ω, са Y ⊂ Ω који ови такође разбијају на три дисјунктна YX1 + YX2 + YX3 = Y, тачније на A'' = YX1, B'' =YX2 и C'' = YX3, где су X1 = A' + A'', X2 = B' + B'' и X3 = C' + C''. Можемо писати и A = A' + A'', B = B' + B'' и C = C' + C'', а слика и објашњења биће једнако тачни. Слично је са поменутом бијекцијом.

Са n = 1, 2, 3, ... цифара {0, 1} бинарног записа може се исказивати m = 2n различитих бројева. Тада је m број „тумачења“, а „информација“ коју она носе је log2m = n bit-а. Такође, m је обим „знања“ са n (енциклопедијских, или неке базе података) „појмова“. Мењајући базе логаритма η = logb m, а бијекцијом даље уопштавајући, долазимо до функционалних зависности ν = f(m), о којима овде говоримо.

Примењено на скупове, потребна нам је мера „броја елемената“ p са бар две особине (од три) аксиома вероватноће:

  1. Ненегативност: (∀ω ⊆ Ω) 0 ≤ p(ω) ≤ p(Ω);
  2. Адитивност: за ωn ∈ Ω, за n = 1, 2, ..., узајамно дисјунктне скупове (ωi ⋅ ωj = ∅ ако ij) важи
  3. \[ p\left(\sum_{n=1}^\infty \omega_n\right) = \sum_{n=1}^\infty p(\omega_n). \]

Без треће аксиоме теорије вероватноће, нормираност: p(Ω) = 1, такође важе (1), (2) и (3) једначина помињаног одговора (Datum). Тада мера p постаје n, односно m.

На пример, нека су на горњој слици 40 и 20 мере скупова A' и A'', затим 50 и 30 мере B' и B'', а 60 и 40 мере C' и C''. Тада (1) формула претходног даје, на пример:

p(AY) = p(A) + p(Y) - p(AY),
130 = 60 + 90 - 20,

што је тачно. Такође, тачна је трећа (3) формула:

p(Y) = p(YA) + p(YB) + p(YC),
130 = 20 + 30 + 40,

као и четврта (4) формула:

\[ p(A|Y) = \frac{p(AY)}{p(Y)} = \frac{p(YA)}{p(YA) + p(YB) + p(YC)}, \] \[ \frac{20}{90} = \frac{20}{20 + 30 + 40}, \]

која је опет тачна. Све у свему, могуће је на чињенице у причама гледати формално као на „информације“ у „знању“, односно свести их на бројање цифара у количини бројева који се њима могу изразити.

На пример, када се симптом Y појављује код болести Xk, за k = 1, 2, ..., N, са познатим вероватноћама P(Xk). Када се Y појави, онда је вероватноћа болести P(Xi|Y), према Бајесовој формули. Ово давно раде компјутерске дијагностике, а идеју овде само проширујемо.

Effect

Питање: Информација и знање се односе као цифре и број?

Еffect

Одговор: Да, формално, може се и тако рећи. Из (Datum):

b1, b2, ..., bN,   →   M = bN

где је b база бројног система 2, 3, 10, или која год, тада је јединица информације и база Хартлијевог логаритма logb M = N. То N биће информација, а M тада је знање, можемо рећи моћ, као у познатој ђачкој песмици: „Знање је сила, знање је моћ, учите децо и дан и ноћ“ чика Јове Змаја.

У тој песмици моћ знања огледа се у способности ученог човека да влада природом, другим људима, собом. Међутим, моћ опција је у изненађењу Римљана када их је Ханибал напао прешавши Алпе слоновима (Hannibal ante portas), или у брзини војних акција Наполеона, трећи у бруталности, или неко уопште у непредвидљивости којом разбија концентрацију снаге опонента, развлачи је и слаби поједине правце. Најбоља стратегија I лиге (Reciprocity) врх је такве „количине могућности“.

Попут броја цифара N, фреквенција светлости f = 1/τ број је осцилација у јединици времена који дефинише енергију светлости E = hf, где h = 6,626 J⋅Hz-1 Планкова константа, а потом и импулс (фотона) светлости p = h/λ, где је λ таласна дужина честице-таласа светлости. Као што знамо, брзина светлости c = λf = 300 000 km/s, све конкретне вредности приближно.

Уопште, материјални таласи имају таласну дужину λ = h/p, у претходним ознакама, осим што могу имати масу (m) и тада укупну енергију

\[ E = \frac{mc^2}{\sqrt{1 - \frac{v^2}{c^2}}}, \]

где је v брзина кретања тела. Њихов је импулс p = mv. Промена енергије је рад силе на путу ΔE = F⋅Δx, сила је једнака промени импулса временом F = Δpt. Из ових познатих формула физике видимо форме повезивања неизвесности, енергија и силе, на пример.

Да то није случајна коинциденција доказиво је (Сила вероватноће). Када чешће исходе разумемо гоњене неком одбојном силом неизвесности, или привлачном силом вероватноће, онда има начина да апстрактни простор случајних варијабли посматрамо попут Кеплерове небеске механике. Ако замислимо низ случајних опита које све понављамо и одвојено сабирамо њихове реализације у компоненте вектора, онда ће такви вектори бивати све дужи (без промене броја компоненти). Приближаваће се очекиваним компонентама, вредностима вероватноћа исхода множеним са бројевима покушаја, и угао између растућег и очекиваног се смањује.

За константан број понављања између два описана „случајна вектора“ из низа исхода, смањује се угао између њих док им дужине расту. Законима великих бројева, ово постаје „кретање“ (статистичко) по хиперболи која је коника (уз елипсу и параболу), еквивалентно кретању под деловањем константне централне физичке силе (привлачне гравитационе, одбојне електромагнетне), када потег од силе до набоја у једнаким интервалима пребрише једнаке површине.

Life

Питање: Шта је то живот?

Life

Одговор: Мора да си читао моје популарне текстове и учинио ти се одговор могућ и лак (Приче о Информацији, 1.5 Живот). Иако смо јој ближи него икада, жалим, али та је тема још увек загонетна.

Оно где би се могло бити испред осталих што се тиче тог питања је скаларни производ вектора. Биће то невероватно као и „безазлено“ мерење брзине Земље релативно у односу на етар које је довело до чувене формуле E = mc² затим и до бацања атомских бомби 1945.

Неочекивани преокрети у науци били су откриће електрицитета, тимског рада, генома, интернета, вештачке интелигенције. Оригиналности иду уз изненађења, а последице су им такође мање-више непредвидиве. Некада је данас чувени Швајцарско-Руски математичар Ојлер написао своју тада исмевану формулу e + 1 = 0, да би временом само откриће имагинарних бројева (i² = -1), постајало незаменљиво у математици, наукама, техници, авионском саобраћају. Тако је можда и са „скаларним производом“, који је познат давно пре „теорије информације“.

Основна идеја је да такав „збир производа“ може бити мера виталности у „информацији перцепције“. Да њени сабирци Q = a1b1 + a2b2 + ... + anbn, тј. qk = akbk, могу представљати одвојиве степене слобода, интелигенције (ak) и хијерархије (bk) на пример. Не бих сада понављао саму ту изведбу, него пређимо на касније кораке. Већа је виталност спреге Q што је мањи угао између множених вектора \( \vec{a} = (a_1, a_2, ..., a_n) \) и \( \vec{b} = (b_1, b_2, ..., b_n) \), што су они (рецимо субјекат и објекат) боље узајамно адаптирани.

Тада комуникација између првог и другог постаје максимално витална, обзиром на њихове капацитете, па као у надметањима једнаких „злоћа“ (прволигаша) брзо прераста у „сарадњу јаких“ (Stalemate). Удруживање истоимених, истог предзнака, доводи до синергије и емергенције, која групи повећава слободе на уштрб слобода јединки. Ту појаву сусрећемо када друштву предајемо нека лична права ради опште сигурности, или ефикасности, обично након сваког усвајања нових прописа. При томе нам је губитак личне слободе олакшавајући због начела минимализма информације.

Повећање слобода групи повећава виталност, информацију перцепције (Defiance II), са тиме и способност да је се по потреби и са циљем може одрицати стварајући ефикасност. Зар то нису описи стварања ћелијске опне и прерастања малих животних облика у веће организме?

Double Trouble

Питање: Мора ли објект имати субјекте и обрнуто?

Double Trouble

Одговор: Питање се може свести на предност спреге, информације перцепције релативно у односу на поједина стања „саговорника“ (субјекта и објекта), или на стање усамљеног извора информације.

Што се тиче првог, на пример, мањи ТВ програми имају мање гледалаца, а који их такође ређе гледају од већих ТВ канала. Исто тако, мање дигиталне платформе имају мање претплатника који такође ређе гледају/закључују се у односу на веће дигиталне платформе. То су образци „двоструке опасности“ које је открио статистичар Ехренберг (Andrew Ehrenberg, 1926 – 2010).

Он је разлике између најнижег и највећег просечног броја у секундама пажње дате платформе називао „еластичност пажње“. Платформе ниже пажње имају мање границе еластичности пажње, а каже да ефикасност платформе одређује овај опсег. Платформе ниже пажње тако имају више површних пролазника, пасивних и неактивних купаца. Са ширим јазом су између пажње и видљивости, остављајући потенцијалног купца више заинтересованог за конкуренцију.

То важи у маркетингу трговине, политике, уопште утиска и перцепције где годе се ради о опажању или комуникацији субјекта са околином. Ова теорија „двоструке опасности“ немачког статистичара очигледно стоји у складу са објашњењима „информације перцепције“ и синергије. Неке од горњих напомена (Life) сада је лакше разумети.

Приметимо да се сабирак „збир производа“, једна компонента „слободе“, qj = ajbj може тумачити као производ одговарајућих „интелигенције“ (aj) и „хијерархије“ (bj), што долази са директном размером интелигенције и слободе, количине могућности, а обрнуте са ограничењима (aj = qj / bj). Према томе су ограничења или правила понашања, допринос слободама као мултипликатор способности.

Другим речима, апсолутно неограничена воља, која никакав отпор нигде не би имала, не би била апсолутно слободна, већ напротив, остала би без слободе уопште. Била би врста тела без чула, попут особе која нити види нити чује нити ишта осећа, на тај начин спутана у свом „универзуму“ без комуникације са било чим. Тиме напредујемо са разумевањем „живота“, система са вишком информације, али и света без комуникације.

Интеракција субјекта и објекта у информацији перцепције она је која ће произвести доживљај и дати реалност свету. Ако A комуницира са B, или са C, или са D и тако даље, онда су сви они узајамно реални, док би неки евентуални објекат X био њима псеудо-реалан, ако не комуницира нити са једним њима реалним. То значи да Месец постоји и док га не гледамо, јер увек постоји довољно нама реалних његових „саговорника“.

Тиме је појашњено и друго од наведених на почетку овог одговора. Нема ли субјекат објекте, предмете опажања, или је „предмет“ без макар једног посматрача, он је у најбољем случају псеудо-реалан. Да би био реалан он мора „живети“ информацију перцепције.

Multi Ethnicity

Питање: Има ли „информација перцепције“ став о многонародности?

Multi Ethnicity

Одговор: Не, уколико сам добро разумео питање. Међутим, могу покушати рећи понешто домена апстрактног, из симулације, али приближног „циљаном“. Идући за својом личном проценом.

Надам се да ћете лако разумети „збир производа“, да поткрепим причу макар каквим формулама.

Два вектора a = (a1, a2, ..., an) и b = (b1, b2, ..., bn) стања су способности и могућности опажања, рецимо субјекта и објекта, њихове комуникације, кажемо информације перцепције

Q = a1b1 + a2b2 + ... + anbn.

Што је број Q већи већа је моћ апсорбције различитости спреге, већа је „количина опција“ којом она располаже, њена виталност. Ова формула ми је референца у симулацијама. Показује се да игра достиже јачи ток, виши ниво, веће мајсторство, када постиже већи број Q. Описивао сам таква надметања довољно.

Гледајући ову спрегу као унутрашњу, као напетости унутрашњих делова истог система, лако је пренети претходне резултате колико није тврдити њихову тада ваљаност. Рецимо, сваки већи систем (економија, друштво) има конструктивне, позитивне и деструктивне, негативне елементе, али, нисам истражио када се они групишу у тимове против тимова цепајући заједницу, а када синергија надвлада раслојавање. Дилема је, да ли су и када „негативни“ елементи заиста штетни заједници.

На пример, честа пракса одстрањивања мушке стоке ради побољшања економског учинка фарме не потврђује очекивања у новијим студијама (Productive performance). Прогресу врсте доприноси управо присуство наизглед сувишног и „бескорисносг“ мушког пола, често сам помињао. Мирнодопско или уходано друштво сматраће неприхватљивим многе облике „агресивног“ или нетимског понашања појединаца, а оно може бити веома корисно у „занимљивим“ временима. Многи „поремећени“ ликови давали су највеће доприносе развоју цивилизација, или су баш они неприлагођени бивали веома успешне војсковвође.

На пример, једно самодеструктивно понашање дељено и преусмерено, чак и на саме конструктивне, може давати укупни позитивни ефекат и већу виталност система, 4 = 1⋅4 = (4 - 3)⋅(3 + 1) → 4⋅3 - 3⋅1 = 9. Ситуација попут спортског тренера који је своју агресивност учинио корисном са пуленима које тренира, или лошег ђака који је био срамота заједнице постајући својом оригиналношћу понос образовне установе и неретко науке уопште.

Ситуација 2 = (-1)⋅(-1) + (-1)⋅(-1) → (-1 - 1)⋅(-1 - 1) = 4 је увећање виталности друштва када два негативца репресија удружи у користан рад, место нпр. раздвајањем затвореника у ћелије. Рачун 2 = 1⋅1 + 1⋅ → (1 + 1)⋅(1 + 1) = 4, слично претходном, говори о предностима удруживања али позитивних са позитивним мерама. Аналогије унутрашњих напетости са такмичењем могуће су већ због саме природе формула и, понављам, на неистраженом су терену.

Укратко, верујем да су различитости, уколико не би поцепале друштво, пожељне за опстанак виталности као и мушке јединке врста, или као што је ризичнија игра са жртвом ради победе (гамбит у шаху, инвестиција у економији) јача од спајања само доброг са добрим. Други ниво биле би предности или мане генетског мешања врсте.

Previous

Новембар 2023 (English ≽)

Next

Тема:

Овде разговарамо о информацији као посебној врсти „количине могућности“, или „слободе“ до њеног ширег облика. Она се у посебним случајевима своди на Шенонову (1948) и Хартлијеву (1928).

Нека питања из неког ранијег блога се понављају, али не и одговори. Не ради се о исправци теореме или тумачења, за сада, него о другачијем осврту на исто.