wtorek, 10 stycznia 2017

Ubezpieczenie od jazdy na gapę

Mój przyjaciel, dr Paweł Prociów, zaproponował dzisiaj taki oto pomysł na startup: ubezpieczenie od kontroli biletów.
Pasażer wykupuje abonament i nie kupuje biletu, a ewentualne kary płaci za niego ubezpieczyciel.
Pytanie czy mogłoby ono być tańsze od biletu i czy MPK mogłoby się opłacać nie walczyć z tym startupem?
Pierwsze pytanie wydaje mi się równoważne pytaniu, czy może być tak, że wartość oczekiwana kary przy jechaniu na gapę jest niższa niż cena biletu.
(Przez "może być", mam na myśli długotrwałą i opłacalną strategię cenową ze strony MPK)
Drugie pytanie wydaje mi się jeszcze bardziej skomplikowane.
Zacznijmy więc od czegoś prostszego: jak w zasadzie MPK powinno ustalać cennik, regulamin i liczbę kontroli?

Ten post jest długi i nie dochodzę w nim do odpowiedzi, bo się na tym nie znam i dopiero uczę.
Ten post to raczej zapis moich przemyśleń i gorące zaproszenie do dyskusji, z której mam nadzieję się wiele nauczyć.

Zakładam, że pewne rzeczy są niezmienne:

P = liczba podróży dziennie
t = średni koszt jednej podróży
T(P) = t*P = koszt transportu wszystkich podróży (oprócz kontroli)
k = koszt skontrolowania jednego pasażera podczas jednej podróży

Założenie, że liczba podróży dziennie jest niezależna od cen biletów itd. jest raczej nierealne, w praktyce przecież ludzie mogą zacząć rezygnować z MPK,
gdy im się to nie opłaca. To trzeba będzie zmienić, ale na razie niech tak zostanie.
Założenie, że T(P) jest liniową funkcją P, może też być nieprawdziwe, bo np. oznacza, że firma nie ma kosztów stałych i że każdy kolejny autobus i kierowca
kosztują tyle samo, ale dopóki zakładamy, że P jest stałe, to kształt tej funkcji można olać, bo i tak patrzymy tylko na jej jedną wartość: T(P).
Założenie, że k jest stałe, oznacza, że zakładam m.in. że organizacja kontrolerów jest bardzo efektywna (np. dbają o to by losowo dzielić się trasami i nie potrzebują kadry menadżerskiej) i że bez trudu można ich zrekrutować. Tego raczej nie będę ruszał.
To oczywiście nierealistyczne założenia, ale od czegoś muszę zacząć, jak uda mi się przy takim prostym modelu, to zacznę go komplikować.

Chcemy ustalić następujące zmienne:

G = liczba między 0 a P sytuacji, gdy ktoś pojechał na gapę
S = liczba dokonanych kontroli
f = wysokość kary za jechanie bez biletu
b = cena biletu

Pierwszą intuicję mam taką, że żeby kontrola się opłacała to jej koszt nie może przekraczać oczekiwanego zysku.
Kontrola może się zakończyć naliczeniem kary o wysokości f w G na P przypadków.
Zakładam na razie, że to faktycznie jest z punktu widzenia kontrolera zmienna losowa o prawdopodobieństwie G/P,
tzn. że kontroler nie umie w żaden sposób a priori stwierdzić na jakiej linii, o jakiej porze i kogo warto kontrolować.
Czyli oczekiwany zysk z kontroli to f*G/P, tymczasem jej koszt to k.
Ta pierwsza intuicja zdaje się prowadzić do konkluzji, że kontrola to coś co albo się opłaca albo nie.
Kontrola zdaje się opłacać wtedy i tylko wtedy gdy k < f*G/P.
Jeśli się nie opłaca to po co w ogóle robić kontrole (S=0), a jeśli się opłaca, to skontrolujmy wszystkich (S=P).

Po chwili zastanowienia przyszła mi jednak do głowy myśl, że kontrolerom może się opłacać kontrolować tylko część osób (0<S<P),
z dość niemoralnego powodu: po to by zachęcić ludzi do jeżdżenia na gapę.
Zakładając pewną koordynację ze strony pasażerów, mogą oni sobie wyliczyć, że ryzyko zostania skontrolowanym wynosi S/P.
Tu zakładam dodatkowo, że wzorzec kontroli jest nieprzewidywalny dla pasażera.
W takim razie bilet opłaca się skasować wtedy i tylko wtedy gdy b < f*(S/P).
Tutaj znów na pozór widać czarnobiały świat: albo ta nierówność zachodzi i wtedy wszyscy kasują bilety (G=P),
albo nie zachodzi i wtedy nikt nie kasuje biletu (G=0).

Po pierwsze rodzi to super ciekawe pytanie czy może dojść do niestabilnej sytuacji, w której
MPK organizuje 100% kontrole (S=P), co powoduje, że wszyscy zaczynają kasować bilety (G=P), co z kolei
powoduje, że MPK przestaje się opłacać kontrolować (S=0), co znów powoduje, że nikt nie kasuje biletów (G=0) i kółko się zamyka.

Po drugie: czy może w ogóle być inaczej, tj. czy może dojść do ekwilbirium w tym czarnobiałym świecie?

Po trzecie: czy da się stworzyć stabilną sytuację w której S lub G mają pośrednie wartości? Przy okazji chciałbym zauważyć, że o ile
0<S<P można łatwo wcielić w życie (np. zatrudniając odpowiednią liczbę kontrolerów), o tyle wymuszenie 0<G<P wymaga jakiejś formy koordynacji
ze strony pasażerów. O ile umiem sobie wyobrazić, że pasażer przed wejściem do tramwaju rzuca kostką by ustalić czy skasować bilet, to
trochę trudniej zapewnić, że może zaufać pozostałym pasażerom, że zrobią dokładnie to samo. Dlaczego? Bo jeśli są naprawdę samolubni,
to lokalnie optymalnym posunięciem jest albo skasować bilet albo go nie skasować, losowanie nigdy się nie opłaca (coś jak dylemat więźnia).

Po czwarte: może warto by było rozważyć modele, w których ludzie różnią się co do moralności i odporności na stres i co za tym idzie różnie wyceniają koszt jechania bez biletu?

Ad 1. Chyba tak:

P = 100 000
t = 2 pln
k = 0.10 pln
b = 3 pln
f = 100 pln

I zaczynamy od sytuacji gdy nie ma gapowiczów, G=0.
Wtedy 0.10 pln = k > f*G/P = 0 pln, czyli nie opłaca się robić kontroli, więc S=0.
Wtedy 3 pln = b > f*S/P = 0 pln, czyli nie opłaca się kasować, więc wszyscy zaczynają jechać na gapę, G=P.
Wtedy 0.10 pln = k < f * G/P = 100 pln, więc opłaca się robić kontrole, S=P.
Wtedy 3 pln = b < f*S/P = 100 pln, więc ludzie przestają jeździć na gapę G=0.
Kółko się zamyka.

Ad 2. Chyba jest to możliwe tylko wtedy, gdy kara nie przewyższa ceny biletu (f <= b) lub kosztu przeprowadzenia kontroli (f <= k).
Ale świat, w którym zachodziłby któryś z tych warunków wydaje się intuicyjnie głupi.
Zakładając, że f>b oraz f>k, sytuacja zawsze będzie się kręciła w kółko.
Ok jest jeszcze case że ceny lub kary są ujemne, ale to już w ogóle absurd.

Ad 3. Zdałem sobie sprawę, że to trochę zależy od tego jak definiujemy "stabilność" a konkretniej między kim a kim jest ta gra.
Jeśli graczem jest "ogół pasażerów" to sytuacja wygląda inaczej niż jeśli są nimi "pojedynczy pasażerowie".
W tym drugim przypadku jak już pisałem, opłaca się albo kasować albo nie kasować i już.
Załóżmy więc, że pasażerowie umieją się skoordynować na tyle by wymusić jakąś wartość G inną niż 0 lub P.
Pytanie tylko po co mieliby to robić? Co oni optymalizują?
Oczywiście powinni minimalizować swój sumaryczny wydatek, czyli (P-G)*b + G*(S/P)*f = P*b + G(f*S/P - b),
co oczywiście nadal prowadzi do czarnobiałego rozwiązania, chyba, że pozwolimy pasażerom zastanowić się nieco dalej wybiegając w przyszłość
i rozważyć jak na ich zachowanie odpowiedzą kontrolerzy (o których znów należy założyć, że będą działali roztropnie w oparciu o jak najlepszy model
przyszłych poczynań pasażerów itd.).
Zaczyna mi być trudno prowadzić to rozumowanie - nie bardzo czuję, dlaczego strategia "szara" miałaby w ogóle mieć sens.
Po części trudność wynika chyba z tego, że mieszam ze sobą statyczną sytuację (jeden dzień) z dynamiczną (wielorundowa gra) nijak nie modelując upływu czasu.
Jakaś część mnie wierzy, że hasło "hej, niech tylko 2% z nas jeździ na gapę, wtedy nie będzie się im opłacało nas kontrolować",
wydaje mi się potencjalnie słuszną radą w jakimś świecie, ale nie umiem do końca wskazać w którym.
Spróbuję więc podejścia, które czasem działa: najpierw policz rozwiązanie, a potem się zastanów czemu ono jest rozwiązaniem.
Mam przecież sporo nierówności które mogę przerobić na równości i zobaczyć czemu one odpowiadają.
Przykładowo co by się stało gdyby b = f*S/P?
Z jednej strony oznacza to, że pasażerowi nie robi różnicy czy skasuje bilet, czy nie.
To o tyle dobre, że mógłby wtedy być skłonny zastosować się do jakiejś globalnej strategii nie czując, że na tym traci.
Problematyczne może być to, że b,f,S występujące w tej równości są kontrolowane przez MPK a nie pasażerów.
Dla MPK oznacza to, że może tak je dobrać, by zagwarantować sobie wpływy od pasażerów równe P*b.

Tu w sumie warto zadać sobie pytanie, co w ogóle powstrzymuje MPK przed ustawieniem f lub b na 10000000pln.
Chyba pora dodać do modelu jakieś założenie co do wartości jaką dla pasażerów ma transport.

Niech:
u = wartość jaką dla pasażera ma przejazd (w porównaniu do alternatyw i uśredniając po wszystkich)
To jest oczywiście niepoważne założenie, że ludzie znają u i że jest ono stałe dla wszystkich, ale ja się dopiero uczę! :)

W obliczu braku koordynacji z innymi pasażerami, czyli podejmując decyzję egoistycznie, pasażer powinien chyba postąpić tak:
Sprawdź która z liczb: u, b, f*S/P jest najmniejsza.
Jeśli b, to skasuj bilet.
Jeśli f*S/P, to jedź na gapę.
W przeciwnym razie pójdź pieszo/rowerem/autem/zostań w domu, bo nie opłaca się jechać.

Ale jak to jest przy koordynacji ze strony pasażerów, tj. np. rzucam kostką by ustalić czy skasować bilet?
Czy może mi się "opłacać" jechać nawet gdy kostka każe mi zrobić coś co przekracza wartość u?

Poza tym, czy wprowadzenie do modelu parametru u, w ogóle rozwiązało problem astronomicznie dużych kar?
Ogłoszenie, że f=1 000 000 pln, spowoduje raczej tylko tyle,
że ludzie zaczną kasować bilety, o ile tylko b<u. Jakie mogą być negatywne konsekwencje tak wysokich kar dla MPK?
Ja nie widzę. Czyżby więc to, że w praktyce są one niskie (około 100 pln) ma być zachętą do jeżdżenia na gapę?
Czy można interpretować ten stan rzeczy jako dowód na to, że cena biletu przekracza jego wartość (b>u)?
Czy MPK może się opłacać celowo obniżyć f do "akceptowalnego" poziomu po to by zarabiać więcej niż gdyby wszyscy kasowali bilety?
A może to forma segmentacji rynku na gapowiczów i uczciwych i nie da się tego zrozumieć dopóki mój model nie uwzględni różnić w moralności/odporności na stres?

Spróbuję na nowo skupić się na problemie ekwilbrium.

P = 100 000
t = 2 pln
k = 0.10 pln
b = 3 pln
f = 100 pln
u = 5 pln

Rozważmy sytuację gdy gapowiczów jest dokładnie G=99.
Wtedy spodziewany zysk z kontroli f*G/P - k = 100 * 99/100 000 - 0.10 = 0.099 - 0.10 = -0.001 jest ujemny, więc nie opłaca się kontrolować, więc S=0.
W sytuacji gdy nikt nie kontroluje, pojedynczemu egoistycznemu pasażerowi opłaca się nie kasować biletu.
Ale gdy tylko liczba gapowiczów wzrośnie do 101, kontrole zaczną się opłacać co może doprowadzić do S=P.
Jeśli więc pasażerowie są w stanie wymusić posłuszeństwo, to ich dzienny koszt będzie wynosił:
P*b + G*(f*S/P - b) = 300 000 + 99*(0 - 3) = 299703
czyli mniej niż 300 000 gdy się nie dogadają.
Para G=99, S=0 wydaje się przy tym stabilna.
Ale nie wiem czy dostatecznie głęboko przemyślałem strategię kontrolerów.

A czy da się w drugą stronę, tj. tak, żeby G=0, 0<S?
Skoro nikt nie jedzie na gapę, to musiałoby być jakoś tak, że b jest ciut mniejsze od f*S/P, czyli S > b*P/f = 3*100 000 / 100 = 3000.
Rozważmy zatem sytuację, w której mamy S = 3001.
Wtedy koszt pasażerów, czyli P*b + G*(f*S/P - b) jest minimalny wtedy gdy G=0.
Czyli wszyscy kupują bilety i MPK zarabia P*b - S*k = 300 000 - 3001*0.10 = 299699.9 pln.
Pasażerom raczej nie opłaca się żadna inna strategia.
Pytanie czy MPK opłaca się zmienić liczbę kontrolerów w tej sytuacji?
MPK zarabia tyle ile płacą pasażerowi minus koszt kontroli: P*b + G*(f*S/P - b) - S*k.
Pochodna po S to f*G/P-k i oczywiście dla G=0 cięcia w liczbie kontrolerów wydają się sensowne.
Tylko, że jeśli zmniejszy się ich liczbę do 2999, to wtedy nagle zaczyna się opłacać jeździć bez biletu.
Dla S = 2999, najlepszą dla pasażerów strategią na zminimalizowanie P*b + G*(f*S/P - b) jest jeździć na gapę.
Tzn. przynajmniej jeśli są oni egoistyczni, bo nawias (f*S/P-b) jest ujemny. Ale co jeśli działają zbiorowo?
Zbyt duża liczba gapowiczów, zwiększy kontrole z powrotem do S=3001 i znów nie będzie się opłacało jeździć na gapę.
Czy istnieje więc jakaś taka mała ale niezerowa liczba gapowiczów, która z jednej strony pozwala cieszyć się
z tego, że kontrolerów jest mniej niż 3000, a z drugiej strony nie alarmuje ich tak bardzo?
Liczba kontrolerów na pewno wzrośnie, gdy f*G/P przekroczy k.
Zatem co się dokładnie stanie, jeśli wybierzemy G ciut mniejsze od k*P/f = 0.10*100 000/100 = 100?
Hm, dostaniemy G=99, czyli tę samą wartość którą rozważałem poprzednio.
Czyli o jest bezpieczna dla pasażerów wartość G bo nie zmienia polityki MPK.
Wydaje się, że im większe G tym taniej dla pasażerów, ciekawe czy mogłoby być jeszcze większe?
Nie jestem wcale pewien, że przy G=101, najmądrzejszym ruchem MPK jest zwiększyć S. Kto wie.
Na razie wyszło mi, że zmniejszenie liczby kontroli z S=3001 do S=2999 może wywołać zwiększenie G do 99,
a wtedy MPK będzie zarabiało P*b + G*(f*S/P - b) - S*k = 300 000 + 99*(100*2999/100 000 - 3) - 2999*0.10 = 299700.001
czyli ciut więcej niż przy S=3001.
Hm, to nie brzmi jak groźba, tylko jak okazja.
No ale może po prostu G=99 to nie jest najgroźniejsza odpowiedź pasażerów?
Co gdyby zagrali G=100?
Wtedy, z ich punktu widzenia P*b + G*(f*S/P - b) jest nawet mniejsze niż dla G=99.
Dla MPK zysk wyniesie wtedy P*b + G*(f*S/P - b) - S*k = 300 000 + 100*(100*2999/100 000 - 3) - 2999*0.10 = 299700,
czyli wciąż lepiej niż dla S=3001.

Damn, to jest naprawdę frustrujące, że nie wiem jak zamodelować tę grę (as in: nie umiałbym napisać programu, który to liczy).
Główną trudność widzę w tym, że niektóre ruchy mają "oczywisty natychmiastowy sens", a niektóre mają sens dopiero
jak się rozważy co zrobi przeciwnik itd itd. Gdzie ta rekurencja ma bazę?

A może to jednak trzeba rozpatrywać z podziałem na rundy.
Np. jako grę dwurundową: w pierwszej rundzie MPK ustala S, w drugiej pasażerowie ustalają G i koniec.
Albo na odwrót. Albo jakaś skończona liczba rund?
Chyba żadna skończona liczba rund "nie jest ciekawa", bo w ostatniej rundzie opłaca się wtedy zagrać ekstremalnie.
A zatem muszę się skupić na tym absurdalnej "nieskończenie długiej a jednak natychmiastowej" rozgrywce.

Spróbuję zgadnąć ekwilibrium: G=100, S=3000.
f*S/P = 100 * 3000 / 100 000 = 3 = b, więc nie ma znaczenia czy kupię bilet czy nie.
Podobnie: f*G/P= 100 * 100 / 100 000 = 0.10, więc nie ma znaczenia liczba kontroli.
Czy to sie liczy jako ekwilibrium? Raczej nie, to chyba swego rodzaju przeciwieństwo: sytuacja bardzo niestabilna chyba, że założymy jakąś niechęć do zmiany:)

To może plus minus epsilon: G=99, S=3001.
f*S/P = 100*3001/100 000 = 3.001 więc na oko opłaca się zmniejszać G
f*G/P = 100*99/100 000 = 0.099 więc może opyla się zmniejszać S

To może plus minus epsilon: G=99, S=2999.
f*S/P = 100*2999/100 000 = 2.999 więc na oko opłaca się zwiększać G
f*G/P = 100*99/100 000 = 0.099 więc może opyla się zmniejszać S

Sam nie wiem... Na pewno nie jest dobrym pomysłem ten programik:

var P = 100000;
var G = 99;
var S = 0;
var k = 0.10;
var b = 3;
var f = 100;
for(var i=0;i<1000;++i){
  if(f*S/P < b){
    if(G<P)G++
  }else{
    if(G>0)G--
  }
  if(f*G/P > k){
    if(S<P)S++
  }else{
    if(0<S)S--
  }
  console.log("#"+i,S,G,f*S/P,f*G/P)
}
bo on patrzy zbyt zachłannie/lokalnie/egoistycznie.

Czy ruchy polegające na zwiększeniu liczby kontroli do S=P tylko po to by zupełnie zniechęcić ludzi do jazdy na gapę, nawet jeśli
koszt przeprowadzania takiej kontroli jest kosmiczny, mają sens?

Może to jednak powinno być rozważane jako nieskończony ciąg dni: S[0],G[0],S[1],G[1],... w którym obie strony optymalizują wartość
nieskończonej sumy (co by to miało znaczyć??) biorąc pod uwagę, że przeciwnik może postępować wg strategii oko za oko ząb za ząb
i inne tego typu "iterowane dylematy więźnia"?




niedziela, 31 stycznia 2016

Social demokracja a granica postępu

Nie chcę nikogo obrazić tym co tu napiszę, ot chciałbym zrzucić z głowy pewne intrygujące mnie myśli, pewnie bardzo płytkie, bo nie znam się ani na polityce, ani na biologi, ani na psychologii, za to lubię łączyć różne zasłyszane strzępki informacji w ciekawe (dla mnie) narracje.
Po lekturze rozdziałów na temat psychologi ewolucyjnej ze świetnej książki Rationality from AI to Zombies naszła mnie taka oto refleksja na temat social-demokracji, rozumianej jako systemu gdzie decyduje większość i dba się o zapewnienie godnych warunków każdemu.

Psychologia ewolucyjna, z tego co do tej pory zrozumiałem, to teoria pomocna w wyjaśnianiu dziwnych acz powszechnych zachowań ludzi nie poprzez to jak byli wychowani, nie to czego doświadczyli, nauczyli się, bądź świadomie czy nieświadomie próbują zrobić, ale poprzez czysto statystyczny fakt, że ich dziad i pradziad robili tak samo, a ci którzy nie robili tak samo mieli na tyle mało dzieci, że wyginęli.
Przykładowo, to, że ludzie lubią naginać fakty do własnych przekonań, nie doceniają ryzyka rzadkich zdarzeń, czy podążają za tłumem, wcale nie wynika z jakiejś ich wredoty, głupoty czy słabości, podglądania matki czy fiksacji oralnej tylko po prostu z tego, że ludzie wygrywający debaty na forum wioski, nienapotykający rozwścieczonego borsuka, czy nie opuszczający wioski z byle powodu, po prostu mieli więcej dzieci.
Podobnie, nie trzeba upatrywać powodu dla którego lubimy sex, w niczym innym jak tylko w tym, że ci co go nie lubili wyginęli.

W tym kontekście, skłonność niektórych ludzi (np. moja) do tego by stosować antykoncepcje wydaje się być totalną absurdalną pomyłką i wypaczeniem.
I nie chodzi nawet o tak ekstremalną niechęć, jak (o zgrozo) chęć posiadania mniej niż 2 dzieci (co oczywiście prowadzi do wymarcia).
Wystarczy znacznie subtelniejsza myśl jak "poczekam z założeniem rodziny aż się ustatkuję" - te parę lat opóźnienia oznacza, że Twoją niszę ekologiczną zajmą w tym czasie inni.
Twoje powody mogą być szczytne; jak się dorobię to dziecko będzie miało lepszy start, będzie zdrowsze, pójdzie na lepszą uczelnie, znajdzie ładniejszego/mądrzejszą partnerkę.
Whatever - ewolucja does not give a fuck.
Jej nie obchodzi czy Twoje dziecko jest zdrowe, mądre, czy rządzi światem czy nie.
Szczerze mówiąc nie obchodzi jej nic, bo ona nie myśli i nie planuje wcale.
Chodzi tylko o statystyki: czy i ile Twoich dzieci dożyło wieku rozpłodowego i ile było wnuków.
Jakość nie ma znaczenia.

Oczywiście, jest masa przykładów na to, że optymalną (z tego ewolucyjnego punktu widzenia) dla zwierzęcia strategią wcale nie jest rodzić dzieci na potęgę, tylko skupić się (i swoje zasoby) na jednym czy dwóch, bo jak będzie mieć ich troje, to w efekcie np. wszystkie umrą z głodu czy w bratobójczej walce.
Ale w przypadku ludzi to nie jest tak, że dziecko biedne ma mniejsze szanse dać Ci wnuki.
Dopóki kraj gwarantuje opiekę medyczną, edukację, a jakby tego było mało jeszcze zasiłki, becikowe i wsparcie, tak długo dzieci będą być może cierpieć, być może nie będą miały dostępu do super edukacji, fajnej pracy ani super zdrowia, ale wieku rozpłodowego dożyją.

Możemy się łudzić, że wraz z rozwojem cywilizacji, edukacji, dostępu do antykoncepcji czy lepszego planowania życia/kariery ludzie się opamiętają.
Możemy wierzyć w wydawanie kasy na edukacje seksualną, lekcje przedsiębiorczości czy logiki.
Ale to jest myślenie które w ogóle nie bierze pod uwagę tego jak w niesamowicie nieracjonalny sposób działa psychologia ewolucyjna.

Możemy myśleć, że przy pomocy antykoncepcji zjemy ciastko i będziemy mieć ciastko, sprytnie omijając banalny do obejścia system "wymyślony" przez naturę.
Ha ha, głupia natura premiowała uprawianie seksu zamiast rodzenia dzieci a my ją przechytrzyliśmy i teraz sobie spokojnie zestarzejemy i wyginiemy jak na ludzi z zachodu przystało.
Otóż nie.
Każda taka "racjonalna" osoba robi po prostu miejsce dla osoby (nazwijmy to, nie chcę tu nikogo obrazić) irracjonalnej, która wykorzysta tę niszę.
Wyobraź sobie, że w karykaturalny sposób, że tak jak ileś milionów lat temu "genialnym pomysłem" ewolucji było by ludzie odczuwali radość z uprawiania seksu, może gdzieś teraz powstaje i dobrze prosperuje nowy szczep ludzi, których "dobrą zmianą" jest to, że odczuwają radość na samą myśl o seksie bez zabezpieczenia, lub na widok udostępnianych na fb zdjęć dzieci.
Może Ci się to wydawać głupie, lub przeciwnie - może już dostrzegasz to zjawisko. Nie ma znaczenia. To tylko kwestia czasu i liczb - "life will find the way".
Może Ci się wydawać niemożliwe by ktoś mógł jednocześnie być na co dzień racjonalnym pracownikiem korporacji a "po godzinach" czuć nieracjonalny pociąg do płodzenia dzieci.
Aż do momentu gdy sobie uświadomisz, że Twój pociąg do seksu, czekoladek, czy wygrywania kłótni również nie ma żadnej racjonalnej przyczyny i najpewniej powstał w ten sam sposób i że nikt nie robi wiele szumu w koło tego że można być jednocześnie skutecznym politykiem/menadżerem/whatever ale nie umieć oprzeć się kawie.
Niespójny sposób myślenia to chleb powszedni dla każdego z nas - i wiele z tych niespójności da się wyjaśnić łącząc się psychologi ewolucyjnej z potrzebą do jako-tako sprawnego funkcjonowania.

System będzie dążył do balansu między "pro-choice" i "pro-life" (może to nienajlepsze nazwy?) wprowadzając "na rynek" osoby, które nie podzielają tego samego systemu wartości co "samobójczy myśliciele".
I możemy łatwo wpaść w pułapkę "tłumaczenia" ich zachowania w "przyczynowo-skutkowy" sposób: zwalać ich zachowanie na inną religię, inną narodowość, inne wychowanie, braki w edukacji itp.
Ale prawda jest znacznie prostsza: to statystyka.
I to może hamować nasz postęp technologiczny, cywilizacyjny czy duchowy (no chyba, że wartości takie jak zapewnienie dziecku pieniędzy, edukacji, dobrej pracy i dachu nad głową nie uważamy za "cywilizowane" wartości?).
Mnie to smuci. Ktoś może mnie pocieszać, że to hipotetyczne ekwilibrium między "cywilizacją" a "zacofaniem" nie dotyczy homo-sapiens, bo w odróżnieniu od świata zwierząt, którym rządzi Darwin, naszym rządzi kasa i ludzie z "wyżyn społecznych" po prostu będą lepiej prosperować i nie wyginą tak łatwo, w razie czego po prostu ogrodzą się w swoim Elizjum, zuploadują do internetu, czy co tam robią elyty.

I tu dochodzimy do drugiego członu socjal-demokracji - jest nim demokracja, czyli idea, że liczba głosów odpowiada liczbie potomstwa i, że każda próba pogwałcenia tej zasady jest niemoralna i naprawiana natychmiast.
A zatem S-D daje wybuchowe połączenie dwóch elementów: niwelowania kosztów posiadania potomstwa i tworzenia sprzężenia zwrotnego w systemie podejmowania decyzji.
Zdejmuje zatem zawór bezpieczeństwa z mechanizmu prokreacji i potem jeszcze podgrzewa go reakcją łańcuchową.

Warto sobie zadać pytanie, czy jeśli rodzina decyduje się na dziecko dla 500zł, to czy jest to na pewno odpowiednia rodzina by to właśnie w niej trafił kolejny bobas z bocianiej kolejki.
Nie chcę nikogo urazić, ale czuję, że w interesie dziecka to nie leży.

piątek, 13 listopada 2015

Dlaczego warto uczyć się matematyki?

(taką mniej-więcej mowę miałem okazję wygłosić na lekcji matematyki w XV LO)
Odpowiem na to pytanie bardzo osobiście, poprzez wyjaśnienie dlaczego wierzę w portal matmat.edu.pl.

Zamieszkujemy jako homo sapiens straszną niszę ekologiczną - niszę, w której dominację zdobywa się nie siłą mięśni, ale siłą intelektu.
To jest straszne, bo jeśli próbujesz z białkowatej breji zbudować komputer, to ciężko o taką precyzję by dać mózgowi dość mocy obliczeniowej by umiał unikać śmierci ze strony drapieżnika, samemu polować i zabijać inne zwierzęta, a jednocześnie by nie dotarła do niego dość oczywista, straszna, prawda.

Ja umrę.
Moja żona - umrze.
Mój roczny synek - też kiedyś umrze.

Oczywiście homo sapiens nie zaszłoby daleko, gdyby każdy kto dochodzi do tego fundamentalnego być albo nie być, zaszywał się chlipiąc w kącie i popadał w depresję lub popełniał samobójstwo.
Z definicji, ci którzy popełniali samobójstwa nie przetrwali:)
Wykształciły się więc różne paradoksalne mechanizmy radzenia sobie z niewygodnymi prawdami takie jak wyparcie czy racjonalizacja.

I pewnie dlatego tak rzadko słyszymy z czyichś ust "ja umrę".
Widzę po waszej reakcji, że to oczywiste przecież i nie zawierające żadnej nowej informacji robi na Was wrażenie (na mnie też).
Matka natura już o to zadbała, byśmy nie myśleli o niej przynajmniej do czasu rozpłodu.
Pamiętam doskonale z czasów liceum, że nie byłem jedynym chłopakiem w klasie, który zamiast o śmierci myślał o rozpłodzie :)

Sam lęk przed śmiercią, jako instynkt samozachowawczy oczywiście jest bardzo pomocny genom w ich replikacji.
Jest świetną wskazówką na temat krótkoterminowej taktyki jaką należy obierać w każdym ruchu wielkiej gry jaką jest życie - nie wpadnij do rowu, jedź wolniej, pij wodę.
Jednak, jeśli niczym szachista, umiemy myśleć na wiele ruchów do przodu i odkrywamy, że każda sekwencja i tak doprowadzi nas do przegranej, to odechciewa się grania.

Ale, są też inne mechanizmy, które wypracowaliśmy na wyższym poziomie: nie pojedynczego człowieka, ale całych cywilizacji.
Są miliardy ludzi, którzy widząc przed sobą skończony odcinek ludzkiego życia, zaklinają rzeczywistość mówiąc do siebie nawzajem: życie to półprosta.
Człowiek jest nieśmiertelny, a umiera tylko jego ciało.
Inni idą nawet dalej - powtarzają mantrę, utwierdzając siebie nawzajem, że życie to prosta. Że nie tylko nie umieramy, ale i nie rodzimy się, bo jesteśmy wieczni i tylko zmieniamy ciała w naszej wędrówce.
Jeszcze inni, i do tych chyba mi najbliżej, mówią na odwrót: owszem, nie rodzimy się i nie umieramy, bo w ogóle nie istniejemy.
Ten aksjomat, że "myślę więc jestem", uznają za błędny i wynikający z błędnego założenia, że "myślę".
Jeśli skreślimy podmiotowość z procesu myślenia, jeśli uznamy, że to nie "ja myślę", ale "myśli pojawiają się w mojej głowie", jako efekt uboczny pewnych procesów w mózgu, nabiera to sensu.
Jeśli otwieram drzwi i wchodzę do Waszej sali a w głowie pojawia się "raport" od jednego z systemów "wchodzę do sali", to łatwo jest nam go pomylić z rozkazem "wchodzę do sali!".
W ten sposób promujemy siebie z roli obserwatora rzeczywistości do jej kreatora - bardzo kuszący awans i może dlatego ludzie chcą w niego wierzyć.

Ale to wszystko tylko, za przeproszeniem, leczenie syfa pudrem.
To tylko PRowe zarządzanie olbrzymim kryzysem jakim jest siedzenie w 7 mld ludzi z wyrokiem śmierci na wirującym w koło nic nie znaczącej gwiazdy pyłku, poprzez piękne słowa i zamiatanie problemu pod dywan i nijak nie rozwiązuje pierwotnego problemu jakim jest śmierć.
Oczywiście to nie jest tak, że ludzkość przez tysiąclecia była zajęta tylko gadaniem i nie popełniła żadnych znaczących postępów na froncie ze śmiercią.

Nie tylko ogarnęliśmy ogień i ubranie by nie umrzeć z zimna, ale dzięki rozwojowi metody naukowej przez ostatnie paręset lat udało się wydłużyć i uprzyjemnić naszą agonię.
Dzięki medycynie średnia życia jest teraz ze dwa razy dłuższa, umieralność noworodków kilka razy mniejsza, jakoś życia wyższa - swoją drogą wielka szkoda, że ruszyliśmy z nią dopiero w renesansie, a nie tysiąc lat wcześniej, gdy Marek Terencjusz Warron miał przebłysk geniuszu stwierdzając, że wszystkie choroby to nie efekt kary za grzechy, czy złego powietrza, ale wynik działania małych niewidocznych dla oka żyjątek, które wchodzą do organizmu przez nos i usta.
Niestety nie umiał zbudować mikroskopu, ani w inny sposób przekonać ludzi, że to właściwy kierunek, w efekcie mieliśmy 1000 lat niepotrzebnych śmierci i cierpienia, by na koniec przyznać mu rację.
O ironio, trudno odmówić jego współczesnym rozsądku - to bardzo racjonalne by uznać kogoś, kto nie ma eksperymentalnych dowodów na poparcie swoich tez o niewidocznych stworkach za niewartego słuchania.

W każdym razie: życie jest co raz dłuższe i przyjemniejsze, ale czymże jest nawet najprzyjemniejszy sen jeśli po przebudzeniu uświadamiasz sobie, że był to tylko sen, lub co gorsza zapominasz go i sen znika?
Muszę przyznać wierzącym jedno: bardzo ciężko nadać sens i wartość życiu, które ma koniec.

Brzmi to (i brzmiało przez tysiąclecia) dość dołująco.
WTEM! Oto mamy dziś 2015 rok i zupełnie poważni ludzie - których powaga liczy się nie tylko oglądalnością czy liczbą lajków, ale milionami dolarów powierzonych im przez takie giganty jak google - poważni ludzie mówią nam, że całkiem prawdopodobne że w okolicach 2050 roku ogarniemy nieśmiertelność.

Dajcie sobie chwilę czasu by wyobrazić to sobie nie jako spekulację z komiksu SF, tylko dokonany fakt.

Otwieracie gazetę a tu na pierwszej stronie ... Będziecie wtedy mieli koło 50tki, ja będę po 60tce, a mój synek ... będzie właśnie w tym wieku w jakim jestem teraz, więc to pewnie jego pokolenie dokona tego przełomu.
Będę sobie siedział w fotelu czekając na emeryturę i nagle dowiem się z newsów, że wygraliśmy. Że wygrałem w życie!

A teraz pomyślcie bardziej racjonalnie - całe życie spędziliście w demokratycznym, kapitalistycznym kraju, więc już trochę rozumiecie jak to działa.
Każdą ustawę można kupić, a bogactwo każdej firmy można pomnożyć kolejną ustawą.
Jak sądzicie, gdy google wynajdzie patent na życie wieczne, co z nim zrobi?

Do głowy przychodzą mi więc dwa pokojowe rozwiązania: postarać się by w 2050 roku być wśród bogatej elity która stać będzie na abonament (no bo, chyba zauważyliście, że wszystko teraz sprzedaje się jako usługi a nie towary) albo postarać się by prawo gwarantowało ludziom równe prawo do życia i szczęścia.
Jedna i druga opcja będzie łatwiejsza do osiągnięcia jeśli będziemy myśleć, rozmawiać i działać racjonalnie.

Nikt nie mówi jednak, że będzie prosto - pojawią się nowe problemy.
Już samo dożycie do 2050 roku wymaga trochę racjonalnych decyzji : nie ćpać, jeździć autem ostrożnie, a rowerem w kasku, chuchać i dmuchać na siebie.
W ubezpieczeniach czasem oblicza się ryzykowność danej akcji (np. jechanie autem bez zapiętych pasów) mnożąc prawdopodobieństwo śmierci przez oczekiwaną długość życia - jeśli jest szansa pożyć 80 lat, a ryzyko wypadku to 1 na milion, to oznacza, że taka nonszalancja kosztuje nas 80/1000000 roku życia, czyli około jednego dnia.
Jeśli życie może być nieskończenie długie, to w liczniku pojawia się nieskończoność i każde nawet najmniejsze niezerowe ryzyko niesie ze sobą nieskończenie wielką stratę - nie warto:)

Problemem jest też samo wynalezienie nieśmiertelności.
Jest co najmniej kilka widocznych dróg do tego celu i może stąd wysoka pewność tych predykcji.
Po pierwsze hodowanie zapasowych części - już teraz drukarki 3D tworzą stelaże na których hoduje się tkanki, komórki macierzyste zastępują zniszczone ubytki, a komórki dojrzałe potrafimy cofać w rozwoju i odmładzać.
Po drugie genetyka - w ciągu ostatnich kilkudziesięciu lat przeszliśmy długą drogę od analfabetyzmu przez zrozumienie alfabetu DNA, jego słów i całych zdań. Zaczynamy rozumieć sens tego programu i umieć programować, a ostatnio wprowadzone metody takie jak CRISPR pozwalają edytować genom nie tylko kolejnego pokolenia, ale łatać w locie już istniejące osobniki - realizując tym samym Lamarkowski pomysł na ewolucję: po co rodzić nowe pokolenia i zabijać stare tylko po to by dokonać zmiany - poprawmy samych siebie. A więc mówimy nie tylko o tym by dzieci były wolne od chorób dziedzicznych, ale też o tym, by wyleczyć tych którzy już teraz chorują.
Po trzecie nanotechnologia - nanoboty mogą krążąc w krwiobiegu wspierać białe krwinki w oczyszczaniu organizmu, walce z infekcjami, naprawianiu komórek rakowych itd.
Po czwarte wzrost mocy obliczeniowej komputerów w końcu dojdzie do momentu gdzie będziemy mogli symulować ludzki mózg... a potem być może go może przekroczyć.

Każda z tych dróg rodzi setki ciekawych i bardzo trudnych pytań na które nikt wcześniej nie musiał odpowiadać.
Jak i czy rozgraniczać pomiędzy standardowym homo sapiens, a post-humanami?
Czy procesy potomne uruchomione przez proces posthumana uruchomionego na sieci komputerów powinny po nim dziedziczyć czy nie?
Czy powinny mieć tyle głosów w demokracji ile jest ich kopii czy powinny je współdzielić?
Jakie mają obywatelstwo jeśli są hostowane w chmurze rozproszonej globalnie?
Czy wolno wskrzesić kogoś wbrew jego woli, tylko dlatego, że się go kochało?
Czy dostęp do organów powinien być na NFZ czy płatny i czy powinny być kary za nieszanowanie swojego ciała?
A cudzego?
Jak definiować i karać zbrodnie w świecie nieśmiertelnych ludzi?
Czy wolno odmówić leczenia biednej osobie, która obiecuje, że spłaci kredyt w ciągu najbliższych 1000 lat?
Czy wolno dawać komuś kredyt na 1000 lat?

Nie znam odpowiedzi na żadne z tych pytań. Ja będę miał wtedy 60 lat.
Czy matematyka odpowie na te pytania? Nie.
Na pytania odpowiedzą ludzie, młodsi ode mnie.
Jak przygotować ich na nieznane?

W roku 1968, czyli kiedy rodzili się Wasi rodzice, pan Douglas Engelbart zrobił coś co jest dla mnie niesamowitą inspiracją do robienia matmat.
Postawiony przez NASA i DARPA przed astronomicznym zadaniem pomocy w programie rakietowym, stwierdził, że nie umie sam rozwiązać tych wszystkich problemów związanych z lotami w kosmos.
Co więcej, że najpewniej żadna jedna osoba, ani nawet zespół siedzący w jednym pokoju przy jednej tablicy, nie jest w stanie tego ogarnąć.
Żeby wyskalować się w górę, do kilkudziesięciu-tysięcznej instytucji rozwiązującej jeden problem, potrzebne były nowe narzędzia - i on skupił się na dostarczeniu narzędzi.
Możecie sobie wygooglać pod hasłem Mother Of All Demos, film, kręcony co prawda czarno-białą kamerą, ale ukazujący prezentację, na której facet pokazuje stworzony przez jego zespół system, wyprzedzający o kilkadziesiąt lat mainstream.
Zamiast tekstowych konsoli - graficzne monitory pokazujące okienka z aplikacjami, nie jedną - a kilkoma na raz, obsługiwanymi nie klawiatarą - a myszką.
Komputery połączone ze sobą siecią, umożliwiającą współtworzenie dokumentów na żywo, ze wsparciem dla wideokonferencji, linków między dokumentami itd.
Czyli wymyślił wszystko co odtąd widzieliście w innych prezentacjach (internet,wikipedia,google docs, skype, windows...), stąd została ona retrospektywnie nazwana "matką wszystkich pokazów".

Menadżerowie czasem klasyfikują pracowników na cztery grupy:
- adders
- subtractors
- multipliers
- dividers
"Dodawacze" robią swoją robotę, popychając firmę do przodu, sprzedają towary itd.
"Odejmowacze" przeciwnie, marnują tylko czas i pieniądze firmy.
"Mnożniki" robią znacznie więcej niż dodawacze, bo sprawiają, że dodawacze dodają jeszcze więcej - tworzą rozwiązania systemowe które podnoszą sprawność całej firmy - pomagają poprawić atmosferę w pracy, reogranizują jej procedury, itd.
"Dzielaczy" nie chcecie mieć w firmie.

Douglas Engelbart był niesamowitym mnożnikiem, ale wyszedł z bardzo skromnej pozycji: nie wiem jak się lata w kosmos, ale wierzę, że inni to ogarną o ile im pomogę.
Dość nieskromnie powiem, że mam podobnie: nie umiem powiedzieć jak osiągnąć nieśmiertelność ani jak rozwiązać problemy moralne i prawne które się pojawią.
Mojego własnego synka staram się uczyć nie tyle konkretnych umiejętności, co meta umiejętności, tak by jego pokolenie umiało się zmierzyć z tymi pytaniami.
Ten przedrostek "meta-" oznacza o jeden poziom abstrakcji wyżej: umiejętności pozwalające zdobywać umiejętności.
Na przykład:
- nie bać się pytać
- nie bać się eksperymentować i popełniać błędy
- uczyć się na błędach
- umiejętność dostrzeżenia problemu i ocenienie czy warto go rozwiązywać
- umiejętność sformułowania go w jednoznaczny, precyzyjny i zrozumiały przez innych sposób
- umiejętność postawiania klarownych kryteriów jakie musi spełniać poprawne rozwiązanie
- umiejętność zdefiniowania sposobu oceny które rozwiązanie jest lepsze, a które gorsze
- umiejętność argumentowania swoich racji i dowodzenia ich poprawności
To są meta-umiejętności - umiejętności pozwalające zdobywać nowe umiejętności.
To się pokrywa z metodą naukową, która pomogła nam stworzyć medycynę, latać w kosmos, a za kilkanaście lat osiedlić się na Marsie.
Wszystkie te meta-umiejętności można trenować rozwiązując zadania z matematyki.
Nie chodzi bowiem o to byście umieli zacytować wzór na trójmian kwadratowy - narzędzia takie jak wolframalpha czy mathematica rozwiązują tego typu znane problemy za Was.
Sztuką jest to byście się nauczyli precyzyjnie formułować myśli, dekomponować problemy, uczyć się na błędach, cenić prawdę.
Nauczyli się uczyć.
Wymyślili jak myśleć. Poziom meta.
Te umiejętności można zdobywać pewnie nawet lepiej ucząc się fizyki, ale fizyka nie jest obowiązkowa na maturze.
Jeszcze łatwiej i szybciej można iterować z eksperymentami w informatyce, ale dobrych nauczycieli informatyki ciężko znaleźć bo rynek tworzy olbrzymią presję finansową wyciągającą ich z budżetówki.
Widzę więc w lekcjach matematyki jedyną szansę, by nauczyć ludzi racjonalnego myślenia.

Oczywiście są też meta-umiejętności, których matematyka w obecnie nauczanej formie nie wspiera, np. umiejętność współpracy w grupie.

Współtworząc matmat chciałem zrobić chociaż mały krok popychający ludzi w stronę racjonalności - promując takie idee jak eksperymentowanie, uczenie się na błędach, rozbijanie problemu na podproblemy, systematyczność, wiara we własne możliwości.
Jeśli kilkaset tysięcy maturzystów rocznie będzie chociaż o ciupinkę bardziej racjonalna dzięki temu systemowi, to o tą ciupinkę wzrasta szansa, że uda nam się przetrwać do 2050 roku, poczynić odpowiednie odkrycia i ogarnąć problemy, które one generują.
I ta ociupinka przemnożona przez nieskończoność to nadal jest nieskończoność, więc moim zdaniem - warto.




sobota, 4 lipca 2015

Singularity Sringularity

Singularity

Chciałbym najprzystępniej jak tylko się da, podzielić się moimi wątpliwościami na temat singularity.
Na wstępie uprzedzę, że mimo, że temat jest bliski mojemu sercu, jako informatykowi, to absolutnie nie uważam się za eksperta w dziedzinie sztucznej inteligencji, sieci neuronowych czy innych rzeczy o których będę pisał, zatem pytania, które poniżej formułuje należy rozumieć właśnie tak - jak pytania. Chętnie sam poznałbym na nie odpowiedzi.

Czym jest singularity?

Można pewnie definiować to pojęcie różnie. A zatem można i tak, by było łatwiej (ciekawiej!) z nią polemizować:)
Chciałbym dzisiaj polemizować z takim oto podejściem:
Ludzie budują co raz szybsze komputery . W końcu zbudują komputery inteligentniejsze od nas, które będą mogły skonstruować jeszcze doskonalsze maszyny, itd. itd. a wszystko to w coraz szybszym tempie, aż w końcu zwykłe homo-sapiens nie będą w stanie nadążyć ani nawet zrozumieć co jest grane.
Rozumowanie to opiera się między innymi na prawdziwej obserwacji, że jak dotąd moc obliczeniowa komputerów podwaja się co półtora roku ("prawo Moorea").

Jest też moim zdaniem oparte na szeregu innych założeń, które być może są prawdziwe, ale wypadałoby wspomnieć o nich w jawny sposób, a nie ukrywać gdzieś między wierszami.

Mentalny model jaki buduje mi się w głowie gdy słyszę powyższe podejście do singularity, to jakiś taki wykres, który na osi OX umiejscawia inteligencje twórcy, na osi OY inteligencję tworzonej przez niego maszyny.
Koncepcja zdaje się zakładać, że wykres wiedzie wciąż do góry (czyli, że gdy x<X to f(x)<f(X)), więc gdy tylko ludzkość dojdzie do momentu gdy będzie potrafiła się udoskonalić (czyli x<f(x)), to także kolejne generacje będą co raz lepsze (x < f(x) < f(f(x)) < f(f(f(x))) < ... ).

Czy inteligencja jest tym czymś co decyduje o inteligencji budowanych komputerów?

Innymi słowy, czy ten mentalny obraz "funkcji z inteligencji w inteligencję" jest w ogóle uzasadniony?
Czy taka funkcja w ogóle istnieje i czy ma znaczenie dla tych rozważań?
Z mojego bardzo ograniczonego doświadczenia z pracy w IT mogę powiedzieć, że inteligencja pracowników absolutnie nie jest istotnym ograniczeniem tego co firma potrafi zrobić.
Znacznie ważniejsze są takie kwestie jak marketing (czy będziesz umiał znaleźć nabywcę na swój zajebisty pomysł?), komunikacja wewnątrz firmy (czy będziesz umiał wytłumaczyć o co Ci chodzi współpracownikom?), oczekiwania inwestorów (ale czy zdążysz to zrobić w ciągu następnego kwartału?), strategia biznesowa (ale czy nie lepiej zrobić to gorzej, żebyśmy mogli sprzedać tego więcej, taniej i częściej?)...itp.
Nie wiem jak to wygląda w laboratoriach Intela gdzie pracują nad procesorami, czy w firmach zajmujących sie AI.
Domyślam się, że pracują tam zajebiście inteligentnie ludzie.
Ale czy gdyby byli dwa razy bardziej inteligentni to robiliby szybsze procesory?
Czy przypadkiem to co ich ogranicza to nie np. prawa fizyki (prędkość rozchodzenia się prądu, czy światła w układach scalonych), budżet, albo konieczność zapewnienia miejsc pracy, stanardów ISO, czy wypełnienia planu dotacji z UE?
Umiem sobie wyobrazić, że przynajmniej problem komunikacji może odpaść gdy tysiącosobową firmę zastąpimy jedną AI.
Ale to i tak tylko przy założeniu, że będzie ona działać zupełnie inaczej niż my działamy (a z tego co widze, to informatyka jak na razie zachłystuje się naśladownictwem, a zatem AI będzie potrzebowała chociaż przysłowiowej "gumowej kaczki" by mieć z kim pogadać, a prawdopodobne że także kilku innych prawdziwych dyskutantów).

Czy inteligentniejsza maszyna umie zbudować inteligentniejszą maszynę?

To trochę bardziej precyzyjna wersja poprzedniego pytania.
Chodzi mi o to, że np. to, że jeden człowiek jest bardziej inteligentny od drugiego, wcale nie koniecznie oznacza, że ma większe umiejętności akurat w budowaniu komputerów. Całkiem prawdopodobne że w ogóle nawet nie umie tego robić:) Za to np. jest świetnym politykiem.
Ale może cofnijmy się jeszcze o krok?

Czy w ogóle jakiś komputer umie obecnie zbudować jakiś komputer?

Bo jeśli nie, to znaczy, że nie tylko prawa strona wykresu (ta z prognozą przyszłości) ale też lewa (ta z danymi historycznymi) są wyssane z palca - jak na razie nie możemy na nim postawić żadnej kropki!
W tej sytuacji, prognozowanie co będzie dalej z tym wykresem wydaje się trochę śmieszne.
O ile mi wiadomo, żaden komputer jak na razie nie umie niczego sam od A do Z zaprojektować a co dopiero wykonać.
Myślę, że byłoby super ciekawym zacząć prowadzić jakiś rejestr/ranking sukcesów na tym polu.
Jeśli w końcu uda nam się stworzyć komputer który stworzy sam od A do Z chociaż kalkulator, będziemy mieli w końcu pierwszy punkt na wykresie i będziemy mogli zacząć się jarać jego kształtem.

Czy szybkość procesorów przekłada się na inteligencję?

Tutaj odpowiedz, to oczywiście nie. Tzn. przynajmniej dla kogoś pracującego z komputerami na codzień, jasne jest, że na chwilę obecną najlepszą analogią dla komputera jest "wyobraź sobie głupią małpę, ale taką, która robi wszystko 100x szybciej".
(To moja ulubiona analogia zaraz obok tej: "wyobraź sobie dżina, który spełnia każde Twoje życzenie, ale robi to spełniając je co do joty literalnie, w efekcie nigdy nie dając Ci tego o co Ci chodziło").

Dla osoby spoza IT może być trudno zauważyć różnicę między bardzo mądrze przemyślanymi przez ludzi algorytmami, które sprawiają, że google potrafi wskazać bardzo dobre wyniki wyszukiwania w ułamku sekundy, a bardzo nieprzemyślanymi sieciami neuronowymi, które w równie zawrotnym tempie potrafią rozpoznać kotka na obrazku.

Aby zrozumieć dalszą część mojego wpisu, moim zdaniem konieczne jest zrozumienie tego rozgraniczenia.
Mamy jakby dwa podejścia w informatyce.

Jedno polega na tym, by super zdolnych informatyków poprosić o wymyślenie super sprytnego sposobu na rozwiązanie czegoś.
Jeśli np. pamiętasz z liceum wzór na deltę i sposób znajdywania miejsc w których parabola przecina się z osią OX przy pomocy wzoru na tę deltę to właśnie o coś takiego chodzi - jakiś matematyk siedział długo aż wymyślił idealny wzór na to jak to robić poprawnie.
W informatyce odpowiednikiem matematyka jest informatyk, a odpowiednikiem wzoru jest algorytm.

Ale być może znasz też inny sposób na znalezienie rozwiązania równania - "przez zgadywanie".
Ludzie robią to non-stop. Np. gdy łapiesz rzuconą do Ciebie piłkę, która leci przecież po (z grubsza) paraboli, to nie rozwiązujesz w tym celu równania kwadratowego.
Stosujesz tzw. heurystykę, czyli coś co z grubsza działa, ale nie do końca da się wytłumaczyć czemu, czasem się myli i ogólnie nie jest jakieś bardzo precyzyjne.
Może masz np. kilka zapamiętanych wzorców (gdy piłka leci mi na twarz, to muszę rękę dać w to miejsce).
Może stosujesz tzw. wyszukiwanie binarne (próbujesz dać rękę w jakiekolwiek miejsce i jak się nie uda, to przesuwasz ją w lewo lub prawo w zależności od tego co da lepszy efekt itd.).
A może masz po prostu zajebiście wyćwiczoną sieć neuronową, która robi dokładnie to co trzeba, ale nie bardzo umie to wytłumaczyć komuś innemu.
(Tak jak nie każdy sportowiec jest super trenerem, nie każdy matematyk dobrym pedagogiem, a Pendolino nie umie Cię nauczyć biegać).
Tego typu podejście, pozwala często znaleźć odpowiedź, mimo, że nie bardzo daje wiedzę na temat tego, jak w zasadzie udało nam się rozwiązać ten problem.
W informatyce stosuje się do tego np. tzw. sieci neuronowe, albo algorytmy genetyczne - programista nie musi wiedzieć jaki "wzór" opisuje kota, by komputer nauczył się go rozpoznawać. Wystarczy metodą prób i błędów "wytresować" komputer - pokazujemy mu 1000 zdjęć z kotem, 1000 bez kota i każemy zgadywać nagradzając za każdy sukces i karząc za porażkę. Można sobie łatwo wyobrazić jak wygląda taka sieć neuronowa poprzez analogię do korporacji. Główny dyrektor potrzebuje podjąć jakąś decyzję, w tym celu prosi o raport od podlegających mu menadżerów, a Ci scedowują pracę na swoich minionów. Następnie raportują wyniki swojej pracy w górę, na każdym piętrze dokonując pewnej agregacji (np. mając raporty od 5 podwładnych sumują ich wyniki, albo np. przedstawiają wyniki 3 najlepszych branchy). Na koniec szef podejmuje decyzję, a za pół roku jest albo wściekły i przekazuje opierdol w dół łańcucha do osób które wprowadziły go w błąd, albo przeciwnie nagradza tych którzy mu pomogli. Z czasem w firmie wykształca się pewien schemat zaufania - wiadomo kto kogo darzy estymą, a kogo lepiej nie słuchać. Podobnie w sieci neuronowej, neurony najniższego szczebla mogą np. przyjmować dane bezpośrednio z natężenia koloru pojedynczych pixeli, kolejne piętra mogą wykrywać plamy, krawędzie, czy narożniki, następne piętra odpowiadają za kształty, figury, gradienty, dalej bryły, cienie itd, aż w końcu dyrektor umie powiedzieć czy widzi kota czy nie.

Problem z tą analogią jest przede wszystkim taki, że w firmie często wiadomo kto za co odpowiada ("dyrektor do spraw łap").
W sieci neuronowej, która rośnie metodą prób i błędów niemal organicznie, nie da się jasno wskazać do czego w zasadzie służy dany neuron.
Można oczywiście (jeśli znajduje się on w pamięci komputera, a nie w ludzkim mięsie) popatrzeć jak reaguje na różne dane wejściowe, czy wręcz sprawdzić na konkretne liczby które rządzą jego działaniem.
Ale to, że neuron oblicza funkcję x*7+y*5-z*0.1<17 raczej nie pomoże Ci zrozumieć, na czym polega sprawdzenie czy to kot czy nie kot.


(To nie do końca prawda - można np. obserwować w jakich sytuacjach dany neuron wykazuje aktywność i próbować odgadnąć na co reaguje - np. odkryć że reaguje na rude prążki u kotów. To trochę śmieszne odwrócenie ról - najpierw mieliśmy sieć, która próbowała nauczyć się pojęcia "kot", a teraz mamy programistę, który próbuje odgadnąć pojęcie rozpoznawane przez dany "neuron". Tak czy owak to, że Ci powiem, że dana lampka na desce rozdzielczej oznacza, że olej się przegrzewa, nijak nie pomoże Ci zrozumieć jak do tego doszło i jak zoptymalizować pracę silnika).

Dlatego ten sposób rozwiązywania problemów nazwałbym "rozwiązywaniem nie wiedząc co się do cholery robi".
Owszem, problem jest rozwiązany.
Ale nie wiemy jak i czemu.
Gdzie w tym problem?

Czy jeśli nie wiemy jak coś działa to czy umiemy to zoptymalizować?

Jeśli mamy algorytm przygotowany przez naukowców, to jest szansa, że rozumieją oni jak on działa i myśląc ciężej, dłużej lub wprowadzając nowe osoby do zespołu myślącego nad algorytmem, może się udać go usprawnić lub odkryć lepszy.
Ale patrząc na breję mięsa w naszej czaszce raczej nie wymyślimy jak tu coś poprawić.
Jeśli więc naszym planem na zbudowanie sztucznej inteligencji mają być sieci neuronowe i kopiowanie ludzkiego sposobu myślenia, to podejrzewam że utkniemy na tym, że ani my, ani ten potencjalnie inteligentniejszy brejowaty twór w pamięci komputera, nie będziemy wiedzieli co zrobić by uczynić krok na przód w rozwoju tej breji.
Nie spodziewalibyśmy się przecież, że Pendolino wyjaśni nam jak to robi, że jeździ tak szybko, albo żeby się samo zoptymalizowało i jeździło jeszcze szybciej, tylko dlatego, że przekroczyło prędkość z jaką porusza się człowiek.
Umieć coś zrobić, a umieć udoskonalić ten proces, to dwa różne poziomy abstrakcji.
Przykład z pociągiem jest jasny jak słoneczko, a jednak gdy mówimy o komputerach to jakoś nagle zaczynamy się gubić i mieszać - zapewne przez to, że nie do końca rozumiemy na czym polega proces myślenia, więc różne jego odmiany wrzucamy do jednego wora.
Nie wrzuciłbym do jednego wora szybkiej jazdy i umiejętności stworzenia kogoś kto szybko biega.
Ale wrzucić do jednego wora umiejętność szybkiego liczenia i umiejętność stworzenia komputera liczącego jeszcze szybciej - jakoś dziwnie często tak.

Czy budowanie komputera na wzór mózgu ma szanse dać coś lepszego od ludzkiego mózgu?

Po pierwsze - jeśli tędy droga, to czemu ewolucja nią nie idzie dalej?
No chyba, że idzie ale bardzo wolno.
Ponoć średnie IQ rośnie z roku na rok, ale zdaje się nie wynika to ze zmian genetycznych czy biologicznych (bo jak sądzę: presja selekcji naturalnej jakoś niespecjalnie faworyzuje IQ - patrz starzejące się społeczeństwa krajów rozwiniętych cywilizacyjnych) tylko raczej ze zmian w nauczaniu ("memetyka") - uczymy się co raz lepiej wykorzystywać to co mamy.
W szczególności: uczymy się rozwiązywać testy IQ - mają one dość typową budowę i w tym jesteśmy co raz lepsi bo od małego się uczymy je rozwiązywać - kiedyś tak nie było.
No ale nawet przyjmując, że natura nadal rozwija nasze mózgi, tylko powoli, to mam inne wątpliwości.
Samochody nie mają dużych muskularnych nóg.
Samoloty nie machają skrzydłami.
Zwierzęta nie latają w kosmos.
Wzorowanie się na naturze może pomóc, ale często jest chyba tak, że aby zrobić coś lepiej niż natura ... trzeba zrobić coś inaczej niż natura.
To w sumie logiczne - gdyby natura umiała zrobić zwierzętom koła, albo śmigło, to by zrobiła.

Czy ilość przełoży się na jakość?

Jak na razie naszym głównym sposobem na robienie lepszych komputerów jest robienie "większych" komputerów :)
Nie koniecznie większych w sensie rozmiarów, ale np. w liczbie tranzystorów czy innych liczb.
To się całkiem dobrze sprawdza gdy mamy jakiś algorytm i chcemy by działał szybciej.
Ale to nie zwiększa jego "sprytu" a jedynie szybkość.
Czasem ta większa szybkość pozwala przetworzyć większą ilość danych czy kombinacji w tym samym czasie i dzięki temu znaleźć lepsze rozwiązanie, ale ogólnie nie powiedziałbym, że wpływa to jakoś istotnie na "inteligencję" rozwiązania. To dalej ta sama głupia małpa tylko 100x szybsza.
Jeśli uważamy, że jakiś problem przerasta homo-sapiens i nawet w 100 lat go nie rozwiążemy, to nie oczekujmy, że 100x szybsza małpa go rozwiąże w rok.
Większa moc obliczeniowa na pewno pomaga też zbudować większe czy szybsze sieci neuronowe.
Bez trudu umiem sobie wyobrazić dokładanie kolejnych warstw do hierarchii w firmie, czy do sieci neuronowej.
Co innego jeśli ta sieć ma być zbudowana na obraz ludzkiego mózgu (co wyobrażam sobie np. tak, że hibernujemy jakiegoś geniusza, skanujemy jego mózg i dokładnie kopiujemy jego strukturę do komputera).
Nie jestem przekonany, że ludzkie mózgi są skalowalne w ten sam sposób co "zwykłe" sieci neuronowe.
Czy dodanie większej ilości mięsa do czaszki magicznie zrobi z Ciebie geniusza?
Do dziś nie rozumiem jak to w zasadzie jest, że pszczoła czy koliber potrafią latać, bocian umie odnaleźć swoje gniazdo lecąc z Afryki, a mają mózgi znacznie mniejsze od wieloryba.
Trochę tutaj pobrzmiewa ten sam problem o którym już wspominałem - jeśli rozumiem jak coś działa, to mogę to ulepszyć, np. wiem, że dokupienie pamięci RAM i wsadzenie jej w odpowiedni slot do mojego komputera mu pomoże. Ale jeśli coś jest tajemniczą breją, to nawet nie wiem w które miejsce miałbym dodać więcej tej breji.
Nie wykluczam możliwości, że może prawidłowa odpowiedź to "gdziebądź".
Znane są przecież przykłady ludzi u których jedna część mózgu przejęła funkcję innej części mózgu po wypadku.
To by sugerowało pewną "jednorodność" breji jako budulca i że może nie ma się co przejmować jej strukturą.
W zasadzie, to nie umiem sobie wyobrazić jak matka natura mogłaby to inaczej urządzić - przecież DNA nie pomieściłoby szczegółowego planu który neuron z czym i jak połączyć - to musi być "emergentne" tj. struktura jest chyba czymś co wyłania się samo po odpowiednio długim treningu.
W przypadku ludzkich dzieci zajmuje pewnie kilkanaście lat.
Nadal jednak nie jest dla mnie jasne, czy mózg jest skalowalny tylko dlatego, że wydaje się nie mieć ustalonej struktury.
Może być tak, że jest jakiś istotny (inny niż szerokość kobiecej miednicy) powód dla którego nasze głowy są akurat tak małe.
Dajmy na to, większe mózgi byłyby nieefektywne z powodu sposobu komunikacji między neuronami czy kodowania informacji.
Coś jak ograniczenia 32-bitowego Windowsa, który nie jest w stanie ogarnąć więcej niż 3GB pamięci RAM.
Ktoś może powiedzieć: przecież można zmienić architekturę na 64-bitową!
Ale to jest właśnie ten problem z "breją" vs "inteligent design".
Rozumiejąc jak działają komputery i wiedząc gdzie są ich ograniczenia, naukowcy umieli dokonać odpowiedniej poprawki.
W przypadku "tajemniczej breji" może nie być jasne co i gdzie naprawić, ani czy w ogóle się da, bez zaczynania na nowo od czystej kartki.

Skąd wiara, że ta funkcja jest nie tylko rosnąca, ale też nieograniczona?

Popatrzmy na ciąg: 1, 1.5, 1.75, 1.875 ...
Jest on rosnący, ale nigdy nie przekroczy liczby 2.
Wyobraźmy sobie, że jest to ciąg IQ przeskalowany tak, że 1=inteligencja człowieka, 1.5 to inteligencja maszyn jakie umie zbudować człowiek, 1.75 to inteligencja maszyn zbudowanych przez nie, itd.. Możliwe, że nie da się przekroczyć 2.

A może limit na inteligencję wynika ze skończoności świata?

Po pierwsze, wiara w to, że prawo Moora będzie działało w nieskończoność wydaje się dosyć naiwna.
Każdy ciąg geometryczny dość szybko przekroczy ilość atomów we wszechświecie.
Czas wymagany do budowania tego wszystkiego kontra czas do wygaśnięcia słońca może być za duży.
Być może po prostu istnieje coś takiego jak "największa możliwa inteligencja" i dalej nie ma już co optymalizować (tak jak np. próżno oczekiwać, że ktoś wymyśli "lepszy" sposób na obliczanie miejsca przecięcia paraboli z osią OX, bo przecież ten który już teraz mamy jest najlepszy możliwy).
Oczywiście może się zdarzyć, że nauczymy się robić komputery z czegoś innego niż atomy, albo że odkryjemy, że wszechświat jest znacznie większy.
Nie mniej, na dzień dzisiejszy, wiara w to jest nieuzasadniona.

Czy inteligencja na pewno idzie w parze z chęcią do robienia maszyn?

Genialny skrzypek czy malarz, pewnie nie jest zainteresowany robieniem AI.
Nawet jeśli pierwszą generację AI zbudujemy wzorując ją na jakiś genialnym inżynierze AI, to wcale nie gwarantuje, że kolejne generacje będą miały rozwinięte akurat te talenty.
Widzę po temu kilka powodów.
Po pierwsze, gdy już raz stworzysz AI na wzór człowieka, musisz pewnie zaakceptować jej "człowieczeństwo".
Albo będziemy próbowali ją przymuszać do robienia tego na czym zależy NAM - co byłoby co najmniej nietaktem, być może niewolnictwem, ale w najciekawszym przypadku - dostrzeżone, rozpracowane i obrócone przeciwko nam (nie zapominajmy, że mamy do czynienia z przeciwnikiem mądrzejszym od nas).
Albo pozwolimy tej maszynie robić co chce, jak innym ludziom.
Nie wykluczone, że jeśli weźmiemy geeka który do tej pory "nie widział świata poza inżynierią" i zwiększymy jego IQ, to się okaże, że teraz nagle dostrzega ów świat dookoła.
To może mieć różne konsekwencje, od euforii (jebać inżynierię, ja chce pisać wiersze!) po depresję (nigdy nie zaznam szczęścia w tym więzieniu, wszyscy umrzemy!).
Przede wszystkim śmieszy mnie ta naiwność z jaką często wyobrażamy sobie AI jako jednocześnie inteligentniejsze od nas, a z drugiej strony dające się nam manipulować i świadczyć nam usługi.
Moim zdaniem jeśli inteligencja do czegoś faktycznie służy w przyrodzie to do tego by nie dać się manipulować:)
Czasem jak czytam czyjeś wynurzenia na temat AI to mam wrażenie, że wyobraża on sobie je tak jak na filmach z lat 80, jako jakiś zielony monitor mówiący jak syntezator mowy Hawkinga i odpowiadający usłużnie tylko na te pytania które mu sami zadajemy.
Proponuję jednak wyobrażać sobie AI zupełnie inaczej: jako Twoją starą.
Serio. Jeśli nie umiesz przyjąć na klatę wizji, że komputer może być tak ciepły, mądry, elokwentny, zwinny i ludzki jak Twoja mama, to znaczy że nie oswoiłeś jeszcze koncepcji, że AI może być LEPSZE od Ciebie.
Spróbuj przez moment wyobrazić sobie niektóre z tych postulatów w odniesieniu do komputera który byłby jak Twoja mama - np. że kazałbyś jej od rana do nocy nie robić nic innego, tylko myśleć nad lekarstwem na raka. Albo, że próbowałbyś ją zapewnić, że brak ciała i możliwości posiadania dzieci nie jest taki zły. O prawie do głosowania i eutanazji nie wspominam. Albo, że próbowałbyś ją zachęcić do opracowania lepszej wersji samej siebie.

Czy inteligencja w ogóle idzie w parze z chęcią rozwiązywania naszych problemów?

Mamy chyba jakieś takie idealistyczne przekonanie, że im ktoś sprytniejszy tym bardziej pracowity i tym bardziej chętny do pomocy innym.
Może być jednak tak, że prawdziwe oblicze inteligencji to: szukanie okazji do opierdalania się i lenistwa.
Albo do maksymalizacji własnego szczęścia a nie cudzego.
Jest też tak, że ludzie na różnych poziomach rozwoju widzą różne problemy.
Np. małe dziecko będzie płakać bo nie może oglądać bajki w TV i nawet nie pomyśli, że prawdziwym problemem jaki mu doskwiera jest to, że jego mamę zwolniono z pracy z powodu podniesienia ceł na coś tam w wyniku embarga gdzieś tam.
Podobnie, może się okazać, że przywołując do życia AI i prosząc ją o rozwiązanie naszych problemów, AI uzna, że nasze problemy są totalnie dziecinne, albo da nam rozwiązanie które nam się nie spodoba.
Tak jak dzieciom nie podoba się jedzenie warzyw, czy polewanie rany wodą utlenioną, tak nam może się nie spodobać, gdy AI z krystaliczną pewnością siebie powie, że rozwiązaniem naszych problemów jest np. wymordować połowę ludności, albo przestać się przejmować śmiercią.

Czy inteligencja idzie w parze z chęcią robienia czegokolwiek w ogóle?

Oprócz lenistwa, bardzo inteligentnym bytom grozi moim zdaniem depresja.
Wydaje mi się, że homo-sapiens znalazło w biegu ewolucji pewien balans między rozumieniem zbyt dużo a rozumieniem za mało ("perfekcyjna niedoskonałość").
Dzięki mechanizmom wyparcia i racjonalizacji umiemy pogodzić masę sprzeczności i przymknąć oko na wiele problemów.
Poczynając od największego jakim jest brak celu istnienia i nieuchronna śmierć, a skończywszy na "drobnostkach" takich jak głód w Afryce, czy nieopłacalność odruchów serca.
Być może AI mogące działać bez końca, nie będzie miało problemów związanych ze śmiercią i dzięki temu uda jej się zdefiniować na swoje potrzeby jakiś cel i sens życia.
Ale słońce kiedyś zgaśnie i śmierć cieplna zabije wszystko.
Możliwe, że AI będzie umiało stworzyć coś co przeciwstawi się znanym nam obecnie prawom nauki i jakimś cudem przezwycięży i ten problem.
Bardziej prawdopodobne wydaje mi się jednak, że ludzki mózg przeniesiony do komputera i napompowany do genialnych rozmiarów zapadnie się pod ciężarem swoich własnych przemyśleń.
Wydaje mi się, że białkowi ludzie czerpią motywację do własnych działań z dość przyziemnych pobudek.
Głód, pożądanie, strach, niepewność jutra.
Maslov może i miał racje, że górne piętra piramidy zawierają wznioślejsze pragnienia i działania, ale ja nie do końca wierzę w to, że wyeliminowanie dolnych pięter piramidy, automatycznie oznacza chęć zajęcia się górnymi.
Moim zdaniem te górne są niejako długodystansowymi odpowiednikami tych krótkodystansowych z niższych pięter.
Jeśli sytuacja życiowa zmusza mnie bym działał w pośpiechu by przetrwać, to podejmę bardziej przyziemne działania, ale jeśli będę miał czas pomyśleć i przygotować się lepiej to może np. pójdę na studia by mieć długofalowo szansę na lepsze jedzenie itd.
Możemy oczywiście spróbować takiemu AI symulować potrzeby - a nawet próbować je tresować/torturować poczuciem pełnego pęcherza, czy niespełnionym pożądaniem seksualnym.
Pytanie tylko czy to jest etycznie ok, czy jej się to spodoba i ile potrwa zanim AI skapnie się co mu robimy i nie odetnie się od tych manipulacji.
Albo "zepnie wszystko na krótko"? Pozwólcie, że rozwinę ten wątek.

Czy większa inteligencja idzie w parze z miłością do świata realnego?

Ludzie lubią się oszukiwać.
Pomijając kwestie wyparcia i racjonalizacji, większość po prostu pije alkohol, sięga po trawkę, albo po prostu ćpa.
Jeśli damy sieci neuronowej możliwość "refleksji" czyli popatrzenia na samą siebie (coś czego my ludzie nie umiemy zrobić, tj. nie umiemy przeanalizować układu neuronów we własnej łepetynie) i zoptymalizowania jej, to jeśli dobrze nie zdefiniujemy co dokładnie chcemy zoptymalizować może się to skończyć źle.
Tak jak ciężko jest wprowadzić w firmie sensowny system premiowy/motywacyjny bo zawsze znajdzie się ktoś kto będzie próbował nie tyle nagiąć czy obejść zasady, co po prostu traktując je dosłownie i zgodnie z prawem zadbać o swój interes.
Jest taka anegdotka, że w jednej z firm IT w ramach dążenia do poprawienia jakości, postanowiono płacić testerom $50 za każdy znaleziony przez nich błąd w programie.
Okazało się, że zaczęto ich znajdować 2x więcej.
A to dlatego, że programiści dogadali się z testerami, że będą robić więcej błędów i je im podawać na tacy w zamian za podział (i to niekoniecznie fifty-fifty!).
Podobnie taka super AI może dojść do wniosku, że najprostszym sposobem na uzyskanie szczęścia jest po prostu ustawić zawartość jednej z komórek pamięci na 1 zamiast 0 i już.
O ile ludzie jakoś tam instynktownie czują, że ćpanie nie rozwiąże ich "realnych" problemów, o tyle AI która z definicji żyje w wirtualnym świecie może nie mieć takich oporów - dla niej wszystko jest równie nierealne.
W pewnym sensie, nasz realny świat z naszymi realnymi problemami, może być dla niej mniej namacalny i bliski.
Jeśli sieć neuronową wyobrażamy sobie jako drzewko kabelków, które bardzo starają się zapalić żaróweczkę na czubku tej choinki, to może najprościej jest podłączyć baterię do tej lampki już?
To własnie mam na myśli mówiąc "spiąć wszystko na krótko".
"Być albo nie być - oto jest pytanie".

Czy ta funkcja w ogóle jest monotoniczna?

Może być tak, że wymyślenie dynamitu, czy zrzucenie bomby nuklearnej to tak naprawdę były głupie rzeczy, której bardziej inteligentna rasa by nie zrobiła.
Podobnie jak zjadanie kredek świecowych przez dzieci.
Może być tak, że robienie AI mądrzejszego od ciebie samego, to jedna z takich głupich rzeczy i fakt że my mający IQ=1 zrobimy AI mające IQ=1.5 wcale nie oznacza, że ona również będzie chciała to zrobić.
Może być np. tak, że spodoba jej się rola bycia najinteligentniejszą formą życia na świecie i nie będzie równie głupia jak my.
Oczywiście w przypadku AI definiowanie odrębności osobników może być czymś zupełnie bez sensu - zamiast tworzyć nowy byt, może wystarczy zupgradeować siebie samą i tym samym zachować ciągłość.
Pytanie tylko po co?
Nam się wydaje naturalne, że zawsze fajniej jest być szybszym, silniejszym, mądrzejszym.
To jakiś taki nasz system wartości.
Ale skąd wiemy, że dla kogoś z IQ=1.5 te priorytety nadal tak wyglądają.
Może przy ciut większej inteligencji dostrzegasz nagle w całej okazałości, że "ignorance is bliss", a tworzenie świadomych istot to tworzenie cierpienia i smutku.
Może byty z IQ=1.5 nigdy nie zechcą stworzyć niczego co miałoby IQ choćby większe od 0.1 mając podobne opory jak obecnie mają niektórzy przed tworzeniem zarodków, czy hodowaniem kurczaków na fermach.
Może być też tak, że dla bytów z IQ=1.5 jest jasne, że droga do poprawy jakości życia nie wiedzie przez zwiększanie IQ tylko przez jej zmniejszanie albo przez coś zupełnie innego (np. przez zmniejszanie populacji, albo eliminację pewnych złych myśli, czy jedzenie mniej glutenu:D).

Co jeśli to wszystko ma sens tylko dla nas?

Z każdą naszą teorią może być tak, że jest zła, bo jesteśmy za głupi by to pojąć.
Nasze predykcje na temat przyszłości mogą się nam wydawać sensowne teraz i to tylko dlatego, że mamy akurat IQ=1, ale każdy kto ma IQ=1.5 widzi, że ta teoria nie trzyma się kupy i dalej nie pojedziemy.
Może być też tak, że przez te wszystkie mechanizmy wyparcia, racjonalizacji, samo-upewniania itd. nie dostrzegamy czegoś co rzuca całkowicie inne światło na wszystkie nasze zmagania czyniąc je totalnie nic nie wartymi i idiotycznymi.
Kilka przykładowych możliwości: słyszałem już na kilku wykładach, że ponoć coś takiego jak "ja w liczbie pojedynczej" czyli poczucie że jest się jedną osobą siedzącą w głowie, to jedna z największych iluzji i samoopodtrzymujących się mitów naszego mózgu - ponoć tak naprawdę świadomość jest wielowątkowa i jakby schizofreniczna ale tylko jeden wątek "jest przy mikrofonie" i dorabia do wszystkiego narrację tak jakby robiła to jedna osoba. Gdyby to było prawdą, to być może nasz system wartości, kult jednostki, wolności itp wymaga przemyślenia i poukładania na nowo. Inna sprawa: co dziennie kładąc się spać wyłączamy świadomość a rano się budzimy i wszystko jest jak dawniej. W pewnym sensie umieramy i budzimy się nie robiąc z tego afery. Skoro tak, to czemu przywiązujemy taką wagę do śmierci? Może maszynie (zwłaszcza takiej która rozumie na czym polega "przejście w stan hibernacji") będzie jeszcze ciężej zrozumieć nasz system wartości (budowany przecież na lęku przed śmiercią). Może być też tak, że całe nasze podejście do świadomości, duszy itd. jest mocno niesprawiedliwe i może dla takiego AI bardziej godne ochrony będą myszy, delfiny, czy mrówki, niż garstka 6 mld ludzi.

czwartek, 11 czerwca 2015

"Wy, którzy mówicie językami, wciąż kłamiecie…"

Tytuł to piękny cytat z sagi o Enderze, wygłoszony w trakcie międzygatunkowej rozmowy, ganiący ludzi, przypominając im, że każda wypowiedź ubrana w słowa, jest tylko przybliżeniem prawdy.
Wypowiadające tę kwestię "drzewo", nie miało tego problemu rozmawiając telepatycznie z innymi drzewami, bo w zasadzie współdzieliło z nimi stan wiedzy, wraz ze wszystkimi fraktalnymi niuansami.
Za to gadając z ludźmi musiało się niejako garbić do ich poziomu i wciąż domyślać o co im w zasadzie chodzi.

Jestem po lekturze dwóch pierwszych książek tego samego autora (Orsona Scotta Carda) ale z innego cyklu: "Tropiciel" i "Ruiny".
Jednym z fundamentalnych problemów jakie są tam poruszane jest kwestia prawdomówności między maszyną (androidy zwane, zapewne dla ciągłego przypominania im i sobie gdzie ich miejsce, "zbędnymi") a ludźmi (na potrzeby tego wpisu myślmy o takich ludziach jak my).
Otóż, zbędni, wielokrotnie dają do zrozumienia, że powiedzenie prawdy użytkownikowi jest albo niewykonalne w jego języku, albo niepotrzebne, albo wręcz mogłoby go wprowadzić w błąd.

Aby, zrozumieć o co chodzi, wystarczy popatrzeć na to co dzieje się już dzisiaj, gdy wchodzimy w interakcję z Siri, Google Now, czy Cortaną.
Albo może cofnijmy się jeszcze wcześniej: po co w ogóle wchodzimy z nimi w interakcję, zamiast skorzystać samemu z mapsów, google, czy kalendarza?
Wg mnie, ludziom wcale nie potrzebna jest wiedza i fakty, tylko rozwiązania i odpowiedzi.
I właśnie to optymalizują m.in. twórcy takich asystentów. Po co Ci w aucie rozkładana mapa europy, kompas czy nawet współrzędne (wiedza), skoro tak naprawdę to co Cię w tej chwili interesuje to czy masz skręcić w lewo czy w prawo?
Po co Ci lista stron pasujących do słów "Mad Max", skoro tak naprawdę chcesz tylko zarezerwować bilet w kinie blisko domu?

We wspomnianych książkach, zamiast "topornego" telefonu w kieszeni, rolę asystentów pełnią androidy. Ale rozwiązują ten sam problem: bycia interfacem między człowiekiem a gigantycznymi zbiorami faktów.
Nie da się ukryć, że pojemność ludzkiej głowy, przepustowość zmysłów i tempo myślenia, powoduje, że jest to interface bardzo powolny, ale i tak android ma do dyspozycji więcej kanałów (np. body language) niż obecna Siri.

Najsłabszym ogniwem tego systemu wydaje się być człowiek.
Kiedy pytam "Jaka jest pogoda we Wrocławiu?", to czy na pewno chcę usłyszeć prawdę (tj. zobaczyć mapę z dokładnością do 1 metra kwadratowego z rozkładami prawdopodobieństw warunkowych mililitrów opadów)?
Czy może po prostu chcę wiedzieć czy brać parasol do pracy czy nie?
Może stojący przy drzwiach android-kamerdyner podający mi bez słowa parasol gdy wychodzę z domu byłby przydatniejszy, niż tak szczegółowy raport?
A nawet jeśli interesuje mnie z jakiegoś powodu temperatura, to czy właściwą odpowiedzią będzie podanie mi jej ze wszystkich stron domu, z dokładnością do 3 miejsc po przecinku, czy wystarczy mi średnia z całego miasta?
Prawda nie jest tu przydatna - wystarczy jej "zaokrąglenie" do czegoś co da się powiedzieć, a najlepiej od razu przejść do wniosków: jesteś za ciepło ubrany.

O ile zaokrąglanie prawdy może się nie wydawać kłamstwem, to sprawa się komplikuje, gdy zaczynamy pytać o skomplikowane tematy.
Często oczekujemy prostych odpowiedzi na trudne tematy (jaka jest wysokość podatku w 2014? jakie jest poparcie dla Rosji w Ukrainie?), ale ich się nie da udzielić.
Asystent może próbować wybrnąć podając skondensowaną listę odpowiedzi ułożoną wg prawdopodobieństw, czy przydatności, ale nie oszukujmy się - człowiek i tak sobie to zaokrągli jeszcze bardziej i skupi się na pierwszej odpowiedzi z listy.
Skąd to wiem? Bo tak działa pierwsza strona wyników google - jak często zaglądacie na drugą czy trzecią?
A zatem taki zbędny musi mieć świadomość, że cokolwiek powie jako pierwsze zdanie, zapewne wpłynie to na świadopogląd pytającego.
Nawet więc podając długą, nudną prawdę, de facto go okłamuje.
Jeśli zbędny czuje, że coś ważnego jest "na drugiej stronie wyników", to jego odpowiedzialnością jest przenieść to na pierwszą stronę.
I tu może pojawić się masa wewnętrznych konfliktów w owym "page ranku". Część z nich moralnych.
Algorytm nie może jednocześnie szanować wszystkich wymiarów po których chcielibyśmy sortować więc w pewnym skłamie na którejś z tych osi.
To co zostawi sobie na koniec, albo powie z mniejszym entuzjazmem, będzie zagrożone zignorowaniem przez użytkownika i de facto równoważne grzechowi przemilczenia.
Z resztą, opowiadanie na pytanie w sposób nie sugerujący co z gąszczu faktów wybrać tylko zirytowałoby pytającego który i tak naciskać będzie na to by mu podpowiedzieć.

Zbędny czasem wręcz musi skłamać na pytanie które zadałeś, domyślając się jaki użytek chcesz zrobić z odpowiedzią.
Przykładowo powie Ci, że w dzielnicy do której wchodzisz jest bezpiecznie, co nie jest do końca prawdą, ale gdyby powiedział Ci że jest niebezpiecznie, to mógłbyś podjąć jakąś złą/agresywną decyzję wobec tubylców.

Dla mnie to o tyle fascynujące, że te dylematy to nie SF - to się przecież już dzieje, gdy google musi zadecydować co Ci pokazać na pierwszej stronie gazety, gdy pytasz o ustrój w Ukrainie czy o prawa człowieka w Chinach.
Do tego dochodzi problem "błędnego koła", "samospełniajacych się przepowiedni", czy "chowu wsobnego".
Facebookowy Edgerank, czyli algorytm wyświetlający Ci na stronie głównej tylko takie wpisy jakie najprawdopodobniej polubisz, również prowadzi do "wchowu wsobnego idei" i umacniania się w swoich przekonaniach, zamiast do poszerzania horyzontów.
Nawet jeśli zbędni będą starać się pokazywać nam taką wizję świata, która była najbardziej "humanitarna/humanistyczna" wg ich twórców (których konsensus wydaje się nie do osiągnięcia), to jak długo potrwa, zanim kolejne pokolenia ludzi będą po prostu łykać jak pelikany wciąż tę samą propagandę, może ciut zniekształcaną sprzężeniem zwrotnym, ale niechybnie prowadzącą do jakiegoś cargo cultu?

Książka zmusza do zadania sobie tego typu pytań.
Czy da się maszyny nauczyć takiego algorytmu odpowiadania na pytania, który byłby przydatny ludziom?
Czy sami ludzie w ogóle umieją tak odpowiadać?
Czy człowiek w ogóle wie o co pyta?
Po co w ogóle pyta i jakiej pomocy oczekuje?
Czy to w ogóle ludzie powinni uczyć maszyny tej sztuki, bo może lepiej to powierzyć maszynom - skoro koniec końców i tak mamy zacząć im ufać jako mądrzejszym, to może trzeba zacząć z grubej rury?

Ciekawi mnie zwłaszcza jedna rzecz.
Stawiając AI w roli wychowawcy człowieka, niejako trzeciego rodzica, warto przeanalizować to też od strony wychowawczej.
Czy dając dziecku rybę, zamiast wędki, na pewno dajesz mu to czego potrzebuje?
Nie ukrywam, że intryguje mnie to zwłaszcza dlatego, że jestem młodym ojcem i przynajmniej dopóki synek nie ogarnie internetu, ja będę dla niego takim zbędnym.
Ryzyko związane z tym, że Siri mówi Ci że masz wziąć parasol, zamiast podać Ci prawdopodobieństwo opadów jest moim zdaniem małe.
Można marudzić, że ludzie zatracą umiejętność planowania czy myślenia o pogodzie, ale to moim zdaniem podobne marudzenie do tego, że ludzie przez GPS przestają umieć jeździć autem.
IMHO w takich wypowiedziach po prostu manifestuje się nasz lęk przed zmianą i tęsknota za samodzielnym rozwiązywaniem prostych mało ważnych problemów, których rozwiązywanie samodzielnie nie wydaje się esencją człowieczeństwa.
Mogę żyć pełnią życia bez zastanawiania się gdzie są Kostomłoty.

A może jednak? Może wycieczka autem bez GPSa daje jakieś inne doznania, niż ślepe słuchanie "skręć w prawo". Może wtedy, żyje się jakoś tak "bardziej".
Co będzie czuł umierający w 2100 człowiek, który przez całe życie szedł słuchając tylko notyfikacji i poleceń od swojego Google Now. Spełnienie? Chyba nie.

A zatem są tu co najmniej dwa problemy wynikające z dawania ryby zamiast wędki: "zanik nieużywanych mięśni", oraz "pozbawianie nas frajdy uczenia się na błędach".

Czy zatem kolejne wersje Siri i zbędnych, będą miały wbudowany algorytm wprowadzania w błąd lub unikania odpowiedzi dla celów edukacyjnych lub jeszcze wznioślejszych?

Wcześniej czy później trzeba będzie odpowiedzieć sobie na pytanie: jak dużo "słusznego trudu" muszę wykonywać w swoim życiu samodzielnie, by nadal uważać się za człowieka.

Ciekawi mnie też kwestia ustalenia, które decyzje powinny zostać oddelegowane maszynom, bo nie wymagają człowieka?
Aż się mi ciśnie na klawiaturę słowo "błahe". Jakoś tak intuicyjnie czuję, że o ważnych, moralnych sprawach powinien decydować człowiek.
Tymczasem to jest bardzo egoistyczne i głupie myślenie.
Już teraz widać, że samokierujące się auta powodują mniej zgonów niż nietrzeźwi kierowcy.
Wojskowe drony mogą strzelają celniej niż żołnierze i w ten sposób ocalić cywili, a może nawet żołnierzy przeciwnika.
Czy nasza samolubna, arogancka chęć do decydowania o wszystkim samodzielnie (nie wypiłem aż tak dużo, mogę prowadzić!) jest cechą wartą wspierania?

W jeszcze innym cyklu książek ("Pamięć Ziemi"), O.S.Card przerzucił na AI ciężar utrzymania ludzkości przy życiu, pozostawiając jednak ludziom prawie całkowitą swobodę decydowania o indywidualnych kwestiach.
Czyli ów mechaniczny Bóg miał dość dziwny dekalog, w którym morderstwo jest ok (czy raczej: to nie moja brocha by ingerować), ale genocyd czy globalne ocieplenie już nie.
Ten "Bóg" zdawał się mi bardzo starotestamentowy w swoich decyzjach, z resztą saga chyba celowo jest napisana tak by przypominać losy Mojżesza.

Natomiast w Ruinach i Tropicielu maszyny zdają się decydować o wszystkich ważnych sprawach, także moralnych, bo ludzie zdają się być za głupi by im je powierzać.
Starają się to jednak robić w białych rękawiczkach, tak by nie zachwiać za mocno poczuciem kontroli i władzy ludzi.
To jest też arcy-ciekawy problem psychologiczny: jak Siri ma doradzać Tobie tak, byś nie czuł się kretynem, czy literalnie zbędnym?
Jest taki serial BBC Jeeves and Wooster (grają w nim Hugh Laurie i Stephen Fry) o kamerdynerze, który cały czas "służac" swojemu panu w istocie załatwia wszystkie jego sprawy de facto sterując jego życiem.

Zakończę może takim pytaniem: patrząc wstecz na swoje życiowe decyzje, które fajnie byłoby oddelegować do kogoś mądrzejszego? Te najważniejsze czy te błahe? Może jednak ustawiane małżeństwa, posyłanie dzieci na dobre uczelnie itp nie jest złym pomysłem?

niedziela, 1 marca 2015

Oferta pracy

Edit: żeby było jasne, opisywane poniżej wydarzenia są fikcyjne, nie mają żadnego związku z moim obecnym czy byłym pracodawcą a jedynie służą jako analogia do czegoś o czym piszę pod koniec wpisu, więc o ile nie masz zamiaru czytać do końca, to nie wyciągaj proszę pochopnych wniosków.

Będąc Polakiem na pewno znasz ten obrazek - jeśli nie z autopsji, to od znajomych.

Szef, który doszedł do tego co ma nieznanymi do końca metodami, zatrudniający studentów i osoby z kredytami, łudzący ich nadzieją, że kiedyś na pewno pojawi się kasa.
Nazwijmy go "Janusz".
Oczywiście dokładna strategia, ani nawet taktyka na najbliższy kwartał nie są znane.
"Pionowa" komunikacja w firmie, i tak szczątkowa, ma zazwyczaj formę "top to bottom", tj. typowe command&control.
(Swego czasu by rozładować napięcia wystawiono skrzynki na opinie zwrotne od pracowników, ale ich opróżnianiem zajmuje się do dziś sprzątaczka).
Nie zmienia to faktu, że można dostać po łapach za nie wywiązywanie się z bieżących obowiązków - presja i rotacja duża.
Najlepiej nie zadawać pytań tylko robić. Co dokładnie? Nie wiadomo, ale dopóki raporty są wypełniane i wszyscy w openspace mają pochylone głowy, to jest ok.

Krążą plotki, że doszło kiedyś do zgrzytu z pierwszymi foundersami - ponoć zaczęli grzebać w papierach i zadawać niewygodne pytania.
Ponoć wylecieli z hukiem (a przynajmniej tak mówi oficjalna wersja Janusza) i odtąd już nikt pytań nie zadawał.
Firma ma już ponad dwadzieścia lat, ale w międzyczasie nieraz zmieniał się cel, PKD, statut i wizja marki.
Jakiś czas temu próbowano przeprowadzić fundamentalny rebranding, tak by marka kojarzyła się nieco bardziej ciepło i ludzko, ale w zasadzie nie udało się tego przeprowadzić do końca i w efekcie badania rynku jednoznacznie pokazują, że konsumenci postrzegają markę w sposób idealnie wymieszany pół na pół między twardą agresywną korporacją, a młodzieżowym lifestylowym startupem.
Jeden z większych zwrotów ginie w niepamiętnych już przez obecnych pracowników czasach - ponoć Janusz był do tego stopnia niezadowolony z tego jak działa jego firma, że wylał na bruk wszystkich oprócz dosłownie paru największych lizodupów.
Tzw. "fala dobrowolnych odejść".
Plan był taki by zacząć od nowa, no ale skoro zostawił sobie tylko osoby myślące podobnie, to raczej nie mogło być mowy o kreatywności.

Można śmiało powiedzieć, że szef od strony psychicznej ma pewne problemy z poczuciem własnej wartości.
Widać to np. na co tygodniowych spotkaniach gdzie wymaga się by raporty składane były w sposób eksponujący zasługi szefa, zamiatając pod dywan lub biorąc na siebie wszelkie niepowodzenia.
To drugie rozwiązanie jest nawet milej widziane, bo szef może wtedy wspaniałomyślnie wybaczyć, zaspokajając swoje patronizujące ego.

Rzecz jasna wielu myśli o odejściu, ale nie jest to proste dzięki sprytnej polityce HRowej.
Wszyscy mają podpisane lojalki z zakazem pracy u konkurencji. "Budowanie wieloletniej relacji z pracownikiem" to jest wręcz jeden z głównych zapisów w statucie spółki.
Jakby można było, to pewnie zapisano by też, że rodziny i dzieci też mają pracować u Janusza.
Z resztą, krążą plotki, że tak na prawdę na rodzimym rynku nie ma prawdziwej konkurencji do której możnaby uciec - ponoć przynajmniej najważniejsze z dużych spółek w tym sektorze mają powiązania inwestorskie prowadzące do tej samej osoby.
Ciężko to sprawdzić i wydaje się to delikatnie mówiąc niewiarygodne patrząc na agresywne kampanie marketingowe toczące się od dawna pomiędzy nimi.
Z drugiej strony zastanawiające są zbieżności w "tajnych" technologiach chronionych patentami tych spółek - być może rację mają "spiskowcy i podżygacze" twierdzący, że Janusz dorobił się kradnąc I.P. konkurencji jeszcze na studiach.

Wracając do polityki HR: firma żyje ze studentów i niewykwalifikowanych pracowników, nie ma więc specjalnie interesu w inwestowanie w ich samorozwój itd.
Warstwa menadżerska dba głównie o utrzymanie tego status quo gwarantując sobie przywileje takie jak np. wyłączność na rozmowy z szefem (ostatnia osoba która proponowała zawiązanie związków zawodowych wyleciała z hukiem), czy interpretacje przepisów kodeksu pracy pod siebie.
W praktyce wygląda to np. tak, że gdy pracownik marudzi na brak narzędzi, licencji, czy ogólnie zasobów, to jedyne z czym się spotyka to cyniczna odpowiedź w stylu "a pamiętasz jak prosiłeś pół roku temu o kasę na szkolenia? pomyśl sobie, że praca w tak trudnych warunkach to właśnie szkolenie. I my Ci je dajemy za free".
Mentalność w stylu "praca u nas to zaszczyt i ciesz się, że nie musisz nam płacić" jest powszechna w "menadżmencie".
Zamiast coachingu, są tylko (dość częste) szkolenia w stylu "pokaz slajdów i ziewanie".

Motyw nieadekwatności środków do celów przewija się w tej firmie od początku w zasadzie.
Owa "fala dobrowolnych odejść", o której już wspominałem, wynikała przecież między innymi z tego, że pracownicy nie byli w stanie realizować wizji (z resztą niejasnej) firmy dostępnymi im środkami.
Najwyraźniej idea że "każdy problem da się rozwiązać skończoną ilością studentów" okazała się błędna, ale zamiast poszukać kasy na szkolenia czy szukać bardziej wykwalifikowanych pracowników, po prostu postanowiono "uprościć strukturę".

Wśród pracowników którzy zostali w firmie panuje marazm - niektórzy mówią, że o ile można jeszcze znieść pracę na starym sprzęcie, starymi metodami i za niską pensję, to dobijające są brak strategii i spójnej wizji.
Jak można od pracownika wymagać by odgadł co siedzi w głowie Janusza? Tymczasem, najwyraźniej za nieodgadnięcie raz na kwartał lecą głowy - ma to miejsce dość często bo notowania spółki spadają, a finger-pointing oczywiście zawsze omija Janusza.

Można się zastanawiać skąd firma w ogóle bierze pracowników. Po części jest to piramidka, po części wykorzystywanie nadwyżki absolwentów na lokalnym rynku. Przy takiej podaży ludzi z tytułem magistra, oraz przy systemie premiowym za "referale" znajomych (a ostatnio nawet: kary dla pracowników którzy nie przyprowadzą w ciągu roku nowego pracownika lub klienta) jakoś to się kręci.
Raz wdepnąwszy ciężko wyjść, jako, że stosowana jest swego rodzaju odpowiedzialność zbiorowa (przy odejściu pracownika z teamu, team ma przesrane a ten kto go polecił ma odbieraną premię).
W efekcie działa to tak, że "koledzy" z pracy sami naciskają byś został.
Czy to w sposób subtelny poprzez utwierdzanie Cię w nadziei, że jakoś to będzie, może za kwartał, może za rok, ale przecież nie jest tak źle jak na bezrobociu.
Czy to w bardziej bezpośredni grożąc pocięciem opon.

Oczywiście jak w każdym dużym korpo, jest też sporo "cargo cultu": jakieś dziwne formularze, których nikt nie czyta po wypełnieniu, jakieś procedury podwójnej akceptacji robione tylko na pokaz, jakieś dokumentacje dawno już zdezaktualizowane a jednak używane jako punkt odniesienia dla audytów.
Mało kto rozumie dokładnie o co chodzi w obiegu faktur itd, ale wszyscy grzecznie wykonują ten taniec licząc na to, że ktoś to kiedyś dobrze wymyślił i może nie wszystko ma na dzień dzisiejszy sens, ale na pewno istnieje jakaś taka "corowa" część tego procesu bez której to się wszystko rozpadnie w pizdu, a nikt nie ma odwagi próbować dociekać która to część jest tą ważną.
Zwłaszcza, że za zadawanie pytań można co najwyżej ściągnąć na siebie widmo "dobrowolnego odejścia".
"Po co zmieniać coś co działa", to już nawet nie motto, tylko cała filozofia, która wg Janusza zapewniła mu przetrwanie na tym niepewnym rynku.
Taki trochę survivor bias.

Jeśli powyższy opis brzmi dla Ciebie znajomo, to się cieszę, bo może dzięki temu będzie Ci łatwiej zrozumieć dwie rzeczy na mój temat:

1. dlaczego jestem ateistą i dlaczego uważam chrześcijaństwo za coś szkodliwego (bo powyższy opis wbrew pozorom miał być analogią kościoła katolickiego)
2. dlaczego zajebiście się cieszę, że Onet kupił NK.pl tymsamym przyłączając nasze IT do DreamLabu i czemu chętnie bym Cię w nim zatrudnił (bo mimo, że nie to było celem powyższego opisu to jakoś tak wyszło, że jest dokładnym zaprzeczeniem klimatu panującego w DreamLabie, a przy tym wszelkie podobieństwa do historii NK.pl są zupełnie niezamierzone)


sobota, 31 stycznia 2015

Prawdziwy

Oglądając 58 sekundę poniżeszego filmu naszła mnie myśl - o kurde, to wygląda jak tkanka! Jesteśmy nic nieznaczącymi mikrobami w ciele jakiegoś monstrum, którego motywów i działań nigdy nie poznamy ani nawet nie dożyjemy tak powolne, wielkie i skomplikowane jest.


A potem : może faktycznie jest tak, jak sugerowano już wiele razy, że wszechświat jest niczym radziecka zabawka matrioszka: małe kręcące się w koło kulki tworzą większe kręcące się w koło kulki : kwarki, elektrony, atomy, cząsteczki, planety, układy, galaktyki... może tak jest już w nieskończoność? I może w drugą stronę także? Może kiedyś, dysponując odpowiednio czułym "mikroskopem" zobaczymy na powierzchni kwarków jakieś małe ludziki?

I wtedy pomyślałem: no nie, to by było idiotyczne. Jak małe to proste, więc nie mogą to być ludziki.
Tak oto doszedłem do znacznie bardziej męczącej mnie teraz myśli: ludzie racjonalni (do których staram się zaliczać), często (chyba?) myślą o sobie (a przynajmniej chcą tak o sobie myśleć?) że ich światopogląd wywodzi się z wyników eksperymentów. Że to co uznają za prawdę zależy nie od dogmatów i opinii kolegów, ale z udokumentowanych eksperymentów -- w takim razie jak to jest, że niejako "natychmiast wiem", że mikroskopijne ludziki, pegazy, jednorożce, czy telepatia należą do sfery "bajek" a nie "prawdy", mimo, że nie wykonałem żadnego eksperymentu? Czy nie jest czasem tak, że naukowcy mają jednak dość mocno ugruntowany światopogląd, który póki co okazuje się w 99% zgodny z rezultatami eksperymentów, dlatego ciężko nam może odróżnić to co wiemy od tego w co wierzymy?
Bardzo to swoją drogą ciekawe, że aż 99% eksperymentów zdaje nam się pasować do obrazka - skąd więc mamy ten obrazek? Jaki jest wspólny motyw wszystkich elementów na tym obrazie, że tak łatwo nam od razu powiedzieć czy dany klocek będzie do niego pasował czy nie?

Jak to jest, że racjonalny człowiek tak łatwo może powiedzieć "telepatia? nie no, szczerze wątpię w takie coś!" a z drugiej strony "telefonia komórkowa? ależ oczywiście że tak!".

A może "zgodność z obrazkiem" to tylko iluzja wynikająca z tego, że wciąż zmieniamy obrazek? "Ach, więc to małe coś pod mikroskopem to bakteria i żyje? ok, w takim razie krasnoludki istnieją, ale muszą być bardzo głupie i rozmnażać się przez podział!".

Jak zareagowałbym gdybym, jako naukowiec, patrząc przez mikroskop zobaczył tam krasnoludki?
Na pewno nie tuszowałbym sprawy:) Ale co bym poczuł? Myślę, że jakieś takie rozczarowanie i oszukanie - coś w stylu "a więc jednak ten świat to tylko zabawka, wytwór czyjejś fantazji, szkoda, bo myślałem, że to coś prawdziwego jednak, a nie głupia symulacja".

Naprawdę czułbym się rozczarowany gdyby mi ktoś udowodnił, że ten świat nie jest "prawdziwy" tylko "stworzony".
I tutaj naszła mnie inna refleksja: np. dla chrześcijan takie rozgraniczenie w ogóle nie istnieje, dla nich stworzony=prawdziwy.
Dla nich pewnie to co napisałem powyżej nie ma nawet większego sensu a co dopiero ładunku emocjonalnego.
Czyżbym posiadał "uczucia ateistyczne"?:)

Moje przeświadczenie, żę stworzony = sztuczny, bierze się chyba z bajki Pinokio.
W "Perfekcyjnej Niedoskonałości" Dukaja, bohater odkrywa w końcu, że cały otaczający go świat zbudowany jest z nanobotów, które niczym trójkolorowe pixele są budulcem dla krajobrazu, roślin, zwierząt i niego samego.
Bohater czuje się nieco oszukany, że żyje w czymś sztucznym - może nie aż tak sztucznym jak obliczeniowa symulacja w pamięci komputera, ale jednak "zrobionym".
Co takiego sprawia, że współczujemy bohaterowi tej książki, a jednocześnie nie jesteśmy tak jak on przerażeni faktem, że wszystko co nas otacza jest zbudowane z trójkolorowych kwarków (czy patrząc parę poziomów wyżej: że jesteśmy zbudowani z komórek, które przecież są odpowiednikami nanobotów).
Dlaczego nie smuci mnie, że mój mózg "jest zrobiony" z komórek?

Argument za tym, że zapewne żyjemy w symulacji traktuję nie tylko jako zabawną anegdotkę dla znajomych, ale serio wydaje mi się prawdopodobny.
Zdałem sobie jednak dopiero niedawno sprawę, ze tego na jak różne sposoby można rozumieć "bycie w symulacji" oraz że niektóre z tych interpretacji prowadzą wręcz natychmiast do wniosku, że żyjemy w symulacji.
Np. do niedawna o symulacjach myślałem jak to informatyk: jakiś program, odpalony na jakimś komputerze - program który być może sprawia, że mój mózg daje się nabrać, że widzi drzewo i je masło.
Albo może nieco głębiej: symulowany jest sam mózg i podczas tych obliczeń wydaje mu się że żyje.
Ale od niedawna myślę sobie tak: może to wcale nie jest tak, że kunszt twórców tej symulacji siedzi w tym, że nie umiem odróżnić prawdziwego drzewa, masła czy życia od tego sztucznego, ani nawet w tym że symulacja wiernie oddaje galaktyki i atomy.
Może kunszt jest w tym, że mieszkańcy tej symulacji uwierzyli, że atomy to coś co świadczy o jego prawdziwości a nie sztuczności.
Coś jakby bohaterowie gry wideo uznali pixele za element ich rzeczywistości zamiast właśnie rozpoznać w nich wskazówkę, że żyją w czymś sztucznym.
Może właśnie atomy, kwanty itd powinny były nam dać do myślenia, że oto patrzymy na "Cesarskie Nano" i że to wszystko jest tylko "stworzone" a nie "prawdziwe".

Śmieję się też z samego siebie, że tak długo wydawało mi się oczywiste, że można "mięsisty mózg" symulować przy pomocy "silikonowego komputera" i że tak często myślę o tej symulacji w której tkwimy, jako o jakimś obliczeniu przeprowadzanym na niesamowicie potężnym komputerze,
a jakoś nigdy wcześniej nie wpadłem na to (ja! mistrz odwracania ogona kotem!) że może być dokładnie na odwrót - skoro już przyjmiemy do wiadomości że między mięsem a silikonem nie ma istotnych różnic, to nic nie stoi na przeszkodzie by przypuszczać, że symulacja nie jest "obliczeniem" a "wyobrażeniem" i że żyjemy nie w centrum obliczeniowym a w czyjejś głowie.
Może jakiś mądry "bóg", czy inny mięsisty byt, zabawia się myślą o całym naszym wielkim i wiekowym wszechświecie, w przerwie pomiędzy swoimi ważniejszymi problemami, tak jak my dla zabawy wyobrażamy sobie hipotetyczne sytuacje czy rozwiązujemy szarady. Może jesteśmy czyimś snem?

Oczywiście ten bóg również może siedzieć w jakiejś symulacji, tym razem być może krzemowej lub nie. To może rzecz jasna iść dowolnie daleko, a może nawet zapętlać - nie nam orzekać co jest logiczne a co nie "na zewnątrz" naszego świata.

Zastanawiam się jednak ile mądrości było w niektórych antycznych wierzeniach: np. że ziemia spoczywa na słoniach, a one na żółwiu, a on na czymśtam itd. Jak byłem mały wydawało mi się idiotyczne, że ktoś mógłby wierzyć w coś takiego, czy przyjmować tego typu indukcyjne wyjaśnienie tak fundamentalnego problemu jak to "gdzie żyjemy?". A teraz, im jestem starszy, tym bardziej taka nieskończoność wydaje mi się sensownym, a nawet eleganckim wyjaśnieniem.
Innym takim antycznym wierzeniem było by czcić słońce, wodę, wiatr. Szczerze mówiąc, nie widzę bardziej sensownych obiektów kultu - no, ale nie zbaczajmy z tematu.

Nie chcę być Pinokio, bardzo chciałbym by ogłoszono, że nasz świat jest prawdziwy, nie udawany. Sądzę jednak, że dopóki będziemy "prawdziwość" mierzyć, oceniać i dyskutować w towarzystwie innych mieszkańców tego samego łez padołu, nie mając szansy na popatrzenie "z zewnątrz", tak długo wysiłki nasze będą pożałowania i śmiechu godne, bo my nawet widząc pixele, będziemy się zachwycać rozdzielczością i głębią kolorów, zamiast puknąć się w czoło i krzyknąć "We're Photoshoped!"