Singularity Sringularity

Singularity

Chciałbym najprzystępniej jak tylko się da, podzielić się moimi wątpliwościami na temat singularity.
Na wstępie uprzedzę, że mimo, że temat jest bliski mojemu sercu, jako informatykowi, to absolutnie nie uważam się za eksperta w dziedzinie sztucznej inteligencji, sieci neuronowych czy innych rzeczy o których będę pisał, zatem pytania, które poniżej formułuje należy rozumieć właśnie tak - jak pytania. Chętnie sam poznałbym na nie odpowiedzi.

Czym jest singularity?

Można pewnie definiować to pojęcie różnie. A zatem można i tak, by było łatwiej (ciekawiej!) z nią polemizować:)
Chciałbym dzisiaj polemizować z takim oto podejściem:
Ludzie budują co raz szybsze komputery . W końcu zbudują komputery inteligentniejsze od nas, które będą mogły skonstruować jeszcze doskonalsze maszyny, itd. itd. a wszystko to w coraz szybszym tempie, aż w końcu zwykłe homo-sapiens nie będą w stanie nadążyć ani nawet zrozumieć co jest grane.
Rozumowanie to opiera się między innymi na prawdziwej obserwacji, że jak dotąd moc obliczeniowa komputerów podwaja się co półtora roku ("prawo Moorea").

Jest też moim zdaniem oparte na szeregu innych założeń, które być może są prawdziwe, ale wypadałoby wspomnieć o nich w jawny sposób, a nie ukrywać gdzieś między wierszami.

Mentalny model jaki buduje mi się w głowie gdy słyszę powyższe podejście do singularity, to jakiś taki wykres, który na osi OX umiejscawia inteligencje twórcy, na osi OY inteligencję tworzonej przez niego maszyny.
Koncepcja zdaje się zakładać, że wykres wiedzie wciąż do góry (czyli, że gdy x<X to f(x)<f(X)), więc gdy tylko ludzkość dojdzie do momentu gdy będzie potrafiła się udoskonalić (czyli x<f(x)), to także kolejne generacje będą co raz lepsze (x < f(x) < f(f(x)) < f(f(f(x))) < ... ).

Czy inteligencja jest tym czymś co decyduje o inteligencji budowanych komputerów?

Innymi słowy, czy ten mentalny obraz "funkcji z inteligencji w inteligencję" jest w ogóle uzasadniony?
Czy taka funkcja w ogóle istnieje i czy ma znaczenie dla tych rozważań?
Z mojego bardzo ograniczonego doświadczenia z pracy w IT mogę powiedzieć, że inteligencja pracowników absolutnie nie jest istotnym ograniczeniem tego co firma potrafi zrobić.
Znacznie ważniejsze są takie kwestie jak marketing (czy będziesz umiał znaleźć nabywcę na swój zajebisty pomysł?), komunikacja wewnątrz firmy (czy będziesz umiał wytłumaczyć o co Ci chodzi współpracownikom?), oczekiwania inwestorów (ale czy zdążysz to zrobić w ciągu następnego kwartału?), strategia biznesowa (ale czy nie lepiej zrobić to gorzej, żebyśmy mogli sprzedać tego więcej, taniej i częściej?)...itp.
Nie wiem jak to wygląda w laboratoriach Intela gdzie pracują nad procesorami, czy w firmach zajmujących sie AI.
Domyślam się, że pracują tam zajebiście inteligentnie ludzie.
Ale czy gdyby byli dwa razy bardziej inteligentni to robiliby szybsze procesory?
Czy przypadkiem to co ich ogranicza to nie np. prawa fizyki (prędkość rozchodzenia się prądu, czy światła w układach scalonych), budżet, albo konieczność zapewnienia miejsc pracy, stanardów ISO, czy wypełnienia planu dotacji z UE?
Umiem sobie wyobrazić, że przynajmniej problem komunikacji może odpaść gdy tysiącosobową firmę zastąpimy jedną AI.
Ale to i tak tylko przy założeniu, że będzie ona działać zupełnie inaczej niż my działamy (a z tego co widze, to informatyka jak na razie zachłystuje się naśladownictwem, a zatem AI będzie potrzebowała chociaż przysłowiowej "gumowej kaczki" by mieć z kim pogadać, a prawdopodobne że także kilku innych prawdziwych dyskutantów).

Czy inteligentniejsza maszyna umie zbudować inteligentniejszą maszynę?

To trochę bardziej precyzyjna wersja poprzedniego pytania.
Chodzi mi o to, że np. to, że jeden człowiek jest bardziej inteligentny od drugiego, wcale nie koniecznie oznacza, że ma większe umiejętności akurat w budowaniu komputerów. Całkiem prawdopodobne że w ogóle nawet nie umie tego robić:) Za to np. jest świetnym politykiem.
Ale może cofnijmy się jeszcze o krok?

Czy w ogóle jakiś komputer umie obecnie zbudować jakiś komputer?

Bo jeśli nie, to znaczy, że nie tylko prawa strona wykresu (ta z prognozą przyszłości) ale też lewa (ta z danymi historycznymi) są wyssane z palca - jak na razie nie możemy na nim postawić żadnej kropki!
W tej sytuacji, prognozowanie co będzie dalej z tym wykresem wydaje się trochę śmieszne.
O ile mi wiadomo, żaden komputer jak na razie nie umie niczego sam od A do Z zaprojektować a co dopiero wykonać.
Myślę, że byłoby super ciekawym zacząć prowadzić jakiś rejestr/ranking sukcesów na tym polu.
Jeśli w końcu uda nam się stworzyć komputer który stworzy sam od A do Z chociaż kalkulator, będziemy mieli w końcu pierwszy punkt na wykresie i będziemy mogli zacząć się jarać jego kształtem.

Czy szybkość procesorów przekłada się na inteligencję?

Tutaj odpowiedz, to oczywiście nie. Tzn. przynajmniej dla kogoś pracującego z komputerami na codzień, jasne jest, że na chwilę obecną najlepszą analogią dla komputera jest "wyobraź sobie głupią małpę, ale taką, która robi wszystko 100x szybciej".
(To moja ulubiona analogia zaraz obok tej: "wyobraź sobie dżina, który spełnia każde Twoje życzenie, ale robi to spełniając je co do joty literalnie, w efekcie nigdy nie dając Ci tego o co Ci chodziło").

Dla osoby spoza IT może być trudno zauważyć różnicę między bardzo mądrze przemyślanymi przez ludzi algorytmami, które sprawiają, że google potrafi wskazać bardzo dobre wyniki wyszukiwania w ułamku sekundy, a bardzo nieprzemyślanymi sieciami neuronowymi, które w równie zawrotnym tempie potrafią rozpoznać kotka na obrazku.

Aby zrozumieć dalszą część mojego wpisu, moim zdaniem konieczne jest zrozumienie tego rozgraniczenia.
Mamy jakby dwa podejścia w informatyce.

Jedno polega na tym, by super zdolnych informatyków poprosić o wymyślenie super sprytnego sposobu na rozwiązanie czegoś.
Jeśli np. pamiętasz z liceum wzór na deltę i sposób znajdywania miejsc w których parabola przecina się z osią OX przy pomocy wzoru na tę deltę to właśnie o coś takiego chodzi - jakiś matematyk siedział długo aż wymyślił idealny wzór na to jak to robić poprawnie.
W informatyce odpowiednikiem matematyka jest informatyk, a odpowiednikiem wzoru jest algorytm.

Ale być może znasz też inny sposób na znalezienie rozwiązania równania - "przez zgadywanie".
Ludzie robią to non-stop. Np. gdy łapiesz rzuconą do Ciebie piłkę, która leci przecież po (z grubsza) paraboli, to nie rozwiązujesz w tym celu równania kwadratowego.
Stosujesz tzw. heurystykę, czyli coś co z grubsza działa, ale nie do końca da się wytłumaczyć czemu, czasem się myli i ogólnie nie jest jakieś bardzo precyzyjne.
Może masz np. kilka zapamiętanych wzorców (gdy piłka leci mi na twarz, to muszę rękę dać w to miejsce).
Może stosujesz tzw. wyszukiwanie binarne (próbujesz dać rękę w jakiekolwiek miejsce i jak się nie uda, to przesuwasz ją w lewo lub prawo w zależności od tego co da lepszy efekt itd.).
A może masz po prostu zajebiście wyćwiczoną sieć neuronową, która robi dokładnie to co trzeba, ale nie bardzo umie to wytłumaczyć komuś innemu.
(Tak jak nie każdy sportowiec jest super trenerem, nie każdy matematyk dobrym pedagogiem, a Pendolino nie umie Cię nauczyć biegać).
Tego typu podejście, pozwala często znaleźć odpowiedź, mimo, że nie bardzo daje wiedzę na temat tego, jak w zasadzie udało nam się rozwiązać ten problem.
W informatyce stosuje się do tego np. tzw. sieci neuronowe, albo algorytmy genetyczne - programista nie musi wiedzieć jaki "wzór" opisuje kota, by komputer nauczył się go rozpoznawać. Wystarczy metodą prób i błędów "wytresować" komputer - pokazujemy mu 1000 zdjęć z kotem, 1000 bez kota i każemy zgadywać nagradzając za każdy sukces i karząc za porażkę. Można sobie łatwo wyobrazić jak wygląda taka sieć neuronowa poprzez analogię do korporacji. Główny dyrektor potrzebuje podjąć jakąś decyzję, w tym celu prosi o raport od podlegających mu menadżerów, a Ci scedowują pracę na swoich minionów. Następnie raportują wyniki swojej pracy w górę, na każdym piętrze dokonując pewnej agregacji (np. mając raporty od 5 podwładnych sumują ich wyniki, albo np. przedstawiają wyniki 3 najlepszych branchy). Na koniec szef podejmuje decyzję, a za pół roku jest albo wściekły i przekazuje opierdol w dół łańcucha do osób które wprowadziły go w błąd, albo przeciwnie nagradza tych którzy mu pomogli. Z czasem w firmie wykształca się pewien schemat zaufania - wiadomo kto kogo darzy estymą, a kogo lepiej nie słuchać. Podobnie w sieci neuronowej, neurony najniższego szczebla mogą np. przyjmować dane bezpośrednio z natężenia koloru pojedynczych pixeli, kolejne piętra mogą wykrywać plamy, krawędzie, czy narożniki, następne piętra odpowiadają za kształty, figury, gradienty, dalej bryły, cienie itd, aż w końcu dyrektor umie powiedzieć czy widzi kota czy nie.

Problem z tą analogią jest przede wszystkim taki, że w firmie często wiadomo kto za co odpowiada ("dyrektor do spraw łap").
W sieci neuronowej, która rośnie metodą prób i błędów niemal organicznie, nie da się jasno wskazać do czego w zasadzie służy dany neuron.
Można oczywiście (jeśli znajduje się on w pamięci komputera, a nie w ludzkim mięsie) popatrzeć jak reaguje na różne dane wejściowe, czy wręcz sprawdzić na konkretne liczby które rządzą jego działaniem.
Ale to, że neuron oblicza funkcję x*7+y*5-z*0.1<17 raczej nie pomoże Ci zrozumieć, na czym polega sprawdzenie czy to kot czy nie kot.


(To nie do końca prawda - można np. obserwować w jakich sytuacjach dany neuron wykazuje aktywność i próbować odgadnąć na co reaguje - np. odkryć że reaguje na rude prążki u kotów. To trochę śmieszne odwrócenie ról - najpierw mieliśmy sieć, która próbowała nauczyć się pojęcia "kot", a teraz mamy programistę, który próbuje odgadnąć pojęcie rozpoznawane przez dany "neuron". Tak czy owak to, że Ci powiem, że dana lampka na desce rozdzielczej oznacza, że olej się przegrzewa, nijak nie pomoże Ci zrozumieć jak do tego doszło i jak zoptymalizować pracę silnika).

Dlatego ten sposób rozwiązywania problemów nazwałbym "rozwiązywaniem nie wiedząc co się do cholery robi".
Owszem, problem jest rozwiązany.
Ale nie wiemy jak i czemu.
Gdzie w tym problem?

Czy jeśli nie wiemy jak coś działa to czy umiemy to zoptymalizować?

Jeśli mamy algorytm przygotowany przez naukowców, to jest szansa, że rozumieją oni jak on działa i myśląc ciężej, dłużej lub wprowadzając nowe osoby do zespołu myślącego nad algorytmem, może się udać go usprawnić lub odkryć lepszy.
Ale patrząc na breję mięsa w naszej czaszce raczej nie wymyślimy jak tu coś poprawić.
Jeśli więc naszym planem na zbudowanie sztucznej inteligencji mają być sieci neuronowe i kopiowanie ludzkiego sposobu myślenia, to podejrzewam że utkniemy na tym, że ani my, ani ten potencjalnie inteligentniejszy brejowaty twór w pamięci komputera, nie będziemy wiedzieli co zrobić by uczynić krok na przód w rozwoju tej breji.
Nie spodziewalibyśmy się przecież, że Pendolino wyjaśni nam jak to robi, że jeździ tak szybko, albo żeby się samo zoptymalizowało i jeździło jeszcze szybciej, tylko dlatego, że przekroczyło prędkość z jaką porusza się człowiek.
Umieć coś zrobić, a umieć udoskonalić ten proces, to dwa różne poziomy abstrakcji.
Przykład z pociągiem jest jasny jak słoneczko, a jednak gdy mówimy o komputerach to jakoś nagle zaczynamy się gubić i mieszać - zapewne przez to, że nie do końca rozumiemy na czym polega proces myślenia, więc różne jego odmiany wrzucamy do jednego wora.
Nie wrzuciłbym do jednego wora szybkiej jazdy i umiejętności stworzenia kogoś kto szybko biega.
Ale wrzucić do jednego wora umiejętność szybkiego liczenia i umiejętność stworzenia komputera liczącego jeszcze szybciej - jakoś dziwnie często tak.

Czy budowanie komputera na wzór mózgu ma szanse dać coś lepszego od ludzkiego mózgu?

Po pierwsze - jeśli tędy droga, to czemu ewolucja nią nie idzie dalej?
No chyba, że idzie ale bardzo wolno.
Ponoć średnie IQ rośnie z roku na rok, ale zdaje się nie wynika to ze zmian genetycznych czy biologicznych (bo jak sądzę: presja selekcji naturalnej jakoś niespecjalnie faworyzuje IQ - patrz starzejące się społeczeństwa krajów rozwiniętych cywilizacyjnych) tylko raczej ze zmian w nauczaniu ("memetyka") - uczymy się co raz lepiej wykorzystywać to co mamy.
W szczególności: uczymy się rozwiązywać testy IQ - mają one dość typową budowę i w tym jesteśmy co raz lepsi bo od małego się uczymy je rozwiązywać - kiedyś tak nie było.
No ale nawet przyjmując, że natura nadal rozwija nasze mózgi, tylko powoli, to mam inne wątpliwości.
Samochody nie mają dużych muskularnych nóg.
Samoloty nie machają skrzydłami.
Zwierzęta nie latają w kosmos.
Wzorowanie się na naturze może pomóc, ale często jest chyba tak, że aby zrobić coś lepiej niż natura ... trzeba zrobić coś inaczej niż natura.
To w sumie logiczne - gdyby natura umiała zrobić zwierzętom koła, albo śmigło, to by zrobiła.

Czy ilość przełoży się na jakość?

Jak na razie naszym głównym sposobem na robienie lepszych komputerów jest robienie "większych" komputerów :)
Nie koniecznie większych w sensie rozmiarów, ale np. w liczbie tranzystorów czy innych liczb.
To się całkiem dobrze sprawdza gdy mamy jakiś algorytm i chcemy by działał szybciej.
Ale to nie zwiększa jego "sprytu" a jedynie szybkość.
Czasem ta większa szybkość pozwala przetworzyć większą ilość danych czy kombinacji w tym samym czasie i dzięki temu znaleźć lepsze rozwiązanie, ale ogólnie nie powiedziałbym, że wpływa to jakoś istotnie na "inteligencję" rozwiązania. To dalej ta sama głupia małpa tylko 100x szybsza.
Jeśli uważamy, że jakiś problem przerasta homo-sapiens i nawet w 100 lat go nie rozwiążemy, to nie oczekujmy, że 100x szybsza małpa go rozwiąże w rok.
Większa moc obliczeniowa na pewno pomaga też zbudować większe czy szybsze sieci neuronowe.
Bez trudu umiem sobie wyobrazić dokładanie kolejnych warstw do hierarchii w firmie, czy do sieci neuronowej.
Co innego jeśli ta sieć ma być zbudowana na obraz ludzkiego mózgu (co wyobrażam sobie np. tak, że hibernujemy jakiegoś geniusza, skanujemy jego mózg i dokładnie kopiujemy jego strukturę do komputera).
Nie jestem przekonany, że ludzkie mózgi są skalowalne w ten sam sposób co "zwykłe" sieci neuronowe.
Czy dodanie większej ilości mięsa do czaszki magicznie zrobi z Ciebie geniusza?
Do dziś nie rozumiem jak to w zasadzie jest, że pszczoła czy koliber potrafią latać, bocian umie odnaleźć swoje gniazdo lecąc z Afryki, a mają mózgi znacznie mniejsze od wieloryba.
Trochę tutaj pobrzmiewa ten sam problem o którym już wspominałem - jeśli rozumiem jak coś działa, to mogę to ulepszyć, np. wiem, że dokupienie pamięci RAM i wsadzenie jej w odpowiedni slot do mojego komputera mu pomoże. Ale jeśli coś jest tajemniczą breją, to nawet nie wiem w które miejsce miałbym dodać więcej tej breji.
Nie wykluczam możliwości, że może prawidłowa odpowiedź to "gdziebądź".
Znane są przecież przykłady ludzi u których jedna część mózgu przejęła funkcję innej części mózgu po wypadku.
To by sugerowało pewną "jednorodność" breji jako budulca i że może nie ma się co przejmować jej strukturą.
W zasadzie, to nie umiem sobie wyobrazić jak matka natura mogłaby to inaczej urządzić - przecież DNA nie pomieściłoby szczegółowego planu który neuron z czym i jak połączyć - to musi być "emergentne" tj. struktura jest chyba czymś co wyłania się samo po odpowiednio długim treningu.
W przypadku ludzkich dzieci zajmuje pewnie kilkanaście lat.
Nadal jednak nie jest dla mnie jasne, czy mózg jest skalowalny tylko dlatego, że wydaje się nie mieć ustalonej struktury.
Może być tak, że jest jakiś istotny (inny niż szerokość kobiecej miednicy) powód dla którego nasze głowy są akurat tak małe.
Dajmy na to, większe mózgi byłyby nieefektywne z powodu sposobu komunikacji między neuronami czy kodowania informacji.
Coś jak ograniczenia 32-bitowego Windowsa, który nie jest w stanie ogarnąć więcej niż 3GB pamięci RAM.
Ktoś może powiedzieć: przecież można zmienić architekturę na 64-bitową!
Ale to jest właśnie ten problem z "breją" vs "inteligent design".
Rozumiejąc jak działają komputery i wiedząc gdzie są ich ograniczenia, naukowcy umieli dokonać odpowiedniej poprawki.
W przypadku "tajemniczej breji" może nie być jasne co i gdzie naprawić, ani czy w ogóle się da, bez zaczynania na nowo od czystej kartki.

Skąd wiara, że ta funkcja jest nie tylko rosnąca, ale też nieograniczona?

Popatrzmy na ciąg: 1, 1.5, 1.75, 1.875 ...
Jest on rosnący, ale nigdy nie przekroczy liczby 2.
Wyobraźmy sobie, że jest to ciąg IQ przeskalowany tak, że 1=inteligencja człowieka, 1.5 to inteligencja maszyn jakie umie zbudować człowiek, 1.75 to inteligencja maszyn zbudowanych przez nie, itd.. Możliwe, że nie da się przekroczyć 2.

A może limit na inteligencję wynika ze skończoności świata?

Po pierwsze, wiara w to, że prawo Moora będzie działało w nieskończoność wydaje się dosyć naiwna.
Każdy ciąg geometryczny dość szybko przekroczy ilość atomów we wszechświecie.
Czas wymagany do budowania tego wszystkiego kontra czas do wygaśnięcia słońca może być za duży.
Być może po prostu istnieje coś takiego jak "największa możliwa inteligencja" i dalej nie ma już co optymalizować (tak jak np. próżno oczekiwać, że ktoś wymyśli "lepszy" sposób na obliczanie miejsca przecięcia paraboli z osią OX, bo przecież ten który już teraz mamy jest najlepszy możliwy).
Oczywiście może się zdarzyć, że nauczymy się robić komputery z czegoś innego niż atomy, albo że odkryjemy, że wszechświat jest znacznie większy.
Nie mniej, na dzień dzisiejszy, wiara w to jest nieuzasadniona.

Czy inteligencja na pewno idzie w parze z chęcią do robienia maszyn?

Genialny skrzypek czy malarz, pewnie nie jest zainteresowany robieniem AI.
Nawet jeśli pierwszą generację AI zbudujemy wzorując ją na jakiś genialnym inżynierze AI, to wcale nie gwarantuje, że kolejne generacje będą miały rozwinięte akurat te talenty.
Widzę po temu kilka powodów.
Po pierwsze, gdy już raz stworzysz AI na wzór człowieka, musisz pewnie zaakceptować jej "człowieczeństwo".
Albo będziemy próbowali ją przymuszać do robienia tego na czym zależy NAM - co byłoby co najmniej nietaktem, być może niewolnictwem, ale w najciekawszym przypadku - dostrzeżone, rozpracowane i obrócone przeciwko nam (nie zapominajmy, że mamy do czynienia z przeciwnikiem mądrzejszym od nas).
Albo pozwolimy tej maszynie robić co chce, jak innym ludziom.
Nie wykluczone, że jeśli weźmiemy geeka który do tej pory "nie widział świata poza inżynierią" i zwiększymy jego IQ, to się okaże, że teraz nagle dostrzega ów świat dookoła.
To może mieć różne konsekwencje, od euforii (jebać inżynierię, ja chce pisać wiersze!) po depresję (nigdy nie zaznam szczęścia w tym więzieniu, wszyscy umrzemy!).
Przede wszystkim śmieszy mnie ta naiwność z jaką często wyobrażamy sobie AI jako jednocześnie inteligentniejsze od nas, a z drugiej strony dające się nam manipulować i świadczyć nam usługi.
Moim zdaniem jeśli inteligencja do czegoś faktycznie służy w przyrodzie to do tego by nie dać się manipulować:)
Czasem jak czytam czyjeś wynurzenia na temat AI to mam wrażenie, że wyobraża on sobie je tak jak na filmach z lat 80, jako jakiś zielony monitor mówiący jak syntezator mowy Hawkinga i odpowiadający usłużnie tylko na te pytania które mu sami zadajemy.
Proponuję jednak wyobrażać sobie AI zupełnie inaczej: jako Twoją starą.
Serio. Jeśli nie umiesz przyjąć na klatę wizji, że komputer może być tak ciepły, mądry, elokwentny, zwinny i ludzki jak Twoja mama, to znaczy że nie oswoiłeś jeszcze koncepcji, że AI może być LEPSZE od Ciebie.
Spróbuj przez moment wyobrazić sobie niektóre z tych postulatów w odniesieniu do komputera który byłby jak Twoja mama - np. że kazałbyś jej od rana do nocy nie robić nic innego, tylko myśleć nad lekarstwem na raka. Albo, że próbowałbyś ją zapewnić, że brak ciała i możliwości posiadania dzieci nie jest taki zły. O prawie do głosowania i eutanazji nie wspominam. Albo, że próbowałbyś ją zachęcić do opracowania lepszej wersji samej siebie.

Czy inteligencja w ogóle idzie w parze z chęcią rozwiązywania naszych problemów?

Mamy chyba jakieś takie idealistyczne przekonanie, że im ktoś sprytniejszy tym bardziej pracowity i tym bardziej chętny do pomocy innym.
Może być jednak tak, że prawdziwe oblicze inteligencji to: szukanie okazji do opierdalania się i lenistwa.
Albo do maksymalizacji własnego szczęścia a nie cudzego.
Jest też tak, że ludzie na różnych poziomach rozwoju widzą różne problemy.
Np. małe dziecko będzie płakać bo nie może oglądać bajki w TV i nawet nie pomyśli, że prawdziwym problemem jaki mu doskwiera jest to, że jego mamę zwolniono z pracy z powodu podniesienia ceł na coś tam w wyniku embarga gdzieś tam.
Podobnie, może się okazać, że przywołując do życia AI i prosząc ją o rozwiązanie naszych problemów, AI uzna, że nasze problemy są totalnie dziecinne, albo da nam rozwiązanie które nam się nie spodoba.
Tak jak dzieciom nie podoba się jedzenie warzyw, czy polewanie rany wodą utlenioną, tak nam może się nie spodobać, gdy AI z krystaliczną pewnością siebie powie, że rozwiązaniem naszych problemów jest np. wymordować połowę ludności, albo przestać się przejmować śmiercią.

Czy inteligencja idzie w parze z chęcią robienia czegokolwiek w ogóle?

Oprócz lenistwa, bardzo inteligentnym bytom grozi moim zdaniem depresja.
Wydaje mi się, że homo-sapiens znalazło w biegu ewolucji pewien balans między rozumieniem zbyt dużo a rozumieniem za mało ("perfekcyjna niedoskonałość").
Dzięki mechanizmom wyparcia i racjonalizacji umiemy pogodzić masę sprzeczności i przymknąć oko na wiele problemów.
Poczynając od największego jakim jest brak celu istnienia i nieuchronna śmierć, a skończywszy na "drobnostkach" takich jak głód w Afryce, czy nieopłacalność odruchów serca.
Być może AI mogące działać bez końca, nie będzie miało problemów związanych ze śmiercią i dzięki temu uda jej się zdefiniować na swoje potrzeby jakiś cel i sens życia.
Ale słońce kiedyś zgaśnie i śmierć cieplna zabije wszystko.
Możliwe, że AI będzie umiało stworzyć coś co przeciwstawi się znanym nam obecnie prawom nauki i jakimś cudem przezwycięży i ten problem.
Bardziej prawdopodobne wydaje mi się jednak, że ludzki mózg przeniesiony do komputera i napompowany do genialnych rozmiarów zapadnie się pod ciężarem swoich własnych przemyśleń.
Wydaje mi się, że białkowi ludzie czerpią motywację do własnych działań z dość przyziemnych pobudek.
Głód, pożądanie, strach, niepewność jutra.
Maslov może i miał racje, że górne piętra piramidy zawierają wznioślejsze pragnienia i działania, ale ja nie do końca wierzę w to, że wyeliminowanie dolnych pięter piramidy, automatycznie oznacza chęć zajęcia się górnymi.
Moim zdaniem te górne są niejako długodystansowymi odpowiednikami tych krótkodystansowych z niższych pięter.
Jeśli sytuacja życiowa zmusza mnie bym działał w pośpiechu by przetrwać, to podejmę bardziej przyziemne działania, ale jeśli będę miał czas pomyśleć i przygotować się lepiej to może np. pójdę na studia by mieć długofalowo szansę na lepsze jedzenie itd.
Możemy oczywiście spróbować takiemu AI symulować potrzeby - a nawet próbować je tresować/torturować poczuciem pełnego pęcherza, czy niespełnionym pożądaniem seksualnym.
Pytanie tylko czy to jest etycznie ok, czy jej się to spodoba i ile potrwa zanim AI skapnie się co mu robimy i nie odetnie się od tych manipulacji.
Albo "zepnie wszystko na krótko"? Pozwólcie, że rozwinę ten wątek.

Czy większa inteligencja idzie w parze z miłością do świata realnego?

Ludzie lubią się oszukiwać.
Pomijając kwestie wyparcia i racjonalizacji, większość po prostu pije alkohol, sięga po trawkę, albo po prostu ćpa.
Jeśli damy sieci neuronowej możliwość "refleksji" czyli popatrzenia na samą siebie (coś czego my ludzie nie umiemy zrobić, tj. nie umiemy przeanalizować układu neuronów we własnej łepetynie) i zoptymalizowania jej, to jeśli dobrze nie zdefiniujemy co dokładnie chcemy zoptymalizować może się to skończyć źle.
Tak jak ciężko jest wprowadzić w firmie sensowny system premiowy/motywacyjny bo zawsze znajdzie się ktoś kto będzie próbował nie tyle nagiąć czy obejść zasady, co po prostu traktując je dosłownie i zgodnie z prawem zadbać o swój interes.
Jest taka anegdotka, że w jednej z firm IT w ramach dążenia do poprawienia jakości, postanowiono płacić testerom $50 za każdy znaleziony przez nich błąd w programie.
Okazało się, że zaczęto ich znajdować 2x więcej.
A to dlatego, że programiści dogadali się z testerami, że będą robić więcej błędów i je im podawać na tacy w zamian za podział (i to niekoniecznie fifty-fifty!).
Podobnie taka super AI może dojść do wniosku, że najprostszym sposobem na uzyskanie szczęścia jest po prostu ustawić zawartość jednej z komórek pamięci na 1 zamiast 0 i już.
O ile ludzie jakoś tam instynktownie czują, że ćpanie nie rozwiąże ich "realnych" problemów, o tyle AI która z definicji żyje w wirtualnym świecie może nie mieć takich oporów - dla niej wszystko jest równie nierealne.
W pewnym sensie, nasz realny świat z naszymi realnymi problemami, może być dla niej mniej namacalny i bliski.
Jeśli sieć neuronową wyobrażamy sobie jako drzewko kabelków, które bardzo starają się zapalić żaróweczkę na czubku tej choinki, to może najprościej jest podłączyć baterię do tej lampki już?
To własnie mam na myśli mówiąc "spiąć wszystko na krótko".
"Być albo nie być - oto jest pytanie".

Czy ta funkcja w ogóle jest monotoniczna?

Może być tak, że wymyślenie dynamitu, czy zrzucenie bomby nuklearnej to tak naprawdę były głupie rzeczy, której bardziej inteligentna rasa by nie zrobiła.
Podobnie jak zjadanie kredek świecowych przez dzieci.
Może być tak, że robienie AI mądrzejszego od ciebie samego, to jedna z takich głupich rzeczy i fakt że my mający IQ=1 zrobimy AI mające IQ=1.5 wcale nie oznacza, że ona również będzie chciała to zrobić.
Może być np. tak, że spodoba jej się rola bycia najinteligentniejszą formą życia na świecie i nie będzie równie głupia jak my.
Oczywiście w przypadku AI definiowanie odrębności osobników może być czymś zupełnie bez sensu - zamiast tworzyć nowy byt, może wystarczy zupgradeować siebie samą i tym samym zachować ciągłość.
Pytanie tylko po co?
Nam się wydaje naturalne, że zawsze fajniej jest być szybszym, silniejszym, mądrzejszym.
To jakiś taki nasz system wartości.
Ale skąd wiemy, że dla kogoś z IQ=1.5 te priorytety nadal tak wyglądają.
Może przy ciut większej inteligencji dostrzegasz nagle w całej okazałości, że "ignorance is bliss", a tworzenie świadomych istot to tworzenie cierpienia i smutku.
Może byty z IQ=1.5 nigdy nie zechcą stworzyć niczego co miałoby IQ choćby większe od 0.1 mając podobne opory jak obecnie mają niektórzy przed tworzeniem zarodków, czy hodowaniem kurczaków na fermach.
Może być też tak, że dla bytów z IQ=1.5 jest jasne, że droga do poprawy jakości życia nie wiedzie przez zwiększanie IQ tylko przez jej zmniejszanie albo przez coś zupełnie innego (np. przez zmniejszanie populacji, albo eliminację pewnych złych myśli, czy jedzenie mniej glutenu:D).

Co jeśli to wszystko ma sens tylko dla nas?

Z każdą naszą teorią może być tak, że jest zła, bo jesteśmy za głupi by to pojąć.
Nasze predykcje na temat przyszłości mogą się nam wydawać sensowne teraz i to tylko dlatego, że mamy akurat IQ=1, ale każdy kto ma IQ=1.5 widzi, że ta teoria nie trzyma się kupy i dalej nie pojedziemy.
Może być też tak, że przez te wszystkie mechanizmy wyparcia, racjonalizacji, samo-upewniania itd. nie dostrzegamy czegoś co rzuca całkowicie inne światło na wszystkie nasze zmagania czyniąc je totalnie nic nie wartymi i idiotycznymi.
Kilka przykładowych możliwości: słyszałem już na kilku wykładach, że ponoć coś takiego jak "ja w liczbie pojedynczej" czyli poczucie że jest się jedną osobą siedzącą w głowie, to jedna z największych iluzji i samoopodtrzymujących się mitów naszego mózgu - ponoć tak naprawdę świadomość jest wielowątkowa i jakby schizofreniczna ale tylko jeden wątek "jest przy mikrofonie" i dorabia do wszystkiego narrację tak jakby robiła to jedna osoba. Gdyby to było prawdą, to być może nasz system wartości, kult jednostki, wolności itp wymaga przemyślenia i poukładania na nowo. Inna sprawa: co dziennie kładąc się spać wyłączamy świadomość a rano się budzimy i wszystko jest jak dawniej. W pewnym sensie umieramy i budzimy się nie robiąc z tego afery. Skoro tak, to czemu przywiązujemy taką wagę do śmierci? Może maszynie (zwłaszcza takiej która rozumie na czym polega "przejście w stan hibernacji") będzie jeszcze ciężej zrozumieć nasz system wartości (budowany przecież na lęku przed śmiercią). Może być też tak, że całe nasze podejście do świadomości, duszy itd. jest mocno niesprawiedliwe i może dla takiego AI bardziej godne ochrony będą myszy, delfiny, czy mrówki, niż garstka 6 mld ludzi.

Popularne posty z tego bloga

Szczęście jako problem inżynieryjny

Kilka rzeczy, o których żałuję, że nie powiedziano mi, gdy byłem młody

Produkt: Ojciec*