A globális tudományos aktivitás 15 évenként
megduplázódik,
száz évvel
ezelőtt ez a szám pontosan 100 év volt. Ez különösen azért érdekes, mert a
gondolkodásunk nem igazán tud lépést tartani azokkal a folyamatokkal, amelyek
nem lineáris pályán mozognak, hanem inkább exponenciálisan. A mostani 15 év, a
tudás egyre növekvő mennyiségével is aránytalanul rövid idő, gyakorlatilag
elvégzel egy egyetemet, éppen, hogy elindulsz a munka rögös útjain, és pár éven
belül már teljesen idejétmúlt a nagy energiákkal megszerzett egyetemi tudásod.
Alfred Marshall
egy nagyon befolyásos és intelligens közgazdász, aki ha olvasott valami érdekeset
a szakmájában, akkor azt azonnal lefordította, átalakította matematikai
formulákba, mintegy koncepcionalizálta, majd elgondolkodott a mögöttes algoritmuson,
ami az elmélet mögött húzódott, és ezzel próbált utána a való világban eligazodni,
ellenőrizni, hogy mennyire működőképes a kolléga elképzelése.
A Ziman szabály vagy törvény is
hasonló, az éves növekedés 4%, ez a új tudásunk növekedési üteme, ami az
innovációs jéghegyekben nyilvánul meg számunkra láthatóan. Olcsóbb termékek,
szolgáltatások és ebből származik az átlagos 3%-os GDP növekmény.
A digitális
adatok amiket tárolunk, felhasználunk az bizony 3 évente megduplázódik, az
üzleti élettel kapcsolatos adatok rövidebb idő alatt, 2 évente duplázódnak.
Ha a Ziman
törvényét alkalmazzuk, tovább elemezzük, akkor 1980 óta 2025-2030-ra közel tízszeresére
nő a kutatói tevékenység utáni tudásgyarapodás, 2080-ra az előző 2030-as érték
tovább 10x-ével nő, azaz a kiindulási 1980-as érték már a százszorosánál fog
tartani.
Ha valaki 1980-ban születik, százévesen hihetetlen,
százszoros fejlődést láthat, érezhet a tudományos életben, aminek nem
elhanyagolható része a mindennapok részévé válhat. Persze ezt a trendet,
tendenciát tovább gondolva, 200 év alatt ez a 100x érték további 100-al
szorzandó, tehát elképzelhetetlenül nagy növekmény, 10.000 jön ki a 2200-as
évekre.
Ez
természetesen nem egyszerre és minden területen jelent ekkorra változást,
mindig lesznek és vannak kiemelt területek, amik valamilyen tényezők miatt
kiemeltek, jussunk el a Holdra, győzzük le a rákot, repüljünk a Marsra.
Így az egyes területen lehetséges, hogy
lineáris változást figyelünk meg, máshol meg a hiperexponenciálisat.
A Moore
törvényről már bizonyára sokan hallottak, a tranzisztorok fejlődésének
meghatározó összefüggése, ami jól működik, hozza az elvárt eredményeket. Egyre
kisebbek lesznek a chipek, de sajnos ennek a csökkentésnek a fizika határokat
szab, egy idő után ez a törvény már nem lesz érvényes, azaz igazából ez egy
átmeneti törvényszerűség. Ezen még az sem fog segíteni, hogy az eddigi chipek
laposak, egy dimenzióban készültek, mostanában viszont már kiterjesztették őket
a háromba, így határozottan megnőttek e lehetőségek.
A fizikai határokat a kicsinyítés
irányában előbb utóbb elérjük, és leáll a Moore törvény érvényessége.
Egyébként ezt a 3D csipet sajnos erősen kell hűteni, mert 3 irányba szórja a
hőt. A számítási kapacitások, a számítógép gyorsítását talán egy másik irányból
lehetne erősebben támogatni, a programok felől, optimálisabb, okosabb
rendszereket építeni. Talán a programokhoz illeszteni a chipeket folyamat is
működhet, egy egy különleges esetben.
A Deep Blue sakk programot először a
StockFish 8 program győzte le, majd a Google AlphaZeroja. Az érdekes
ebben, hogy az utóbbi csak 80.000 számítást végez másodpercenként, míg a
StockFish 8 közel 70 milliót, azaz közel
1000 gyorsabb nála. A StockFish minden adatot felhasznált az emberiség által
lejátszott sakkjátszmákból, addig a Google programja öntanuló volt, 4 órát
tanult csak sakkozni. Hihetetlen.
A számítógépek nem a gyorsaság miatt
lesznek okosabbak.
Az Apple
Sirije egy további érdekes fejlemény a folyamatokban, trendekben, a feltett kérdésedet
nem erőből oldja meg, a telefonodon tárolt információk alapján, hanem elküldi a
feladatot egy központba, egy adatközpontba, ahol több adatból értékesebb
választ raknak össze. A választ amit kapsz, gyakran 10.000 számítógép szedett szét
kis emészthető darabokra, és hozta össze a végeredményt számodra.
Az egész általam
megvizsgált trendnek, a tudás növekedésének nem lenne túlzottan nagy
jelentősége, ha nem kapcsolódna más tudományok elért eredményéhez, és azok
gyakorlati, számunkra is érdemes, érdekes alkalmazásához.
A biokémiai kutatások a gének és
fehérjék szintjén tart jelenleg, a kettő irány a 1990 évektől szép
lassan összefonódott, és a Human Genome Projekt keretében végleg összeolvadt.
Hosszú ideig a legnagyobb gondot a szekvenálás lassúsága okozta, akkoriban a
becslések szerint ha nem történik valami, akkor a végső határidő a projekt
befejezésére 700 év lett volna. 1997-ben a végső térkép 1% volt készen, és ez 1,4
milliárd dollárba került. A becslések 14-15 milliárd dollárra hozták volna ki a
befejezést, ez meglehetősen lineáris gondolkodásra vallott, de szerencsére a
gépeknek és az ötleteknek hála, a kutatás exponenciális fordulatot vett.
2003-ra befejeződött, két évvel a projekt
befejezési dátuma előtt. Az új módszerek a kémiai és számítástechnikai
metódusok ideális kombinációját használták ki. A DNS szekvenálás sebességét a
Moore törvényhez kötötték, ez lett a Carlson törvény. Legalább azzal a sebességgel
halad a szekvenálás, és az eredménye mára 500.000 ember teljes genomját
sikerült feltérképezni. 1997-ben ez utópisztikusnak tűnhetett, de hála a
hiperexponenciális együttműködésnek ma már itt tartunk. Diagnózisokat,
megelőzési protokollokat állítunk fel az egyedi szekvenálásokhoz.
Ez egyik valódi
példa egy technológiai koevolúcióra, kémiai-számítástechnikai. Ezzel elindult
egy Internet of DNA vadhajtás is, egy platform ahol megoszthatod nyugodtan a genetikai
profilodat és a doktor bácsik felfedezhetnek benne betegségre utaló nyomokat.
Nem tudom ez
az összeolvadás hová tart, mert ha még a mesterséges intelligenciát is
bevesszük a lehetséges csapatba, hát félelmetes lehetőségek merülnek fel bennem.
De erről majd
máskor.