2023. március 4., szombat

Trendek 2. A tudásunk gyarapodásának trendje, hatások


 

 A globális tudományos aktivitás 15 évenként megduplázódik,

száz évvel ezelőtt ez a szám pontosan 100 év volt. Ez különösen azért érdekes, mert a gondolkodásunk nem igazán tud lépést tartani azokkal a folyamatokkal, amelyek nem lineáris pályán mozognak, hanem inkább exponenciálisan. A mostani 15 év, a tudás egyre növekvő mennyiségével is aránytalanul rövid idő, gyakorlatilag elvégzel egy egyetemet, éppen, hogy elindulsz a munka rögös útjain, és pár éven belül már teljesen idejétmúlt a nagy energiákkal megszerzett egyetemi tudásod.

Alfred Marshall egy nagyon befolyásos és intelligens közgazdász, aki ha olvasott valami érdekeset a szakmájában, akkor azt azonnal lefordította, átalakította matematikai formulákba, mintegy koncepcionalizálta,  majd elgondolkodott a mögöttes algoritmuson, ami az elmélet mögött húzódott, és ezzel próbált utána a való világban eligazodni, ellenőrizni, hogy mennyire működőképes a kolléga elképzelése.

A Ziman szabály vagy törvény is hasonló, az éves növekedés 4%, ez a új tudásunk növekedési üteme, ami az innovációs jéghegyekben nyilvánul meg számunkra láthatóan. Olcsóbb termékek, szolgáltatások és ebből származik az átlagos 3%-os GDP növekmény.  

A digitális adatok amiket tárolunk, felhasználunk az bizony 3 évente megduplázódik, az üzleti élettel kapcsolatos adatok rövidebb idő alatt, 2 évente duplázódnak.

Ha a Ziman törvényét alkalmazzuk, tovább elemezzük, akkor 1980 óta 2025-2030-ra közel tízszeresére nő a kutatói tevékenység utáni tudásgyarapodás, 2080-ra az előző 2030-as érték tovább 10x-ével nő, azaz a kiindulási 1980-as érték már a százszorosánál fog tartani.

 Ha valaki 1980-ban születik, százévesen hihetetlen, százszoros fejlődést láthat, érezhet a tudományos életben, aminek nem elhanyagolható része a mindennapok részévé válhat. Persze ezt a trendet, tendenciát tovább gondolva, 200 év alatt ez a 100x érték további 100-al szorzandó, tehát elképzelhetetlenül nagy növekmény, 10.000 jön ki a 2200-as évekre.

Ez természetesen nem egyszerre és minden területen jelent ekkorra változást, mindig lesznek és vannak kiemelt területek, amik valamilyen tényezők miatt kiemeltek, jussunk el a Holdra, győzzük le a rákot, repüljünk a Marsra.

 Így az egyes területen lehetséges, hogy lineáris változást figyelünk meg, máshol meg a hiperexponenciálisat.

A Moore törvényről már bizonyára sokan hallottak, a tranzisztorok fejlődésének meghatározó összefüggése, ami jól működik, hozza az elvárt eredményeket. Egyre kisebbek lesznek a chipek, de sajnos ennek a csökkentésnek a fizika határokat szab, egy idő után ez a törvény már nem lesz érvényes, azaz igazából ez egy átmeneti törvényszerűség. Ezen még az sem fog segíteni, hogy az eddigi chipek laposak, egy dimenzióban készültek, mostanában viszont már kiterjesztették őket a háromba, így határozottan megnőttek e lehetőségek.

A fizikai határokat a kicsinyítés irányában előbb utóbb elérjük, és leáll a Moore törvény érvényessége. Egyébként ezt a 3D csipet sajnos erősen kell hűteni, mert 3 irányba szórja a hőt. A számítási kapacitások, a számítógép gyorsítását talán egy másik irányból lehetne erősebben támogatni, a programok felől, optimálisabb, okosabb rendszereket építeni. Talán a programokhoz illeszteni a chipeket folyamat is működhet, egy egy különleges esetben.

A Deep Blue sakk programot először a StockFish 8 program győzte le, majd a Google AlphaZeroja. Az érdekes ebben, hogy az utóbbi csak 80.000 számítást végez másodpercenként, míg a StockFish 8  közel 70 milliót, azaz közel 1000 gyorsabb nála. A StockFish minden adatot felhasznált az emberiség által lejátszott sakkjátszmákból, addig a Google programja öntanuló volt, 4 órát tanult csak sakkozni. Hihetetlen.

A számítógépek nem a gyorsaság miatt lesznek okosabbak.

Az Apple Sirije egy további érdekes fejlemény a folyamatokban, trendekben, a feltett kérdésedet nem erőből oldja meg, a telefonodon tárolt információk alapján, hanem elküldi a feladatot egy központba, egy adatközpontba, ahol több adatból értékesebb választ raknak össze. A választ amit kapsz, gyakran 10.000 számítógép szedett szét kis emészthető darabokra, és hozta össze a végeredményt számodra.

Az egész általam megvizsgált trendnek, a tudás növekedésének nem lenne túlzottan nagy jelentősége, ha nem kapcsolódna más tudományok elért eredményéhez, és azok gyakorlati, számunkra is érdemes, érdekes alkalmazásához.

A biokémiai kutatások a gének és fehérjék szintjén tart jelenleg, a kettő irány a 1990 évektől szép lassan összefonódott, és a Human Genome Projekt keretében végleg összeolvadt. Hosszú ideig a legnagyobb gondot a szekvenálás lassúsága okozta, akkoriban a becslések szerint ha nem történik valami, akkor a végső határidő a projekt befejezésére 700 év lett volna. 1997-ben a végső térkép 1% volt készen, és ez 1,4 milliárd dollárba került. A becslések 14-15 milliárd dollárra hozták volna ki a befejezést, ez meglehetősen lineáris gondolkodásra vallott, de szerencsére a gépeknek és az ötleteknek hála, a kutatás exponenciális fordulatot vett.

 2003-ra befejeződött, két évvel a projekt befejezési dátuma előtt. Az új módszerek a kémiai és számítástechnikai metódusok ideális kombinációját használták ki. A DNS szekvenálás sebességét a Moore törvényhez kötötték, ez lett a Carlson törvény. Legalább azzal a sebességgel halad a szekvenálás, és az eredménye mára 500.000 ember teljes genomját sikerült feltérképezni. 1997-ben ez utópisztikusnak tűnhetett, de hála a hiperexponenciális együttműködésnek ma már itt tartunk. Diagnózisokat, megelőzési protokollokat állítunk fel az egyedi szekvenálásokhoz.

Ez egyik valódi példa egy technológiai koevolúcióra, kémiai-számítástechnikai. Ezzel elindult egy Internet of DNA vadhajtás is, egy platform ahol megoszthatod nyugodtan a genetikai profilodat és a doktor bácsik felfedezhetnek benne betegségre utaló nyomokat.

Nem tudom ez az összeolvadás hová tart, mert ha még a mesterséges intelligenciát is bevesszük a lehetséges csapatba, hát félelmetes lehetőségek merülnek fel bennem.

De erről majd máskor.