A részletes műholdképek, a GPS és a szuperszámítógépek korában továbbra is ott tartunk, hogy pár napnál hosszabb távra nem lehet pontosabb időjárás-előrejelzést adni. Sokszor még pár napra sem. Meteorológusnak lenni nem egy hálás feladat abból a szempontból, hogy ha bejön a jóslat, akkor általában senki nem szól egy szót sem, ha viszont elég nagy a tévedés, akkor mindenki felháborodik.
Ugyanakkor lehet, hogy ezért szinte észre sem vesszük, mennyit fejlődött az előrejelzések megbízhatósága. Ahogy Jon Shonk, a téma angol kutatója írja, egy mai ötnapos előrejelzés pontossága körülbelül a 20 évvel ezelőtti háromnapos jóslat pontosságának felel meg. Egy évtized alatt átlagosan egy napot fejlődik a szakma, ami óriási eredmény. Ma egy háromnapos előrejelzés körülbelül annyira jön be, mint tíz évvel ezelőtt egy kétnapos.
Ha ez így van, akkor viszont az az érdekes kérdés, hogy ha ebben a tempóban fejlődik a tudomány és a technológia, akkor eljön-e az az idő, amikor például egy kétnapos előrejelzés tűpontos lesz.
Nyilvánvaló, hogy a problémát a feladat bonyolultsága okozza, és a válasz elsősorban attól függ, hogy a szuperszámítógépek teljesítménye elérheti-e valaha azt a szintet, amellyel a valószínű forgatókönyvek közül nagyobb bizonyossággal lehet kiválasztani a legvalószínűbb verziót.
Shonk azt írja, hogy a brit meteorológiai szolgálat által jelenleg használt szuperszámítógép számítási kapacitása egymillió Samsung Galaxy S9-es mobiltelefonnak feleltethető meg, és a szerkezet másodpercenként több ezer milliárd művelet elvégzésére képes. Ez elég soknak tűnik, de mégsem az. Az atmoszférában becslések szerint annyi molekula mozog, nagyrészt véletlenszerű káoszban, amely szám kibontva így néz ki:
200 000 000 000 000 000 000 000 000 000 000 000 000 000 000
Természetesen nem az a feladat, hogy ezek mindegyikének mozgását előre jelezzék, de így is elég komplex dologról van szó. A legfőbb gond ugyanis az, hogy az atmoszférában már egy kisebb lokális változás is nagy eltérést okozhat, akár távolabbi területeken is. Ezért a szóba jöhető változások valószínűségét kellene minél jobban megsaccolni, elsősorban a múltbeli tapasztalatok felhasználásával – már a legkorábbi, papíralapú, térképes előrejelzések is ugyanezen az elven működtek.
Egyszerre igaz az a két állítás, hogy a mai szuperszámítógépek teljesítménye már-már felfoghatatlanul óriási, ám ennek ellenére sem lehet velük megoldani néhány olyan problémát, amely elsőre nem is tűnik annyira bonyolultnak.
Ennek klasszikus példája egyébként az úgynevezett utazó ügynök problémája. Nagyon egyszerű és hétköznapi felvetés, hogy ha egy ügynöknek el kell utaznia több városba, akkor keressük meg azt a legrövidebb utat, amely minden várost egyszer érint, és a végén visszatér a kiindulópontra.
Az a meglepő a dologban, hogy ha biztosra akar menni valaki, vagyis 100 százalékig biztosan szeretné megtudni a megoldást, akkor 10 városnál több mint 300 ezer útvonalat kell végigpásztáznia (ez még semmi), 15 városnál azonban már 87 milliárdnál is többet, 20 város fölött pedig mai tudásunk szerint egészen reménytelenné válik a vállalkozás. (A gyakorlatban persze különböző közelítő módszerek használatával mindennapos gyakorlat az utazó ügynök jellegű problémák nem 100 százalékos megoldása.)
Hasonlóan képzelhető el az időjárás-előrejelzés feladata is, az egyre jobb technika és az egyre nagyobb szakmai tapasztalat egyre jobb közelítő eredményt ad, a tökéletes megoldás azonban jelenlegi ismereteink szerint nem számolható ki.
Ráadásul a számítási kapacitás elmúlt évtizedekben megszokott növekedési üteme (alapesetben az adott felületre jutó teljesítmény kétévenkénti duplázódása) szükségszerűen lelassult, és tovább fog lassulni, ami azt jelenti, hogy a meglévő teljesítmény kihasználásának hatékonyságán kellene javítani.
Alapvető változást csak a (más logikával dolgozó) kvantumszámítógépek nagyobb léptékekben is működő verziói hozhatnak, ám ezek megjelenése egyelőre nem tűnik a közeljövő ígéretének.
Tech
Fontos