A fizikában – és más tudományágakban – tapasztalható adatlavina (az informatikában elterjedt kifejezéssel: a Big Data) a tudomány negyedik forradalmát hozta el – erről a forradalmi hullámról beszélt az Eötvös Loránd Fizikai Társulat ma záruló debreceni vándorgyűlésén Szalay Sándor, a Johns Hopkins Egyetem professzora, a téma egyik legnagyobb nemzetközi szaktekintélye. Az adatrobbanás mibenlétére és következményeire vonatkozó kérdésekre Szalay professzor válaszol.
A kutató szerint „hétköznapi” tudományos tapasztalat, hogy kísérleti berendezéseink minden tudományterületen egyre nagyobb mennyiségű adatot generálnak. A genfi CERN nagy hadronütköztetőjének (LHC) detektorai a beérkező eseményeknek csak törtrészét tárolják, de így is működésének első két éve alatt több mint 20 petabyte adat gyűlt össze (egy petabyte a byte-nak, vagyis az információ alapegységének a tíz a tizenötödikenszerese – a Big Data egyik definíciója szerint egyszerűen a petabyte nagyságrendű adatállományok kezelése tartozik ebbe a kategóriába. Összehasonlításul: a Széchenyi könyvtárban tárolt teljes adatmennyiség nem éri el az egy petabyte-ot.).
A közeljövőben az űr titkait kutató távcsöveink is hasonló mennyiségű adattömeget produkálnak. A nagy teljesítményű génszekvenáló eszközökből nyert adatok minden hat hónapban megduplázódnak. A legnagyobb szuperszámítógépek szimulációi trillió részecske pályáját integrálják. Emellett az élet más területéről is beláthatatlan mennyiségű adat érkezik: csupán a Google, aMicrosoft, a Yahoo! és a Facebook rendszeresen több mint tíz exabyte-ot (ez a petabyte tízszerese) analizál, nem beszélve a különböző szervezetek által naponta gyűjtött információkról.
Ezt a helyzetet kezelni, értelmezni kell, amihez nemcsak megfelelő számítógépes háttérre van szükség, hanem a mérhetetlen mennyiségben áramló adat elemzésére, a hasznos és a haszontalan információk elválasztására. Ez a folyamat jól érezhetően átalakította mindennapi életünket, és ez alól a tudományos szféra sem kivétel. Szalay Sándor szerint alapvető tudományos és gyakorlati kérdés (részben még válaszok nélkül), hogy miként használjuk a nagy mennyiségű adatot – miközben a szemünk előtt alakul ki egy új tudományos irányzat, a „tudomány negyedik forradalma”.
A fizika ezredéveken keresztül a természeti jelenségek megfigyelésén alapult – miként mozognak a csillagok –, de kísérleti eszközök híján ennél többre nem törekedtek a tudósok. Az 1054-es szupernóvarobbanás annak idején csupán egy különös, megmagyarázhatatlan fényjelenség volt, csaknem ezer évnek kellett eltelnie ahhoz, hogy az emberek tudják, mi is történt. Kepler idején jött a második forradalmi megújulás, amikor a jelenségeket egyszerű egyenletekkel írták el. (Kepler három nevezetes törvénye: a bolygók pályája ellipszis, és annak egyik gyújtópontjában van a Nap; a bolygók vezérsugara – a bolygót a Nappal összekötő szakasz – azonos idő alatt azonos területet súrol; a bolygók Naptól való átlagos távolságainak köbei úgy aránylanak egymáshoz, mint a keringési idejük négyzetei.)
A fizika harmadik forradalmának a számítógépek alkalmazását szokás említeni – erre példa az amerikai atombombához vezető Manhattan-program, amelynél elsőként használtak komputereket. Ezt követően szinte mindegyik tudományágban kialakult a számítógépre épülő kutatási terület, ami a tudomány további elaprózódásához, pontosabban specializálódásához vezetett. Napjaink fejleménye, hogy a fizikusok, a kémikusok, a genetikusok az őket érdeklő hatalmas mennyiségű adatot azonos metodika alapján kezelik. Ez hozta el sokak szerint a tudomány újabb integrációját: a cél ugyan eltérő, de az alkalmazott eszközök hasonlók.
És ez hozta el a tudomány negyedik forradalmát, amely minden korábbinál több adat feldolgozását igényli. Nemcsak az említett genfi nagy hadronütköztető termel elképesztő mennyiségű adatot, a csillagászati távcsövek is hasonló ütemben ontják a mérési eredményeket. „Napjainkban a fizikusok, genetikusok nem a mérésekkel töltik idejük nagy részét, hanem a számítógépek előtt ülve a mérési adatokat dolgozzák fel” – mondta Szalay Sándor, aki a kilencvenes évek elején került a világ egyik vezető tudományos központjába, a Johns Hopkins Egyetemre, ahol a galaxisok eloszlásának matematikájával foglalkozott. A fizikus szerint negyven-ötven évvel ezelőtt viszonylag kevés adat keletkezett, és azt gyorsan fel tudta dolgozni az emberi elme, s a legtöbb ma is használt statisztikai módszer a kis mennyiségű adatra készült. Manapság az adatok tengerében a szisztematikus hibák a lényegesek, ezeket kell behatárolni, kiszűrni, amihez új algoritmusokra van szükség.
A jövőben az információk további burjánzása várható, emiatt a természettudományokban a kutatók csak akkor rúghatnak labdába, ha a saját tudományterületükön túl – fizika, kémia, genetika, biológia – az informatikát, a matematikát és a statisztikai tudományokat is magas szinten művelik. Szalay Sándor szerint a jövő egyértelmű: a mesterséges intelligenciának egyre nagyobb szerepe lesz a tudományban. 2030–2050 körül pedig a mostaninál minőségileg magasabb szinten, már alkotó módon kapcsolódnak be a kutatásba a számítógépek. A tegnap még fantasztikumnak hitt elem holnap valósággá válik – de az már az ötödik forradalom kora lesz.
Forrás: nol.hu
Kommentek
Kommenteléshez kérlek, jelentkezz be: