Magyar Tudomány, 2007/04 475. o.

Tanulmány



A cyber-infrastruktúra

mint aktuális kihívás

és mint tudományszociológiai probléma


Z. Karvalics László


a történettudományok kandidátusa, Budapesti Mûszaki Egyetem Gazdaság- és Társadalomtudományi Kar Információ-és Tudásmenedzsment Tanszék;

George Washington University, Georgetown University

zkl itm.bme.hu



(mi, tudósok) Ellõtt nyilak vagyunk.

A mi agyvelõink fáklyák, melyeket egy istenség a másik istenség sötétjébe hajít.

Balázs Béla: Doktor Szélpál Margit


2005 júliusában 41 neves tudós, a Science 2020 Group (fõleg angol, kisebbrészt amerikai és francia) tagjai három intenzív napot töltöttek Velencében azzal, hogy a tudomány szerepével és jövõjével kapcsolatos nézeteiket vízióvá egyesítsék. Ezt követõen több hónapos szerkesztõmunkával elkészült, és 2006 elején nyilvánosságra is került a ‘2020 tudománya felé’ (Towards 2020 Science) címû dokumentum, amely az elkövetkezõ tizennégy év legfontosabbnak tartott tudományos trendjeit és feladatait rendezte áttekinthetõ jelentéssé (Emmot et al., 2006).

A jelentés megállapításai túllépnek Paul A. David igazodási pontnak tekintett tézisén, miszerint az új digitális eszközvilág gyökeresen átalakítja (profoundly alters) azokat a módokat, ahogyan a „normál” tudományos programok szervezõdnek, támogatást kapnak, és lefutnak (David, 2000). A szerzõi kollektíva ugyanis egyenesen azt állítja, hogy az egyes diszciplínákkal összeolvadó információtechnológia forradalmi változást hoz, a tudomány radikális átalakulását eredményezi. A számítógépeknek, a hálózatoknak és a digitális eszközparknak szoftverestül, alkalmazásostul immár nemcsak metaszintû a hozzájárulása a jövõ tudományához, hanem tárgyszintû (object level) is. Nem pusztán segítségül hívják valamely probléma kezeléséhez, hanem a számítástechnika fogalmai, módszerei és tételei szervesen beépülnek az adott tudományterület mûvelésének szövetébe, új szakmai „minõségeket” hozva létre.1

Leginkább kiteljesedett módon mindez a biológia, a biotechnológia, a biokémia és a gyógyszertudomány területén látszik, de az integráció meggyõzõ a környezeti tudományokban és az asztronómiában is. A biológiai tudományoknak a korszerû információtechnológiával való egyfajta „házasságát” sokoldalúan elemzõ Rick Stevens pedig egyenesen azt állítja, hogy miközben a korszerû szimulációs és modellezõ eljárások révén máris prediktív elméleti felismerésekig lehet eljutni, a jelenlegi sejtszintû modellektõl hamarosan az organizmusszintûekig ugorva, az új biológiai felismerések legfõbb korlátjává mindinkább a számítógépes háttérrendszerek esetleges teljesítményelégtelensége válik (Stevens, 2006).

Nem véletlen, hogy a tudomány igényei érdekében fejlesztett informatikai közmûvek (information technology utilities) iránti érdeklõdés az elmúlt években erõsen megnõtt, és stratégiai kérdéssé is vált mind az Európai Unió, mind az Egyesült Államok, mind a délkelet-ázsiai versenytársak (elsõsorban Japán, Kína és Korea) esetében. A kulcsszereplõk nemzeti, kétoldalú, többoldalú és globális fejlesztési és kooperációs programjai mindinkább két kulcskategória, a cyber-infrastruktúra (cyberinfrastructure) és a tudománymûvelés kiteljesített digitális környezete (cyberenvironment) köré rendezõdnek.2

A cyberkörnyezet olyan integrált, end-to-end 3 szoftverrendszer, amely ahhoz hasonlóan teszi online és azonnal elérhetõvé a cyber-infrastruktúrát, ahogyan egy böngészõ az internetet.4 A jelen és a jövõ cyberkörnyezete a tudósoknak arra ad módot, hogy

nagy volumenû és bonyolult projekteket és folyamatokat gondozzanak, diszciplináris és földrajzi határok nélkül,

eltérõ természetû és óriási mennyiségû kísérleti, számítási és más adatforrásokat mozgósítsanak komplex problémák megoldásához a helyi, intézményi és nemzeti erõforrások „összeépítése” révén (beleértve a kutatótársakat is),

kiteljesítsék a kétirányú kapcsolatokat a már publikált és a még nyers, de már megszületett eredmények, az alap- és az alkalmazott kutatás, illetve a kutatás és az oktatás kulcsszereplõi között.

A cyberkörnyezet egyaránt támogatja a tudománygyár mûködésének átfogó újratervezését (re-engineering) és a kutatási folyamatok jobb programozását – evvel a tudomány új korszaka születik meg (next generation science), amit bátran nevezhetünk adat-intenzív tudománynak (data intensive science) (Grey et al., 2005). Az adatok menynyiségének, illetve sokféleségének ugrásszerû növekedését eredményezõ változásokkal és a kutatóközösségek teljes behuzalozásával lerövidül a megszületõ eredmény és az ahhoz való hozzáférés közti idõ. A számítási kapacitás megsokszorozódása révén megválaszolhatóvá vált kérdések száma és fajtái robbanásszerûen megnövekednek, és a válaszidõk hihetetlenül lerövidülnek. Az e-business és az e-government (a digitális térbe „átkúszó üzlet s kormányzat világa után) beléptünk tehát az e-science korszakába – amit mi sem bizonyít jobban, mint a különbözõ kormányok által e-tudományra szánt források növekvõ összege (az Egyesült Államok egymaga évi 400 millió dollárt, a britek öt év alatt 500 millió dollárt fordítanak erre a célra).

Az Egyesült Államok Nemzeti Tudományos Alapjának (National Science Foundation – NSF) Cyberinfrastructure: Vision for 21st Century Discovery címû stratégiai anyaga 2006. január 20-án látott napvilágot,5 és a cyber-infrastruktúra kiteljesítése érdekében öt kiemelt területet állított a középpontba:

1. A nagyteljesítményû számítástudományt (high-performance computing)

2. Az adatok, az adatelemzés és a vizualizáció világát

3. Az adatok cyber-infratsruktúráját komplex, globális kontextusban

4. A kutatói közösségek együttmûködését, a megfigyelõállomások felértékelõdõ helyét és az új virtuális szervezeteket

5. Az oktatási és munkaerõ-vonatkozásokat (erre önálló terv született)

A tudományos kutatások hagyományos infrastruktúrájaként szolgáló könyvtári rendszerben a fentiekkel tökéletesen analóg változások mennek végbe. A második generációs digitális könyvtárakkal szemben támasztott követelmények a mennyiségi és szervezeti kihívásokra is reflektálnak. Heiko Schuldt (2005) áttekintésében ezek az alábbiak:

Megfelelõen kialakított szolgáltatásokkal minél nagyobb tömegû felhasználó számára tegye elérhetõvé az igényelt adatokat és digitális könyvtári alkalmazásokat.

Célozza meg az egy hálózati térbe kerülve adatokat és szolgáltatásokat nyújtók közti kölcsönös kapcsolatok kiépítését.

Olyan számítási/feldolgozási és adattárolási kapacitást érjen el a grid-technológia segítségével, mint amelyek korábban csak a nagy hálózati szolgáltatásokat jellemezték.

A folyamat jelentõsége és a kihívás mélysége láthatóan már messze túlmutat az érintett tudományterületek és a számítástudomány képviselõin: a teljes tudományos közösség mellett a felsõ- és közoktatás szereplõi, valamint a politikai és gazdasági elit számára is fontos, hogy sokoldalúan foglalkozzon az alapfogalmakkal, az elterjedt megoldásokkal, a cyber-infrastruktúra természetével és megoldó erejének „anatómiájával”, a változások dinamikájával, a fejlesztések tétjével, s az egész átalakulás rendszerszemléletû elemzésével.

A továbbiakban elsõként arra keressük a választ (számos példa segítségével), hogy egészen pontosan mit és hogyan változtat meg a cyber-infrastruktúra a tudományban mint tudástermelõ és elosztó „megagépezetben”.6 Az elemzõ áttekintés segítségével bemutatjuk a változások rendszertermészetét, s ebbõl kiindulva (e tanulmány folytatásában) megfogalmazunk több radikális, új hipotézist, amelyek új oldalról mutatják be a tudomány „cyberkorszakának” strukturális és intézményi korlátait. Ezt követõen pedig sokoldalúan érvelünk amellett, hogy az „információs társadalom” tudománya és tudományos közössége nem (elsõsorban) az információtechnológia csodái, hanem társadalmi innováció, egy „humán forradalom” révén léphet fejlõdése következõ szakaszába. A cyber-infrastruktúra önmagában még nem eredményez paradigmaváltást, de elõkészítõje, megalapozója és nélkülözhetetlen háttérfeltétele annak.


Funkció és folyamat: mi történik valójában?


A tudományt átalakító digitális födrengés öt „színtéren”, öt „támadási ponton” zajlik, ezeket egyenként bemutatjuk, majd egy szintetikus ábrában, modellszerûen összesítjük a részfolyamatokat.

1.

Az új-mexikói Apache Point ad otthont a Sloan Digital Sky Survey (SDSS) 1,5 méteres teleszkópjának. A program kezdete, 2000 óta másodpercenként 5 megabájt adatot termel a 120 megapixeles kamera. Amikor az ambiciózus program véget ér (a tervek szerint 2008-ban), az égbolt egynegyedének háromdimenziós képe lesz elõállítható, benne több mint egymillió galaxissal és kb. félmilliárd ûrobjektummal.7 És ez csak a kisöccse lehet a mûködését 2010-ben, Chilében megkezdõ Large Synoptic Survey Telescope-nak (LSST), amely a maga 8,4 méteres mérete mellett minden éjszaka 30 terabájtnyi képi adatot termel, távoli galaxisok milliárdjait téve láthatóvá és vizsgálhatóvá. 2012-ben fejezõdik be a gigantikus rádióantenna-rendszer, a Hubble ûrtávcsõnél tízszer élesebb ALMA 66 telepítése (szintén Chilében, az Atacama sivatagban), amely 3 másodpercenként fog egy új galaxist felfedezni.

Európai és amerikai rádiócsillagászok ugyanakkor már 2004-ben meggyõzõen demonstrálták a Világegyetem kutatásának egy új módját – az Internet segítségével. Különbözõ kutatási hálózatok felhasználásával egy gigantikus méretû „virtuális teleszkópot” hoztak létre, amely néhány éve még elképzelhetetlen, soha nem volt részletességû és valós idejû képalkotást tesz lehetõvé.8 Brit, svéd, holland, lengyel és Puerto Ricó-i rádióteleszkópok húsz órán vették célba a por- és gázfelhõbe burkolt, de erõs rádióhullámokat kibocsátó, tõlünk több mint 15 ezer fényévnyire, az Aquila (Sas) csillagképben keringõ IRC+10420 kódjelû csillagot. A várhatóan hamarosan szupernovává váló égitestrõl a nemzeti kutatási hálózatokat felhasználva zúdultak az adatok a hollandiai feldolgozóközpontba, ahol a 9 terabájt adattömeget a „Korrelátornak” becézett speciális szuperszámítógép dolgozta fel. A „minél nagyobb a teleszkóp, annál jobb a felbontás” elve a virtuális internet-teleszkóppal fényesen bebizonyosodott: már az elsõ kísérletnél is ötször jobb képet lehetett produkálni, mint amit a Hubble ûrteleszkóp nyújt. A távlatok felmérhetetlenek: nemcsak az immár e-VLBI néven számon tartott technológia finomodása, hanem az adatátviteli sebesség további növelése is nagyságrendi ugrásokat eredményezhet.9

Petabájtos nagyságrendben fogja elõállítani és hozzáférhetõvé tenni az új adatokat a genfi CERN-ben épülõ Large Hadron Collider részecskegyorsító is, és már folyamatosan ontják a feldolgozóközpontokba a jeleket az ún. szenzor- vagy érzékelõhálózatok (sensory networks), amelyek radikális árcsökkenésük után szintén petabájt nagyságrendig jutnak majd. De már most is létezõ projektek tucatjai révén kapunk adatokat a nanoszinttõl a kontinensnyi tartományokig nagy méretekben, folyamatosan és a történésekkel egyidejûleg a világról az óceánokban, gleccserekben, patakparti talajban, a légkörben, mozgó jármûveken, az emberi testben telepített szenzorhálózatoktól. A kutatók folyamatosan új kérdéseket tehetnek fel, vagy új feltevéseket ellenõrizhetnek az egymással összhangban dolgozó, adatokat megosztó hálózatokon. Ez Gaetano Borriello szerint pontosan olyan hatású, mint a kísérleti természettudományok megjelenése volt az újkorban, a létrejövõ új „minõséget” Vernor Vinge bátran el is nevezi digitális Gaiának, az „input adatok globális ökoszisztémájának”. (A magunk részérõl találóbb metaforának érezzük a korábban Bill Gates ajánlott digitális bõrt – digital skin). Jellemzõ, hogy a korábban kizárólag adatfeldolgozásra használt számítógépek világába is „betör” az érzékelõk forradalma, egyre több számítógép fog szenzorként is üzemelni egyéb feladatainak ellátása mellett.

Az ezt bizonyító egyik legizgalmasabb és leghasznosabb fejlesztés a merevlemez olvasófejének mozgásait követõ hibajavítási és biztonsági alkalmazást használja ki. A Tsunami Harddisk Detector 10 nagyobb rázkódások, így szeizmikus mozgások esetén képes az egyszerre több számítógép winchestere által mért mozgásokat összesíteni. A felhasználóknak csupán egy apró programot kell Internetre kapcsolt gépükre telepíteni. Az atomórákkal szinkronizált alkalmazás pontosan jelzi a rezgések terjedését, így lehetõséget kínál egy esetleges földrengés epicentrumának meghatározására. Az egyszerû algoritmus megvizsgálja, hogy a rengés a tenger alatti földlemezek mozgásából ered-e, amennyiben igen, az adott területen automatikusan riaszt, figyelmeztetve a lehetséges szökõárra.

Csak emlékeztetõül: a feldolgozórendszerek jelenleg a terabájtszintû adatkezeléssel is küszködnek, miközben jól láthatóan itt van már a petabájt nagyságrend. Az input adattömeg „nyomása” alatt roskadoznak a feldolgozórendszerek – nem véletlen, hogy a tudomány cyber-inftastruktúrájának második „epicentruma” a számításteljesítmény növelése.


2.


Az újonnan képzõdõ adatmennyiség tárolásával és átvitelével kapcsolatban számottevõ, a felhasználás folyamatosságát akadályozó kapacitorikus korlát a rendszerbe állított adathordozók fizikai „szaporíthatósága” és a szélessáv detonációja miatt ebben a pillanatban nem mutatkozik. Annál inkább elõtérben áll a számítógépes adatfeldolgozás mûveleti sebességének (computation performance) a megsokszorozása, amelynek egy hagyományos és egy erõsen új módja az elmúlt néhány évben párhuzamosan indult hatalmas fejlõdésnek: a gigaflop-tartományból indulva megérkezett a teraflop-szintre, hogy szinte azonnal a petaflop-skálát kezdje ostromolni.11

Az egy géppel elérhetõ számításteljesítmény növelésének mintegy harminc éve a szuperszámítógép-fejlesztés az elsõdleges terepe, a jelenlegi architektúra határainak folyamatos tágításával.12 A hetvenes évek közepén a Cray erre „szakosodott” elsõ gépei 1-200 megaflop körüli teljesítményt tudtak produkálni, és már akkor is légkörkutatásokra, majd különbözõ szimulációkra használták õket. A „repülõrajt” után a fejlesztés dinamikája (és a szuperszámítógépes üzlet) megtorpanni látszott, hogy aztán az ezredforduló után soha nem látott tempóban induljon meg a verseny az egyre gyorsabb masinák egyre nagyobb számú gyártója között.

Sokáig az NEC által Yokohamában, 2002-ben, klimatológiai megfigyelésekre üzembe állított japán Earth Simulator elnevezésû gép vezette a listát a maga közel 36 teraflopos sebességével, de mivel az Egyesült Államokban kisebb „szputnyiksokkot” okozott a japán térnyerés, 2004-ben a NASA Columbiá-ja (az SGI gyártásában), majd 2005-tõl az USA Lawrence Livermore Nemzeti Laboratoratóriumába telepített IBM Blue Gene szériája futott fel a dobogó tetejére. A jelenlegi listavezetõ, a széria „L” jelû darabja, elsõként és ezidáig egyedüliként átlépve a százas küszöböt, már 280 teraflopnál tart. A következõ generációt most telepítik ugyanott, ebben 130 000 processzor dolgozik majd egy idõben, sebessége pedig el fogja érni a 360 teraflopot.

Az IBM-nek egy másik fejlesztése is közel jár a befejezéshez. A Roadrunner az amerikai energiaügyi minisztérium Los Alamos-i Nemzeti Laboratóriumának új szuperkomputere lesz, és teljesítménye a tervek szerint eléri az 1 petaflopot. A Cray, amely egy géppel „visszakúszott” a térképre, 2007-re ígéri 1 petaflopos gépe, az Oak Ridge üzembe helyezését.

Eközben a japán RIKEN kutatólaboratóriuma már el is készítette, és üzembe is helyezte a maga 1 petaflopot tudó gépét, a MDGRAPE-3-at, amellyel molekuladinamikai szimulációkat, proteinszerkezeti elõrejelzéseket végeznek (a listát csak azért nem ez a szuperszámítógép vezeti, mert nem „általános célú”, hanem kifejezetten erre a feladatra fejlesztették). A talaj „forró”: az eddigi versenyzõkhöz csatlakozó franciák és németek után immár Kína is tervbe vette, hogy 2010-ig a világ legerõsebb szuperszámítógépe az övé lesz. S miközben az Earth Simulator 2006 júliusában még mindig tizedik tudott maradni a számítógép-teljesítmények Top 500-as ranglistáján a maga 36 teraflopjával, aközben Japán még egy nullát kíván a jelenlegi számok mögé írni: bejelentette a 10 petaflopos gép terveit.

A másik fejlesztési irány, a kisebb teljesítményû számítógépek hálózati összekapcsolása egyelõre még (csak) a teraflopos nagyságrendnél tart. A számítástechnikában már korábban is létezõ elosztott rendszerek (distributed computing) világának új fejleményeként elõször (a kilencvenes évek közepétõl) önkéntes alapon, a kihasználatlan gépidõ átengedésével jöttek létre óriási kapacitások – a Földön kívüli életformák rádiójelei után kutató pionír SETI home mára elérte a négymillió gépet és a 100 teraflopos teljesítményt. A korábbi genome home-t magába olvasztó, proteinstruktúrákat szimuláló Folding home pedig kevesebb géppel is már 150 teraflop körül jár. Az elsõ eredmények láttán három irányban fejlõdnek tovább a feldolgozóhálózatok.

(1) Az önkéntes felajánlásokra épülõ programok mindinkább összehangoltan, közvetítetten és számos részmegoldással támogatottan futnak tovább; (2) Miután a „hivatalos” tudománypolitika is felfedezte magának az összekapcsolásban rejlõ lehetõségeket, elindultak a szervezett, nagy intézményi kapacitásokat összeépítõ tudományos célú hálózatok, az ún. gridek (GRID-ek); (3) Állandó a törekvés a grid-architektúra informatikai innovációjára, új típusú gridek építésére.

(1) A Berkeley Egyetem nyílt forrású szoftverplatformra épülõ BOINC programja (Berkeley Open Infrastructure for Network Computing) tucatnyi, külön-külön is jól ismert tudományos projekt számára „közvetíti” ki a gépidõ átengedését (a legtöbb jórészt környezeti modellezéssel, klímaváltozással foglalkozik, de megtaláljuk benne a mi SZTAKI-nk Desktop Gridjét is). A SETI home mellett ebbe a körbe tartozik például a bolygó klímájának elõrejelzésén dolgozó Climateprediction.net, illetve a pulzárokból kiinduló gravitációs jeleket keresõ Einstein home. A felhasználó a számítógépe parlagon heverõ képességeivel keresheti betegségek nyitját (Rosetta home) és különféle fehérjék várható tulajdonságait (Predictor home).12 A BOINC lehetõvé teszi, hogy ugyanaz a szoftver a számítógépet többféle probléma megfejtésével is elfoglalja. A megosztott mûveletekre felajánlott számítógépek erejét így több projekt párhuzamosan használhatja. Természetesen a BOINC-tõl függetlenül továbbra is jönnek létre önállóan szervezõdõ hálózatok: eddig 170 ezer számítógéppel kapcsolódtak be például önkéntesek a világ különbözõ tájairól, hogy az óriási számítógépes kapacitást kihasználva a FightAIDS Home programban részt vállalva AIDS-terápiákat keressenek

(2) Az „intézményi” gridek „elsõ generációját” (Grid 1.0, computational grids) a nagy volumenû szimuláció jellemezte, „klasszikus” számítási erõforrás allokációval. Az újabb generációs grideknél (Grid 2.0, data grids) az adatáramlás iránya megfordul, a cél immár a nagy volumenû együttmûködés14 támogatása, ahol a megtermelõdés helyérõl nagy kapacitású feldolgozóközpontokba jutnak el az adatok.15

Az Egyesült Államok a hálózati erõforrások és az elosztott rendszerek új generációjától az innovációt és a gazdasági növekedést egyaránt stimuláló infrastruktúra kialakítását reméli, és erõfeszítéseit a GENI Initiative16 (Global Environment for Networking Innovations) köré csoportosítja, ami a gridvilág minden biztonsági, platform-, menedzsment-, felhasználhatósági, illetve szolgáltatási/alkalmazási kérdésében elõre kíván lépni.

Az amerikai Open Science Grid (OSG) és az európai Enabling Grids for E-Science (EGEE) összekapcsolásával minden idõk legnagyobb tudományos megagépezetének (Worldwide LHC Computing Grid – WLCG) sikeres próbaüzemérõl értesülhettünk 2006 elején. A kísérletben bebizonyosodott, hogy amikor a Genfben épülõ óriás részecskeütköztetõ 2007-ben elkezd dolgozni, a mintegy két tucat partnerintézmény képes lesz az innen érkezõ terabájtnyi adat fogadására és tárolására, illetve elérhetõvé tételére.

(3) Alacsony költségû alternatív gridtechnológia a Dr. Rajkumar Buyya által a Melbourne Universityn fejlesztett Alchemi,17 amely a Windowsszal futó gépeket szervezi virtuális szuperszámítógéppé.

Egyre több kutatói hálózat tervezésébe épül már eleve bele a cél és a lehetõség, hogy egyidejûleg több gridet is ki tudjon majd szolgálni – illetve különbözõ hálózati erõforrásokat igénybe véve párhuzamosan lehessen end-to-end szolgáltatásokat futtatni. A kulcsszavakkal – Articulated Private Networks (APNs), Concurrent Architectures are Better than One (Cabo) – célszerû mihamarabb megismerkedni, a kanadai CA*net 4 vagy az amerikai National Lambda Rail már ezek egyfajta „prototípusaként” üzemel.


3.


Mielõtt az elemi és az (elõ)feldolgozott adattömeg elérné felhasználása legfontosabb célállomását, a kutató agyát, mûködésbe lépnek a kutatói tevékenység támogatásának háttérrendszerei is. Mint egy tisztító zuhanysoron, úgy mennek át a „nyers” adatok különbözõ algoritmusok, átalakítások, rendezések és érték-hozzáadott mûveletek láncolatán, ahol valamennyi fázis egyetlen célt szolgál: az értelmezést végzõ elme számára tenni áttekinthetõbbé, rendezettebbé, kezelhetõbbé az input információk hatalmassá növekedett áramát.

Abból a hátrányból, hogy a terabájtnyi adattömegek már nem futtathatóak „privát” gépeken, és a „birtoklás” helyett a hozzáférhetõség válik kulcskérdéssé, a tudományos közösség úgy kovácsolt elõnyt, hogy új típusú, a tárolást és az elérést biztosító szakosított célintézményeket, ún. science centereket, tudományos központokat hozott létre.

Ezek talán legismertebb képviselõje a Sanger Intézet genetikai adatbázisa, a Trace Archive, amely a világ tudományos közössége által felderített összes génszekvenciát tartalmazza: 2006 végén körülbelül 40 terabájtnyi adatot. Mérete tízhavonta megduplázódik. Az adatbázis 2006 elején egymilliárd rekordot számlált (egy rekord átlagosan 864 bázis sorrendjét tartalmazza).18 A tudományos központok nagy elõnye, hogy „specializálódhatnak” egyes adattípusokra és a kollégák kiszolgálására. A tárolt adattömeg mellett alkalmazásokat futtatnak és támogatnak, és felkészült személyzettel tartják karban a rendszereiket. Elemi érdekük az innováció. Storage Resource Broker (SRB) néven például párhuzamosan fejlesztett sikeres, gridekre optimalizált adatkezelõ alkalmazást egy magáncég (a Nirvana) és a San Diegó-i szuperszámítógép-központ. Utóbbi – közel félszáz együttmûködõ partnert kiszolgálva – élenjár a metaadatok használatatát megkönnyítõ megoldások fejlesztésében is (MetaData Catalog – MCAT).

Nem véletlen, hogy a cyber-infrastruktúra elkezdte saját céljaira alkalmazni az üzlet világára kifejlesztett, tranzakció-orientált munkafolyamat-vezérlõ szoftvereket (workflow tools) is. A hosszú adatfolyamok és összetett mûveletegyüttesek vezérlését, áttekintését megkönnyítõ, egyedi és vagy standard felhasználói felületek (interfészek) komponálását lehetõvé tévõ eszközöket egyszer csak birtokba vette a bioinformatikusok közössége, de rohamos terjedésnek indult a csillagászok és az ökológusok között is (legismertebb példái a kanadai BioMoby és Taverna, valamint a Triana és a Keppler 19).

A korszerû szoftveres megoldások és munkafelületek azonban csak kényelmesebbé teszik a kutatók életét, de önmagukban még nem szüntetik meg az adatok „elõfeldolgozásával” kapcsolatos szûk keresztmetszeteket. Az adatállomány elemzéséhez még mélyebbre, algoritmus szintig kell „lenyúlni”, hogy a megnövekedett mennyiség kihívását az analitikus eszközök követni tudják (Gray et al., 2005). Az új nagyságrendek pokoli nyomásviszonyai között hasonlóképpen alakul át az adatok megjelenítésének, vizualizációjának világa: fejlesztés alatt állnak azok az új adatreprezentációs architektúrák (Agutter – Bermudez, 2005), amelyek már kifejezetten az új méretek „leképzésére” hivatottak.

A cyber-infrastruktúra változásainak ezen a szintjén az eszközöknek egy olyan, az elsõdleges adatok elõfeldolgozására „szakosított” családja formálódik ki, amely a digitális platformon találkozik és olvad össze a tudományos munka korábbi, a másodlagos adatokhoz való hozzáférésre kifejlõdött óriásrendszereivel (a szakirodalmi, bibliogáfiai adatokkal és magukkal a különbözõ formában közzétett tudományos tartalmakkal). Amikor Ian Foster bátran bevezeti és népszerûsíti a szolgáltatásorientált tudomány (service-oriented science) kategóriáját (Foster, 2005), nem pontosan erre a „fúzióra” utal, de hogy találóbb kifejezést nehéz volna keríteni rá, az majdnem biztos.


4.


Az elõzõ három szinten létrejött hálózati, átviteli, tárolási és mûveleti kapacitások technológiai oldalról szinte mindent elõkészítenek ahhoz, hogy létrejöjjön az adatok hatékony találkozása az azokat értelmezõ és összefüggésbe helyezõ kutatói közösségekkel. A technológiai kihívás tehát még tovább tolódik a szakmaszintû interakció támogatása felé. A megnövelt méretû adattömeg magas értékhozzáadású feldolgozása a kooperáció újszerû formáit igényli, egyidejûleg minél több szakértõ összehangolt munkáját, amellyel elkerülhetõek a felesleges párhuzamosságok, és biztosítható a szükséges „humán infrastruktúra”, a megfelelõ minõségben, de még inkább mennyiségben és diszciplináris sokszínûségben. A korszerû hálózati technológia soha nem látott méretû és rugalmasságú tudásközösségekbe kovácsolja az elsõdleges adatokra érzékeny kutatókat, akiket saját „tárgyuk” természete húz a globális együttmûködés felé. Elsõsorban a genetika és az asztronómia az a két tudományterület, amelyben elkerülhetetlennek látszik a tudósok részleges „feloldódása” világméretû kutatóközösségekben, amelyeket a fundamentális és megkerülhetetlen adatbázisok közös gyarapítása és felhasználása abroncsol össze.

A nyomás egyszerre több irányból érkezik. Az egymással versengõ nemzeti, illetve szupranacionális tudománypolitikák, az üzlet és maga a tudomány is ugyanabban az irányban keresi a megoldást.

Az Európai Bizottság 2006. április 28-án jelentette be egy nagysebességû hálózati infrastruktúra terveinek jóváhagyását, melyhez 45 ezer európai és kínai kutató, illetve diák férhet majd hozzá. Az ORIENT (Oriental Research Infrastructure to European NeTworks) névre keresztelt hálózat több mint kétszáz kínai egyetemet és kutatóintézetet fog összekapcsolni Európával, 2,5 Gbps adatátviteli sebességgel, többek közt a radioasztronómia, a fenntartható fejlõdés, a meteorológia és a gridszámítás területein segíti majd a már meglévõ20 és a majdani európai-kínai tudományos együttmûködéseket. Az infrastruktúra-építés ebben az esetben elsõsorban a kutatók összekapcsolását szolgálja, jól érzékelhetõ geostratégiai céllal.

Az Innocentive kezdeményezés21 – ami nem más, mint egy ügyesen megkonstruált weboldal – világszínvonalú kutatók (problem solverek) és fejlesztési kérdéseiket tudományra orientáltan megoldani kívánó vállalatok (seekerek) együttmûködését szervezi. 2006 végén több mint 175 országból több mint 100 ezer tudós, illetve tudományos szervezet állt már csatasorban, elsõsorban komplex kihívásokra adott innovatív megoldásokkal, fõleg gyógyszerkutatási, biotechnológiai, kémiai, élelmiszeripari és mûanyagipari (nemritkán a 100 ezer dolláros összeghatárt is meghaladó) projektekben.

Egy másik weboldal „keretfelületet” épített bármilyen, esetlegesen felmerülõ tudományos együttmûködési szándékhoz. A (most már tizenöt nyelven, köztük magyarul is elérhetõ) www.academici.com lehetõvé teszi, hogy a világ bármely pontján lévõ tudósok és kutatók határok és kötöttségek nélkül bármikor megoszthassák egymással a tapasztalataikat, vagy megvitathassanak bármilyen kérdést, javaslatot, elõterjesztést, problémát. Az Academicin az érdeklõdõk többfajta szempont, például kutatási terület vagy tudományos érdeklõdés alapján is kereshetnek, és így akár percek alatt felvehetik a kapcsolatot egymással a világ legtávolabbi helyein lévõ oktatási vagy tudományos intézmények.

Az Európai Unió DILIGENT projektje22 „virtuális tudományos közösségek” számára fejleszt biztonságos, koordinált, dinamikus és költséghatékony kísérleti felületeket a tudás megosztására és az együttmûködésre, a Grid és a DL (digital library) technológiák kombinálásával. Ez a kombináció a jövõ e-tudományos infrastruktúrájának kulcsa, számos további kutatási, sõt ipari alkalmazási lehetõséggel. Két valós idejû alkalmazási területen kísérleteznek: egy környezetvédelmi és egy kulturális örökségvédelmi témában.

Érzékelhetõ, hogy a tudománymûvelés hagyományos erõforráskorlátai mellé (intézményi kapacitások, pénzhiány) felzárkózott a „humán infrastruktúra” mint szûk keresztmetszet: a virtuális kollaborációs felületek és szolgáltatások világa annyiban segít, hogy a kreativitást is szolgáló kiterjesztett kommunikáció és a hatékonyságot fokozó koordinációs mechanizmusok révén racionalizálni és orientálni képes a feldolgozó munkába bevonható kutatói állomány teljesítményét és figyelmét: jobb gazdálkodást tesz lehetõvé a már meglévõ alkotó erõvel; a tudományos megismerést mozgásban tartó agymunkával.


5.


És még mindig nincs vége a beavatkozási lehetõségeknek. Szinte minden kutató megélt tapasztalata a felismerés, hogy a különösen értékes erõforrássá lett emberi életidõ rosszul hasznosul a tudományban, és a rutinmunka kényszerû végzése a kreatív tevékenység elõl rabolja a figyelmet és az energiát. Az igényelt „humán erõforrások” biztosításának jól bevált módja a szellemi mûveletek további automatizálása – másképp: az algoritmizálható agymunka23 gépesítésének újabb hulláma. Az így felszabaduló idõ hatékonyan forgatható vissza a problémamegoldó folyamatokba.

Az agymunka automatizációjának elsõ, forradalmi fejezetét a számítógépek története írta, itt már nem maradt tér további beavatkozásra. Ismeretelméleti értelemben a szenzorok is részben az agymunka gépesítésének tekinthetõek, hiszen az in situ érzékelésteljesítményt váltják ki, és sokszorozzák meg. Az információtechnológia harmadik rendszerszintjén a szövegalapú adatok tárolása, keresése, indexelése stb. is már régóta sikeres automatizálási célpont, de az online világ a kulcsszavas kereséssel, a professzionális böngészõkkel ehhez még sokat hozzátett az elmúlt években. A szolgáltatások szintjén azonban még nyílik tér a beavatkozásra: a robotkönyvtárosok, például, arra szabadítanak fel idõt, hogy a könyvtárosok magasabb értékhozzáadású tevékenységgel segíthessék a tudástermelésben érintett kollégáikat.

A MTI 2004. február 17-én jelentette, hogy napi 24 órás szolgálatot teljesítõ robotkönyvtárost állítanak szolgálatba az USA Indiana államában lévõ Valparaiso egyetemének könyvtárában. A megadott könyveket az okos masina megkeresi a polcokon (a könyvtárnak jelenleg 450 ezer könyve van), és átadja az emberi személyzetnek. Alig másfél hónap múlva online források számoltak be arról, hogy Spanyolországban is hasonló szerkezet készült. A castellóni I. Jakab Egyetem (Universitat Jaume I.) robotikacsoportja által tervezett gépkönyvtáros infravörös sugarak segítségével tájékozódik, azonosítja az olvasók által kért könyv címét a kötet borítóján, sõt a gerincén is, mi több, meg tudja különböztetni az eltérõ grafikájú címeket is. Miután megtalálta a kért könyvet a polcon, leemeli, majd átnyújtja az igénylõnek. Eközben kikerüli az akadályokat, s nem ütközik össze a figyelmetlen könyvtárlátogatókkal sem.

De a robotkönyvtáros-szenzációk eltörpültek egy még korábbi bejelentés mögött: az agymunka algoritmizálása 2004 óta immár a negyedik rendszerszinten, a feldolgozó munkában is valósággá vált.24

A Walesi Egyetem, a Manchesteri Egyetem, az aberdeeni Robert Gordon Egyetem, valamint a londoni Imperial College számítástudományi szakembereibõl álló brit kutatócsoport robottudósnak „elkeresztelt” rendszere egyes genomikai laboratóriumi rutinvizsgálatokat25 a valódi tudósokéval vetekedõ eredményességgel képes elvégezni. Segítséget nyújt a genetikai kísérletek lefolytatásakor, ám ezt követõen önállóan elemzi és értékeli az eredményeket, sõt ha kell, új hipotéziseket is felállít, és hozzájárul a legmegfelelõbb kísérleti módszer kiválasztásához is.

A kutatócsoport ráadásul az adott kísérleteket szintén lefolytató végzõs egyetemi hallgató teljesítményével is összevetette az új „kolléga” eredményeit, s meg kellett állapítaniuk, hogy a kapott eredmények az automatizált rendszer esetében ugyanolyan pontosak voltak. A 98 %-os megbízhatósággal teljesítõ robot ugyanakkor kevesebb kísérlet lebonyolításával jutott ugyanarra az eredményre, mivel hipotézisgeneráló szoftvere elõbb találta meg a megoldást.

A „robottudós” megkonstruálása Stephen Muggleton professzor számára nemcsak arról szólt, hogy a fáradságos aprómunkát „kiváltsák”. Demonstrálni kívánták, hogy a rutinjellegû laboratóriumi vizsgálatok automatizálásával a tudósok rengeteg teher alól szabadulhatnak fel, s tudásukat és figyelmüket kreatívabb, magasabb szintû tudományos feladatok megoldására fordíthatják.26


A cybertudomány taxonómiája és érvényességi köre: az e-science diadala és korlátai


A tudomány aktuális mozgásirányait áttekintve Paul A. David és Michael Spence az adott résztevékenységek elsõdleges célja alapján osztályozták a fejlesztéseket. Ennek alapján különítettek el négy kategóriát, amelyek tökéletesen egybevágnak az általunk bemutatott rendszerszintekkel (David – Spence, 2003).

Adatközpontú (Data centric)

Számításközpontú (Computation centric)

Interakció-központú (Interaction-centric27)

Közösségközpontú (Community-centric)

Társítsuk e négy szinthez azokat a mûveleteket, amelyek elvégzése érdekében a kapacitások csatasorba állnak, és rendeljük melléjük azokat a mennyiségeket, amelyek alapján a „kimeneti” teljesítmény mérhetõ és összehasonlítható – és megkapjuk a cybertudomány „rétegmodelljét”. (1. táblázat)

Mint láttuk, a technológia könnyûszerrel átlépi a kategóriahatárokat (a gridek például gyakorlatilag mind a négy mûveleti szintet kiszolgálják már), és erõs „csomósodások” figyelhetõek meg az egyes szintek között is. A 2. és a 3. szintet a tudományos központok (science centerek) közelítik egymáshoz, és határozott jelei vannak annak, hogy ez az integrációs mozgás nem áll meg az 1., illetve a 4. szint határainál. A 3. és a 4. szintek is olyan erõsen „vonzzák egymást”, hogy közös minõségükként Paul A. David a „kollaboratív e-tudomány” kifejezést (collaborative e-science) javasolja (David, 2004).28 Az 1. és a 2. szint a kihívás analóg természete és számos közös hardver- és szoftvereleme miatt „csúszik össze” a petaszintû tudományos adatmenedzsment (peta-scale scientific data management) gyûjtõkategóriába. A távolságok valóban rövidülnek: ma már semmi meglepõ nincs abban, ha egy tudós a 4. szinten azonnali igényt fogalmaz meg egy 1. szintû szenzor adatra, amit az összekapcsolt rendszerek a lehetõ legrövidebb idõn belül megpróbálnak biztosítani. Nem véletlen tehát, hogy mind többen vetik fel a cybertudomány következõ fejlõdési szakaszaként az egyetlen óriásrendszerben való összeolvadás hipotézisét.

A svájci anyagtudományi és technológiai kutatóintézet, az Empa Lorenz Hilty által vezetett kutatócsoportjának elõrejelzése szerint tíz éven belül körülbelül egymilliárd ember mintegy egybillió elektronikusan összekapcsolt „tárgy” segítségével kapcsolódik össze egy soha nem volt méretû „megagépezetbe”. Sir Tony Hoare és kutatótársai is abból az alapfelvetésbõl indulnak ki, hogy a világ idõvel egyetlen végsõ globális számítógépes hálózatba forr össze, s idõben el kell kezdeni az ennek megépítéséhez szükséges mérnöki-tervezõi munkát.


Út a cyber-infrastruktúra szintjeinek

teljes összeolvadásához


Ez a vízió olyan erõs, hogy sok elemzõt tol egy eszközközpontú jövõkép felé. Nem mindenki elégszik ugyanis meg az olyan, még tartható állításokkal, mint a Science 2020 szerzõi, hogy „a számítástudomány fogalmi világa új absztrakciós szintekkel gazdagítja az egyes diszciplínák kutatóit”. Visszatérõen találkozhatunk avval a véleménnyel, hogy az alaptudományok elkerülhetetlen informatizálása a kutatói munkához szükséges informatikai jártasságok és készségek olyan fokú „megjelenítését” igényli a jövõ szakembereinél, a programozási ismeretektõl az algoritmus-generálásig, ami már-már azonos értékû magára az érintett tudományterületre vonatkozó tudásokkal. Vagy fordítva: magas szintû informatikai ismeretek nélkül nem lesznek mûvelhetõek a leginkább érintett tudományok (a biológia, az asztronómia és a klimatológia).

Ezek a nézetek a kibontakozó folyamatok természetének többszörös félreértésén alapulnak, és már most látszik, hogy a tudományos nagyüzem egészen másképp oldja meg a gondokat. Miközben minden informatikai jellegû problémának kialakulnak a maga specialistái,29 a kutatóközösség esetében a bonyolódó eszközkörnyezet kezelhetõvé tételének bevált megoldása, az alkalmazói felületek és programok fejlesztése bizonyul eredményes útnak. A munkamegosztási lánc érzékelhetõ hosszabbodása mellett a tudóstársadalom is két részre oszlik (Gray, 2005): az adatmenedzsmentre szakosodottakra és a feldolgozásban érintettekre, s eközben a szükséges tudások megfelelõ kombinációinak elõállítása minden további nélkül biztosítható interdiszciplináris kutatócsoportok (teamek) és új, gyakorta virtuális együttmûködési formák kialakításával is.

A jelenlegi feldolgozási kapacitásokra méretezett tudomány hatékony intézményi és technológiai megoldásainak közös „metszete” az intenzifikálás. Az informatikai innovációkkal a meglévõ kutatói közösség megnövelt projektméretekben is alkalmassá válik arra, hogy a kialakult pénzügyi és irányítási mezõben megbirkózzon a saját maga által célirányosan megtermelt új adatok tömegével. Csakhogy a „mintegy mellékesen” megtermelõdõ, jóval nagyobb számosságú adat feldolgozása és a felmerülõ problémák természete által igényelt még nagyobb méretû projektek gondozása már meghaladja az intenzifikálásban rejlõ lehetõségeket. A megnövelt informatikai teljesítmény ettõl a ponttól kezdve a lassan kibontakozó extenzív fejlõdés támogatójává lesz – vagyis eddigi feladatai közé bekerül a tudományos problémamegoldásba újonnan bevonásra kerülõ csoportok mindenoldalú menedzsmentje is.

Kulcsszavak: cybertudomány, cyber-infrastruktúra, cyberkörnyezet, adat-intenzív tudomány, peta skála, GRID, agymunka, tudományos adatközpontok, kollaboratív e-tudomány, varratmentes tudományos szuperhálózat

Irodalom:

Agutter, Jim – Bermudez, Julio (2005): Information Visualization Design: The Growing Challenges of a Data Saturated World (AIA Report on University Research) http://www.aia.org/SiteObjects/files/Agutter_color.pdf

David, Paul A., (2000): The Digital Technology Boomerang: New Intellectual Property Rights Threaten Global ‘Open Science’. Paper presented at the World Bank ABCDE (Europe) Conference (Paris)

http://www-econ.stanford.edu/faculty/workp/swp00016.html

David, Paul A. – Spence, Michael (2003): Towards Institutional Infrastructures for E-science: The Scope of the Challenge http://129.3.20.41/eps/get/papers/0502/0502028.pdf Appendix 1.2. 73–74.

David, Paul A., (2004) Towards a Cyberinfrastructure for Enhanced Scientific Collaboration: Providing It’s Soft Foundation May Be the Harder Part. SIEPR Discussion Paper No.04-01 http://129.3.20.41/eps/le/papers/0502/0502004.pdf

Dent, Harry S. Jr. (1998): The Roaring 2000’s: Building the Wealth and Lifestyle You Desire in the Greatest Boom in History. Simon & Schuster, New York

Dent, Stephen M. (2000): The New Economy and Partnering. The CEO Refresher, 2000 http://www.refresher.com/!partnering1.html

Emmott, Stephen et al. (2006): Towards 2020 Science. Microsoft Corp. 1–86. és: http://research.microsoft.com/towards2020science/

Foster, Ian (2005): Service-Oriented Science: Scaling the Application and Impact of eResearch. Keynote Speech on 1st IEEE International Conference of E-science and Grid Computing (2005, Melbourne) http://www.gridbus.org/escience/keynote1.pdf

Gray, Jim – Liu, D. T. – Nieto-Santisteban, M. – Szalay, A. S. – DeWitt, D. – Heber, G. (2005): Scientific Data Management in the Coming Decade. CTWatch Quarterly. 1, 1, February, http://www.ctwatch.org/quarterly/articles/2005/02/scientific-data-management/

Guernsey, Lisa (2003): Making Intelligence a Bit Less Artificial. The New York Times. (01/05/2003), http://www.nytimes.com/2003/05/01/technology/circuits/01reco.html?pagewanted=print&position

Harney, John O. (2005): Coming Right-Brain Economy. The Connection: New England’s Journal of Higher Education, Summer 2005 ,  http://www.findarticles.com/p/articles/mi_qa3895/is_200507/ai_n14800625

Jéki László (2006): Számítástudomány 2020-ban.
http://www.origo.hu/tudomany/technika/20060508szamitastudomany.html

Kropotkin, Peter (1890): Brain Work and Manual Work. The Nineteenth Century. March, 456–475. http://dwardmac.pitzer.edu/anarchist_archives/kropotkin/brainmanualwork.html

Kropotkin, Peter (1899): Fields, Factories and Workshops: or Industry Combined with Agriculture and Brain Work with Manual Work. Houghton, Mifflin and Co., Boston

Law, Gillian (2004): U.K. Researchers Create Robot Biotech Scientist. IDG News Service, London Bureau 1/16/2004

Marshall, Alfred (1890): Principles of Economics. Macmillan and Co., Ltd. A könyv szövege: http://www.econlib.org/LIBRARY/Marshall/marPContents.html

Myers, Jim (2006): Re-Engineering the Research Process. http://www.interactions.org/sgtw/ 10/05/2006.

Schuldt, Heiko (2005): Peer-to-Peer Architectures, Grid Infrastructures, and Service-oriented Architectures for Digital Libraries. http://agenda.cern.ch/fullAgenda.php?ida=a051871 , (elõadás a Grid Technologies for the Digital Libraries címû szakmai napon)

Stevens, Rick (2006): Trends in Cyberinfrastructure for Bioinformatics and Computational Biology. CTWatch Quarterly. 2, 3, 1–5., http://www.ctwatch.org/quarterly/articles/2006/08/trends-in-cyberinfrastructure-for-bioinformatics-and-computational-biology/

Vajda Ferenc (1999): Tudományos kutatás és együttmûködés informatikai bázison. Magyar Tudomány. 4, 459–463.



1 A jelentés „tartalmi párjának” tekinthetõ a Nature 2006. március 23-i száma (Vol. 440), amelyben Computing 2020 cím alatt kilenc tematikus tanulmány foglalkozott a számítástudomány jövõjével, és ezt valamennyi a tudomány egy-egy dimenziójában találta meg. (Részletes bemutatásukat lásd Jéki, 2006)

2 A Magyar Tudomány hasábjain 1999-ben, – az akkori helyzetnek megfelelõen – Vajda Ferenc tekintette át tudomány és informatika kapcsolatát (Vajda, 1999). Jellemzõ, hogy technológiai szinten (a teljesítményadatok kivételével) ma is szinte minden aktuális, de a fogalomkészlet és a problémák szerkezete mostanra teljesen átalakult.

3 Teljeskörû végfelhasználói szolgáltatásokra épülõ

4 A meghatározás és a gondolatmenet egy különösképp érintett személytõl, Jim Myerstõl, az USA National Center for Supercomputing Applications (NCSA) Cyberenvironments and Technologies Directorate társ-igazgatójától származik (Myers, 2006). Az NSF „a lakossági áram- és vízszolgáltatás használatának könnyedségéhez” hasonlítja az információtechnológiai és tudásmenedzsment erõforrásokhoz való hozzáférést.

5 Ennek elõzménye az ún. Atkins Report volt, amely 2003 januárjában tette közzé szakértõi ajánlását Revolutionizing Science and Engineering Through Cyberinfrastructure címmel. Lásd www.communitytechnology.org/nsf_ci_report/report.pdf

6 Lewis Mumford termékeny terminusa remekül használható – sokkal jobbnak tûnik, mint allegorikusan beszélni a nagybetûs Tudomány-ról.

7 2004 vége óta az egyre gyarapodó adatbázis magyar nyelven is hozzáférhetõ.

8 Korábban a VLBI (Very Long Baseline Interferometry) technológiát alkalmazó teleszkópok adatait szalagon küldték feldolgozóközpontokba elemzésre, emiatt sokszor heteket vagy hónapokat kellett várni egy-egy megfigyelés eredményére. Csakhogy a szélessávú adatátvitel forradalma új fejezetet nyitott a rádiócsillagászat történetében, amit a nagyszabású kísérlet meggyõzõen igazolt.

9 http://www.naic.edu/~astro/aovlbi/press_release/eVLBI_AR.htm

10 http://www.tsunami-alarm-system.com/

11 A Flop (Floating Point Operation, lebegõpontos mûvelet) a számítógépek teljesítményének szokványos mérõszáma. A petaflop (SI-szabvány szerint: petaFLOP) teljesítményû számítógép 1 millió milliárd, vagyis 1015 lebegõpontos mûveletet végez másodpercenként.

12 A alternatív architektúrák (bioszámítógépek, kvantumszámítógépek), amelyek a jelenlegi mûködési elvektõl gyökeresen eltérõ módon és annak fizikai határait átlépve kívánják és ígérik az új nagyságrendek elérését, még csak kísérleti fázisban vannak. Az ATI nemrég bejelentett stream computing technológiája azonban izgalmas valóság: a korábban pixelszámításokra kifejlesztett grafikus processzorok alkalmazásának kiterjesztésével újszerû módon növelhetõ meg a számításteljesítmény, azonnal komoly ígéreteket jelentve az élettudományok (különösen a járványmodellezés) és a klimatológia számára.

13 Az ismertebb hálózatok közül még néhány: LHC home, BBC Climate Change Experiment, Quantum Monte Carlo at Home, World Community Grid, Seasonal Attribution Project, SIMAP. További részletekre lásd http://boinc.berkeley.edu/

14 http://www.tryscience.com

15 A szakirodalomban nem harmadik generációként, hanem a gridek harmadik típusaként tartják számon az ún equipment grideket, mint amilyenek például az összekapcsolt teleszkópok vagy akár az elõzõ részben tárgyalt intelligensebb szenzorhálózatok is. A grid-irodalom elképesztõen részletes és adatgazdag összefoglalását lásd a Wikipedián, a http://www.gridcomputing.com/ oldalon, a friss fejleményeket a http://www.gridtoday.com/ oldalon lehet megtalálni.

16 A programot a National Science Foundation informatikai igazgatósága (Directorate for Computer and Information Science and Engineering – CISE) indította. http://www.nsf.gov/cise/cns/geni/

17 http://www.alchemi.net/

18 800 milliárd bázis a szuper-génadatbázisban http://index.hu/tech/tudomany/trc060118/ További ismertebb tudományos központok: a Fermilab kezeli a már bemutatott virtuális teleszkóp (az SDSS) adatait. A B-mezonok millióinak tanulmányozását támogatja a BaBar projekt (Stanford Linear Accelerator Center – SLAC). A Biomedical Informatics Research Network (BIRN) adatainak a 6 petabájtnyi archív adatot tároló San Diego Supercomputer Center (SDSC) ad otthont.

19 http://gchelpdesk.ualberta.ca/services/services.php és http://kepler-project.org

20 Mint például az Európa tudományos gridszámítási kapacitását Kína irányába meghosszabbító EUChinaGrid, vagy az európai és kínai rádióteleszkópokat összekötõ EXPReS projekt.

21 http://www.innocentive.com/about/seeker.html

22 http://www.diligentproject.org/

23 Az „agymunka” itt nem metaforaként, hanem terminusként szerepel. A brain work az „új gazdasággal, Internet-gazdasággal” foglalkozó közgazdasági irodalom kedves kifejezése (Dent, 1998; Harney, 2005), noha eredete a 19. század végére megy vissza. Minden bizonnyal Alfred Marshall, a nagyhatású Principles of Economics (1890) szerzõje (Marshall, 1890) használta egy korai esszéjében elõször (a manual work párjaként), de igazán népszerûvé az anarchizmus nagyhatású teoretikusa, Pjotr Alekszejevics (Peter) Kropotkin tette egy tanulmányával (Kropotkin, 1890), majd számos további kiadást megért könyvével (Kropotkin, 1899). Konferenciák címadó kulcsszava (az amerikai nyelvészek 2000-ben Washingtonban rendeztek tanácskozást az „agymunkáról”), matematikai közgazdászok termelékenységi és értékszámításainak célpontja. Megszületett már az e-agymunka (e-brain work) kifejezés is, elsõsorban online tanulási és kutatásmódszertani kontextusban. ( http://www.edscuola.it/archivio/lre/alis/metod.htm ). Stephen M. Dent (2000) pedig az egész információs forradalmat az agymunka (pontosabban a rutinmûveletekre szakosodott bal agyfélteke munkájának [left-brain work] automatizálására vezeti vissza.

24 A Nature 2004. január 15-i számában megjelent, a kutatók teljesítményével vetekedõ robottudósról szóló beszámolót a New Scientist ismertette, majd nyomában szinte minden jelentõs hírportál összefoglalót közölt róla. A leíráshoz az sg.hu-n Hírszerkesztõ aláírással közölt szövegbõl és az Index.hu-n 2004. január 20., kedd 12:00 órakor megjelent terjedelmesebb cikkbõl (Babucsik Péter: Robottudós a laboratóriumban) használtam fel szövegeket, néhol változatlan formában. Lásd http://index.hu/tech/tudomany/labor040120/?print .

25 A laboratóriumi tesztek során az elõre beprogramozott, szükséges genetikai és biokémiai háttérinformációk ismeretében sikerrel állapította meg a vizsgált élesztõgombában (Saccharomyces cerevisiae) található bizonyos gének funkcióját.

26 A gép – fogalmaz egy interjúban Muggleton (Law, 2004) – soha nem helyettesíteni fogja az emberi kutatókat, hanem lehetõvé teszi számukra, hogy gyorsabban és kevesebb kényszertevékenységgel érjék el eredményeiket.

27 Az „interakció” Davidék szóhasználatában az „alkalmazás, irányítás, vizualizáció” mûveleteit fedi le. 29 A bioinformatika és a bioinformatikus páldául mára jól definiált szakmává lettek, de jellemzõ, hogy mostanra a bioinformatika és az immunológia „hibridje”, az immuninformatika (immunomika) is önálló identitással (és az ehhez illeszkedõ kiadvány, illetve konferenciavilággal) bír.



1. táblázat

2. táblázat


<-- Vissza a 2007/04 szám tartalomjegyzékére


<-- Vissza a Magyar Tudomány honlapra


[Információk] [Tartalom] [Akaprint Kft.]