Az elmúlt két évtizedben a tudományok – és talán
nem túlzó azt állítani, hogy az élet – szinte minden területét
gyökeresen átalakította a technológiai robbanás. A cikkben ennek a
folyamatnak a tudományos megismerés mikéntjére kifejtett hatását
igyekszem áttekinteni, és illusztrálni néhány konkrét projektből –
amelyek tárgyalására itt nem nyílik lehetőség – levont
tapasztalataim alapján. Mielőtt azonban a példákon végighaladva
megtárgyaljuk az új eszközök adta lehetőségeket és kihívásokat,
kicsit távolabbról indulva röviden tekintsük át a tudományos
megközelítés sémáját és történetét. A későbbi gondolatok
előkészítése érdekében a számítástechnikából vett analógiákat
használok.
A tudomány célja és metodikája az emberi
intelligencia működésére épül, és nagymértékben átfed a mindennapi
gondolkodás sajátosságaival. Ha a gondolkodásról beszélünk,
általában elkülönítjük a megfigyelt valóságot és a gondolkodót. A
világból az érzékszerveken keresztül információ áramlik elménkbe,
ahol a velünk született „hardverre” és „előre telepített szoftverre”
alapozva dinamikusan kialakul a valóságnak egy belső, egyszerűsített
változata, modellje. Ez a belső modell reprezentálja a külvilágban
található tárgyakat, élőlényeket, jelenségeket. A reprezentáció nem
passzív, mint egy fénykép vagy filmfelvétel, hanem dinamikus, képes
jelenségeket, történéseket is kezelni, és alkalmas arra is, hogy
végigpróbáljon nem megtörtént helyzeteket, illetve jóslatokat
tegyen. Valószínűleg ez a jóslási képesség tette lehetővé, hogy
felismerjük a ránk leselkedő veszélyeket, mielőtt azok bekövetkeztek
volna, és ez volt az egyik legfontosabb evolúciós hatás, amely az
idegrendszer fejlődését és általában fajunk sikerét előrevitte. Ha
modellezni tudjuk a körülöttünk lévő világot – például ehető-e egy
növény, felénk dől-e a fa, milyen magasra tud felmászni a kardfogú
tigris –, nyilvánvalóan előnyt élvezünk azzal szemben, aki minderre
képtelen. Ez a felismerés azonban felhívja a figyelmet arra, hogy az
intelligencia, ugyanúgy, mint szervezetünk egésze is, az evolúció
során jött létre, bizonyos hatások következtében, specializálódva
bizonyos funkciók ellátására, így nem lehet univerzális. Úgy
érezzük, hogy szemünkkel nagy idő- és térbeli felbontással,
„folytonosnak” látjuk a köröttünk zajló jelenségeket, de nem látjuk
a puskagolyó röptét, nem tudjuk felbontani a sejtek skáláját, és nem
látjuk a galaxisok halovány képét. Sőt a teljes elektromágneses
spektrumnak csak a keskeny tartományát, a látható fényt érzékeljük,
a rádióhullámokat és a gammasugárzást nem. Jó oka van persze ennek.
Egyrészt bizonyos detektorokat az ember méretskáláján és az evolúció
során rendelkezésre álló anyagokból nem is lehetett volna
megvalósítani, másrészt, ami sokkal fontosabb: nem is igazán volt
rájuk szükség. A távoli galaxisok közvetlenül nem befolyásolják az
életben maradást, a légkör át se engedi a távoli ultraibolya
sugárzást, azaz, még ha lenne is rá szemünk, nagyrészt sötét lenne,
pazarlás volna ilyen eszközöket magunkkal hordozni. Talán kevésbé
vagyunk tudatában, de az érzékszervekhez hasonlóan agyunkról is
megállapíthatjuk, hogy az egy célberendezés. Egyrészt
elcsodálkozhatunk rajta, hogy már születéskor is milyen rendkívül
kifinomult szerkezet. Például a csecsemő képes arcjátékot
leutánozni, amely bonyolult képfelismerést és számos izom
összehangolt vezérlését foglalja magában: mind-mind olyan
mutatványok, amelyekkel hatalmas kapacitású modern számítógépek se
veszik fel a versenyt. Ugyanakkor hat-nyolc évig tart átlagosan,
hogy a 20-as számkörben megtanuljuk az elemi műveletek elvégzését,
majd a populáció egy része leszakad a negatív számok, később újabbak
a törtek bevezetésénél, és a középiskolás matematika csúcsának
számító másodfokú egyenlet megoldóképletének igazi értékeléséhez
igen kevesen jutnak el. Nyilvánvaló, hogy ez nem elsősorban a nem
kellően hatékony oktatás bűne. Ugyanúgy, ahogy nem volt evolúciós
nyomás gammadetektor-szem kialakulására, valószínűleg a mentális
kapacitás allokációja terén is előnyt élvezett az udvarlási tehetség
a törtet törttel osztó képességgel szemben, noha ez utóbbit
meglepően kevés idegsejttel meg lehetne valósítani.
A csillagászat és rajta keresztül a modern
tudományok kialakulásában nagy szerepet játszott a távcső
feltalálása, amit aztán számos más műszer követett. A távcsövet
tekinthetjük protézisnek, amely olyan képességekkel vértezi fel
szemünket, amelyekkel addig nem rendelkeztünk. Galilei előtt nem
azért nem gondoltak a tudósok arra, hogy a Jupiternek is lehetnek
holdjai, mert nem voltak elég intelligensek és fantáziadúsak.
Egyszerűen nem lehetett a holdakat látni, így az észlelések alapján
a legegyszerűbb modellt alkották meg. Kevesebb mint száz éve tudjuk,
hogy a Tejútrendszerünkön kívül is van világ, amelyet galaxisok
milliárdjai töltenek ki. Ismét nem a fantázia hiánya gátolta
elődeinket: ahhoz, hogy más tejútrendszereket lássunk, pupillánkat
milliószorosára tágító protézisre, azaz 2 méter körüli átmérőjű
tükrös távcsőre és a szemünknél hosszabb ideig exponáló fotólemezre
volt szükség. Nem csak érzékszerveinknek kellenek protézisek, még a
tudósok elméje se univerzális, korlátlan kapacitású. Rövid távú
memóriánk puffere csupán 7±2 elemet tud tárolni, s míg a 10-es
szorzótáblát a reflexek szintjén tudjuk, a tízjegyű számok fejbeli
összeszorzására nem sokan képesek. Legegyszerűbb mentális
protézisnek tekinthető a papír és a ceruza: kis türelemmel írásban
egészen összetett műveletek is elvégezhetőek. Galilei után nem
sokkal Newton megalkotott egy „koprocesszort”, a kalkulust, egy
rendkívül hatékony formalizmust, amely azóta is alapja számos modern
tudománynak. Ezek az érzékszerv- és „agyprotézisek”, hardver- és
szoftverkiegészítők lehetővé tették, hogy olyan modalitásokat
észleljünk, olyan elméleteket dolgozzunk ki, és segítségükkel olyan
jelenségeket értsünk meg, amelyek ösztönös emberi gondolkodással
lehetetlenek lettek volna (1.
ábra). Az így megerősödött tudomány és az arra épülő
technológia jelentősen átalakította, átalakítja a világot.
Ezzel el is érkeztünk a jelen korba. A fent vázolt
kép szerkezetében ugyan nem sokat változott a korábbi évszázadokhoz
képest, a mennyiségi változások mégis olyan számottevőek, hogy
gyökeresen átalakult a megismerési folyamat. Az új faktor a
mikroelektronika és a ráépülő számítástechnika. A detektorok sokkal
nagyobb kapacitásúak és érzékenyebbek, mint bármikor eddig. Míg
néhány éve még a műszerek mutatóit a kutatók olvasták le, és
jegyezték fel táblázatokba, rajzolták milliméterpapíron
grafikonokra, ma már szinte minden mérést számítógéppel vezérlünk,
és az adatok egyből digitálisan gyűlnek. Az így „felturbózott
érzékszervek” fejlődésénél, ha lehet, még nagyobb lökést kapott az
információfeldolgozó oldal. Még a legegyszerűbb alapjelenségekkel
foglalkozó tudományokban, például a fizikában – ahol legtöbb
alaptörvény elfér egy pólóra nyomtatva – sem tudjuk a modelleket
analitikusan végigszámolni. Elég hozzá egymással gravitációsan
kölcsönható három test vagy két csatolt inga, és a rendszer
kaotikussá válik. A számítógépek lehetővé teszik, hogy eddig
elképzelhetetlenül összetettnek tartott szimulációkat futtassunk,
mintegy „virtuális valóságot” hozzunk létre, amely egyre pontosabb,
egyre részletesebb képe a valódinak. A szimulációk segítségével a
molekulák dinamikájától kezdve folyadékok áramlásán át az Univerzum
nagyskálás szerkezetének fejlődéséig számos rendszert egyre
pontosabban értünk, egyre nagyobb gyógyszermolekulát tudunk
tervezni, egyre pontosabban és hosszabb időre jelezzük előre az
időjárást. A virtuális valóság elnevezés azért is találó, mert
elsősorban az egyre élethűbb számítógépes játékok iránti igény
táplálja, tartja fenn, és teszi kifizetődővé a – mellékesen a
tudósok munkáját is segítő – számítógépek fejlesztését.
Az Univerzum, …
Az egyik első tudományos „Big Data” projekt (amikor ez a kifejezés
még nem is létezett), a Sloan Digitális Égtérképezés (Sloan Digital
Sky Survey – SDSS) volt. Tervezése a 90-es évek közepén indult,
célként az Univerzum nagyskálás szerkezetének megismerését, a
Világegyetem háromdimenziós térképének elkészítését tűzte ki. Maga a
távcső méreteiben (2,5 m tükörátmérő) nem kiemelkedő, viszont egy
olyan speciális kamera került a fókuszsíkba, amely akkor a
csillagászatban is újdonságnak számító félvezető-detektorokat,
CCD-chipeket tartalmazott. Ma már majdhogynem mobiltelefont is lehet
kapni 120 megapixeles kamerával, de akkor a világon legyártott jó
minőségű CCD-pixelek fele ebbe az egy kamerába volt beépítve. Az öt
színszűrővel ellátott kamera fotometriai észlelései mellett talán
még fontosabb az optikai szálak segítségével egyszerre 640 színképet
felvevő spektrográf. A fotometriai észlelések megadják a galaxisok
égi pozícióit, de a harmadik koordináta csak a spektrumból mérhető
vöröseltolódásból, közvetve, a Hubble-törvény segítségével nyerhető
ki. Az Univerzum nagyon nagy, és a Tejútrendszerhez legközelebbi
galaxis is olyan távol van, hogy szabad szemmel alig látható, így
nem csoda, hogy közel egy évtizedig tartott, hogy 300 millió
galaxist lefényképezzünk, és közülük egymilliónak a színképét is
meghatározzuk. A végül összeállt 2,5 terapixeles kép, 100 terabájtos
nyers adathalmaz, 10 terabájtos katalógus még ma is tekintélyesnek
számít, de a tervezéskor, a 90-es évek közepén, amikor a legnagyobb
merevlemezek nagyságrenddel kisebbek, 10 gigabájtosak voltak,
egészen félelmetesnek tűnt. Egy dologban bízhattunk: Moore
törvényében. Gordon E. Moore, az Intel egyik alapítója 1965-ben írta
le azt a megfigyelését, hogy az egy lapkára rakható tranzisztorok
száma kétévente duplázódik. Az összefüggést sok más formában is
megfogalmazták, mert közvetve azt is maga után vonja, hogy a
processzorok sebessége, a memóriák tárolókapacitása exponenciálisan
növekszik, ugyanannyi pénzből egyre nagyobb kapacitású berendezést
lehet beszerezni. Az exponenciális görbe nagyon gyorsan növekszik, a
lineáris trendekhez szokott emberi érzéknek nehezen fogható fel,
hogy kapacitás tekintetében két év alatt akkora a növekmény, mint a
kezdetektől fogva összesen. Sokat lehetne még diszkutálni, hogy mit
hozott és mit hozhat ez a már ötven éve töretlen trend, és hogy mik
a korlátai, de térjünk vissza ahhoz, hogy milyen kihívást jelentett
az SDSS észleléseinek nagy adatmennyisége.
Hagyományosan a csillagászok kisszámú objektumot
vizsgáltak, saját kezűleg, egyesével redukálták a nyers képeket, és
a kiértékelés is nagyrészt kézi munkával történt. 300 millió galaxis
esetében erre nem elegendő nemcsak a doktoranduszi három év, de egy
kutató teljes életpályája sem. Automatikus
feldolgozószoftver-folyamatokat kellett létrehozni, amelyek nagy
sebességgel képesek ellátni a rutinfeladatokat. Nem csoda hát, hogy
az SDSS az első olyan csillagászati projekt volt, ahol a
költségvetés és emberhónapok nagyobbik része nem a hagyományos
csillagászati munkára, hanem tudományinformatikára fordítódott. A
szoftverek természetesen nem helyettesítik a kutatókat, így az
előfeldolgozott adatokat, katalógusokat – amelyek mennyisége, noha
nagyságrenddel kisebb a nyers adatokénál, még így is jelentős –, egy
olyan adatbázisba kellett elhelyezni, amelyben hatékonyan lehet
keresni, a szükséges adatok gyorsan
|
|
megtalálhatóak és kinyerhetőek. Érdekes módon az
üzleti világból kellett segítséget hívni: míg a tudományokban
nagyrészt fájlok formájában kezelték az adatokat, a vállalati
világban az ügyfelek, áruk, tranzakciók nyilvántartására már
kiterjedten használtak adatbázis-kezelő rendszereket. Ezek a
rendszerek az üzleti felhasználáshoz voltak optimalizálva, így
adaptálni kellett azokat a tudományos adatkezelés céljainak
megfelelően. Újfajta szakemberekre volt szükség, olyanokra, akik az
információtechnológia apró részleteit (például a merevlemezek
memóriapuffereinek működését) is ismerik, ugyanakkor értik a
tudományos kérdéseket, célokat, amelyekhez optimalizálni kell a
rendszert. Hasonlóan, ahogyan néhány évszázada a
differenciálegyenletek megoldása elemi tudássá vált számos
diszciplínában, mára ugyanúgy elengedhetetlen a szoftvertechnológiák
ismerete a kutatók számára. Ahogy nem lehet kiadni egy
részecskefizikai perturbációszámítási feladatot egy a fizika iránt
nem érdeklődő „általános” matematikusnak, ugyanúgy egy tudományos
adatbázis megtervezése sem egy „egyszerű programozói” feladat. A
hardverközeli tudáson túl számos olyan ismeretre is szükség van,
mint a keresőfák elmélete, lineáris programozás, számítógépes
geometria stb., amelyek a matematikán és számítástudományon belül
régóta kutatott témák voltak ugyan, a természettudósok nagy részének
viszont ismeretlenek.
Az SDSS műszere metaforánk keretében példa egy
hatékony szenzoros protézisre. Könnyen hozhatunk példát arra is,
hogy a modellezőképességet segítő „protézisek” hogyan fejlődtek
ugyanezen időszakban. A kozmológiai modellek jó ideig arra
szorítkoztak, hogy az Einstein-egyenletek analitikusan kezelhető
megoldásait vizsgálják, a részletek teljes elhanyagolásával. Mivel
se kísérleti evidencia nem utalt másra, se összetettebb megoldások
vizsgálata nem volt lehetséges, nem csoda, ha Occam borotvája
értelmében a legegyszerűbb, homogén és izotrop verziót vizsgáltuk.
Az alapmodell továbbra sem változott, de a számítási kapacitás
növekedésével egyre részletesebben lehet szimulálni azt a
folyamatot, ahogyan a nagy skálákon domináns gravitációs erő a
nagyon apró korai fluktuációkat felerősítve összecsomósítja az
anyagot. Spontán módon hatalmas falak, fonalak és halmazok hálózata
jön létre, amelyekben végül az anyag olyan nagymértékben csomósodik
össze, hogy beindul a csillagkeletkezés, megszületnek a galaxisok
(2. ábra). A szimulációk és
észlelések összevetéséből az is kiderül, hogy egyre több részletet
figyelembe kell venni, az Univerzum ténylegesen egy komplex
rendszer, számítanak a részletek, csatolódnak a skálák. A galaxisok
fejlődésére jelentős hatása van a viszonylag kis számban megjelenő
szupernóvák lökéshullámainak és a szupernagy tömegű fekete lyukakból
kiáramló nyaláboknak, és még sorolhatnánk a csak néhány éve
felfedezett bonyolító tényezők sorát. Míg 2005-ben a
Millennium-szimulációs projekt elsősorban csak a sötét anyag
viselkedését tudta szimulálni, amelyben az elemi tömegpontok mérete
nagyobb volt, mint egy galaxis, addig a legújabb Illustris projekt
már hidrodinamikai hatásokat is figyelembe vesz, részletes
csillagfejlődési modelleket használ, összekötve így a kozmikus és
galaktikus skálákat.
…az Élet,
A csillagászat fundamentális fizikai elvekből kiindulva tömören
megfogalmazható matematikai kifejezésekből építi fel modelljeit, a
komplexitás fokozatosan az egyre nagyobb rendszerek egyre
részletesebb vizsgálatával jelenik meg. A biológia esetében
csillagászati szóhasználattal élve nem ismerünk tömegpontokat és
körpályákat, és eleve soktest-rendszereket vizsgálunk. Összetett
rendszer leírásához összetett modellek kellenek, és azok
felállítása, paraméterezése nem lehetséges nagy mennyiségű adat
nélkül, így talán ezen a területen még nagyobb változás várható az
adatforradalomtól. A biológiai adatforradalom elsőként a genetika
területén jelentkezett. Mivel a DNS-ben tárolt információ sok
tekintetben digitálisnak nevezhető, más molekulákhoz, például a
fehérjékhez, lipidekhez, poliszacharidokhoz képest könnyebben
feltérképezhető. Az 1970-es évek végén sikerült először egy vírus
meglehetősen rövid nukleinsav-szekvenciáját hosszas laboratóriumi
munkával leolvasni, és még az 1990-es években kezdődött Humán Genom
Projektnek is sok-sok kutatólaboratórium összehangolt munkájára és
több mint egy évtizedre volt szüksége egyetlen emberi genom
szekvenciájának meghatározásához. Ugyanaz a mikroelektronikai
technológia, sőt sok tekintetben ugyanolyan CCD-kamera, ami a
távcsövekbe is bekerült, tette lehetővé az ún. új generációs
szekvenálás (NGS) létrejöttét, amellyel egy új, genetikai
Moore-törvény indult útnak (3.
ábra)
Mára a DNS-szekvenciák leolvasásának hatékonysága
az elektronikában látott tempónál is lényegesen nagyobb mértékben
fejlődik. Míg a Humán Genom Projektben közel hárommilliárd dollárba
került a genomunkat alkotó 3,5 milliárd nukleotid leolvasása, ma már
alig több mint ezer dollárból megoldható. Ez azt is jelenti, hogy
nagyobb rátával gyűlik a leolvasott genetikai adat, mint amilyen
rátával gyártják a számítógép merevlemezeit. Kutatók fel is vetették
az ötletet, hogy nem a diszkeken kell tárolni az adatokat, elég a
sokkal kisebb helyen elférő DNS-t eltenni, az is ugyanúgy
információhordozó, ha kell, majd újra leolvassuk. Az információözön,
ha lehet, még nagyobb kihívást jelent a biológiai tudományokban,
mint a számok világához hagyományosan közelebb lévő fizikában vagy
csillagászatban. Ugyanakkor szinte beláthatatlanok a lehetőségek is.
Ahogyan a távcsövek nélkül esélytelenek voltunk, hogy akár csak
elképzeljük, hogy a Naprendszer egy galaxis része, azon túl pedig
számos más hasonló galaxis van, és hogy mindez hogyan jött létre,
ugyanúgy a „genetikai teleszkóp” nélkül nem volt esélyünk arra, hogy
megértsük a sejt mikrovilágának működését, meggyógyítsuk az
Alzheimer-kórt vagy a rákot.
…meg Minden
Az adatforradalom nem áll meg a természettudományok határainál. A
mobiltelefonok, a rajtuk futó szociális hálózati alkalmazások, az
elektronikus levelezés hihetetlen mennyiségű digitális információt
gyűjt össze az emberi viselkedésről, a társadalom működéséről,
mintegy „magától”. Természetesen ezen adatok és hasonlóan, a fent
említett génszekvencia-adatok is számos etikai kérdést is felvetnek,
de a tudomány számára hihetetlen gazdagságú forrást jelentenek.
Néhány emberrel kitöltetett kérdőívek és exit pollok helyett a
társadalom rezdüléseit, a választások eredményeit tweetek millióival
követik. Az emberi kapcsolatok szinte teljes hálózata hirtelen
elérhetővé vált, klasszikus társadalomtudományi kérdések, mint
például Milgram nevezetes „hat kézfogás” kísérlete nagy skálán
tesztelhető. A pénzügyi tranzakciók is egyre inkább elektronikusan
zajlanak, és noha ezeknek az adatoknak nagy része – szerencsére,
ugyanakkor a kutatók sajnálatára – nem publikus, gyors ütemben
fejlődik az egyre kiterjedtebb e-pénz-kereskedelem. Ilyen például a
bitcoin, amelynek esetében minden fillér teljes története
regisztrálva van, és az adatok mindenki számára nyilvánosak,
elemezhetőek. A tudomány határain kívül, az üzleti szférában is
egyre dominánsabb a tudományos vizsgálódásoktól inkább csak
tárgyában, mintsem metodikájában különböző adatanalitika szerepe.
Bizonyítja ezt az is, hogy több végzett PhD-hallgatónk talált állást
pénzügyi elemző cégeknél vagy éppen nemzetközi szállítmányozó
vállalatnál, ahol a kamionokban lévő GPS és egyéb járműszenzorok
adatainak sokasága alapján próbálják a cég hatékonyságát javítani.
A különböző tudományágak gyökeresen különböző
kérdéseket vizsgálnak ugyan, de a nagy adathalmazok elemzése sok
tekintetben összekapcsolja őket, és a sokat (inkább csak) emlegetett
(mint művelt) multidiszciplinaritás új értelmet kap. Minden
területen nagy mennyiségű, magas dimenziós komplex adathalmazok
gyűlnek, így hasonló eszközök, hasonló tudás kell ahhoz, hogy
belőlük értelmezhető ismereteket nyerhessünk ki. Ugyanazt az
adatbázis-kezelő technikát kell elsajátítani a galaxisok és gének
adatai közötti hatékony kereséshez, ugyanaz a gömbi
poligon-indexelés használható az égen a csillagok és a Földön az
emberek koordinátáinak rendezéséhez, a bitcoin-tranzakciók ugyanúgy
hálózatot alkotnak, mint a fehérjék kölcsönhatásai, a magas
dimenziós adatokhoz mindenütt ugyanazok a dimenzióredukciós
számítástudományi módszerek szükségesek. Ez az igény tette lehetővé,
hogy hazai és külföldi együttműködésekben kollégáimmal és
diákjaimmal számos, egymástól látszólag nagyon távol álló kutatásba
bekapcsolódjunk, és az egyik területen megszerzett ismereteket
máshol is kamatoztathassuk.
Összefoglalás
A tudomány új korszakba lépett, az egyszerű dolgok megismerése után
egyre komplexebb jelenségeket próbál megérteni. Az élő sejt komplex
rendszer, az emberi társadalom is komplex rendszer, a nemzetközi
gazdaság ugyancsak komplex rendszer, az internet hálózata szintén
komplex rendszer, minden galaxis egy-egy komplex rendszer, és maga
az Univerzum is egy komplex rendszer. A komplex valóság leírásához
komplex modellek kellenek. Komplex modelleket validálni, sőt már
felállítani is csak sok-sok adat részletes elemzésével lehet. Ehhez
egyrészt hatékony eszközök, másrészt rátermett, képzett kutatók
kellenek. Mára a számítógépek már nemcsak számoló gépek, hanem
ugyanúgy elengedhetetlen kutatóeszközök, „adat-o-szkópok”,
„modell-o-szkópok”, mint a mikroszkópok és a teleszkópok. A jövő
oktatásának egyik nagy kihívása, hogy olyan fiatal kutatói
generációt képezzünk ki, amelynek tagjai értik az adott
szaktudományt is, ugyanakkor megfelelő mélységű
információtechnológiai készségekkel és számítástudományi
ismeretekkel is rendelkeznek. Csak így van esélyünk arra, hogy
megértsük a természet rejtélyeit, hogy gyógyítsuk az eddig
gyógyíthatatlan betegségeket, meghosszabbítsuk az ember egészségben
töltött várható életkorát, és megbirkózzunk a modern kor számos
kihívásával.
A cikkben leírt általános gondolatok mögött olyan jóval konkrétabb
és gyakran aprólékos munkát igénylő kutatások vannak, amelyeket az
OTKA 103244, TÁMOP-4.2.2.C-11/1/KONV-2012-0013 és KMR_12-1-2012-0216
pályázatok támogatták.
Kulcsszavak: tudományos adatbázisok, Moore-törvény, adatintenzív
vizsgálatok, digitális égtérképezés, genomszekvenálás
LÁBJEGYZETEK
1 A cikk az MTA 186.
közgyűlésén a Fizikai Tudományok Osztályának tudományos ülésén
elhangzott, hasonló című előadás alapján készült.
<
|
|