A Magyar Tudományos Akadémia folyóirata. Alapítva: 1840
 

KEZDŐLAP    ARCHÍVUM    IMPRESSZUM    KERESÉS


 A WIKIPÉDIA ÉS A TUDOMÁNY JÖVŐJE

X

Galántai Zoltán

PhD, egyetemi docens, BME Pénzügyek Tanszék • galantai(kukac)finance.bme.hu

 

Bevezetés helyett: ha nem a bizalom számít


„Az ismerőseim és barátaim közül senki sem bízik a Wikipédiában, de mindenki olvassa. A fenntartások és a produktív használat [tehát] nem összeférhetetlenek”, állapítja meg Freeman Dyson amerikai fizikus, és ez a sajátos viszonyulás már csak azért is érdekes a számunkra, mert egyfelől olyan online enciklopédiáról van szó, amely mintha megváltoztatna mindent, amit a könyvnyomtatás megjelenését követően a szerzőségről, a szövegről és annak tulajdonságairól gondoltunk. Másfelől pedig azért, mert innentől kezdve kérdés, hogy csupán anomáliáról van-e szó vagy esetleg olyan jelenségről, amely ugyanúgy át fog alakítani a tudományosság kritériumaiig bezárólag az élet számos területén mindent, ahogy annak idején Gutenberg találmánya tette.

Érdemes tehát számításba venni néhány, ha nem is megvalósuló, de legalább felmerülő lehetőséget, és eközben valószínűleg érdemes egy párhuzammal kezdeni. Méghozzá azzal, hogy James A. Dewar, a RAND nevű amerikai agytröszt kutatója az 1990-es évek végén arra volt kíváncsi, hogy milyen potenciális hatása lehet az internetnek a társadalomra, és eközben abból indult ki, hogy a nyomtatás a történelem folyamán először rendkívül olcsóvá tette az egy a sokhoz kommunikációt – ami aztán olyan, előre nem látott következményekhez vezetett, mint a reformáció meg az új értelemben vett tudományosság. Mivel pedig az internet a sok a sokhoz kommunikációt tette rendkívül olcsóvá ismét csak a történelem folyamán először globális léptékben is, ezért Dewar szerint joggal számíthatunk rá, hogy hasonlóképpen alapvető hatása lesz számos területen (Bankes et al. 2003). Mivel – mint mindjárt látni fogjuk – a Wikipédia létrejöttét az internet kialakulása tette lehetővé, ezért érdemes az egész problémakört tágabb összefüggéseiben szemlélni, és nemcsak arra koncentrálni, hogy egy „mindenki által szerkeszthető, szabad enciklopédiáról” van szó. Vagyis érdemes megnézni, milyen körülmények között és miként jöttek létre a jelenleg még érvényben lévő játékszabályok, amelyeket elképzelhető, még ha nem is szükségszerű, hogy a jövőben újak fognak felváltani, melyek talán legalább annyira fognak különbözni a mostanitól, mint a mostani a könyvnyomtatás előtti korszak módszereitől, szabályozásaitól és normáitól.

Legalábbis az egyik lehetséges értelmezés szerint, mert miként a gazdaságtörténész Joel Mokyr felhívja rá a figyelmet, „az események reménytelenül túldetermináltak, azaz mindegyiknek számos elfogadható magyarázata van”, és innentől kezdve szükségképpen túlegyszerűsített az általunk adott leírás is. Ami persze nem jelenti azt, hogy bármilyen túlegyszerűsítés elfogadható.


Az alexandriai könyvtártól az exemplarig


De az valószínűleg azért védhető álláspont, ha az alexandriai könyvtártól indulunk el, illetve attól, hogy amikor az i. e. 3. században a hagyomány szerint I. Ptolemaiosz Szótér megalapította, akkor ott a teljes emberi tudást össze akarták gyűjteni, és úgy becsülték, hogy ez mintegy ötszázezer tekercsnyi lesz. Mivel egy tekercs jó közelítésben egy mai könyvfejezetnek felel meg, ez kb. egy nagyobb vidéki könyvtár állományát jelenti – miközben a Washingtoni Kongresszusi Könyvtár a 90-es évek végén ennyi könyvvel gyarapodott egyetlen év alatt (Manguel, 2006). Az alexandriai könyvtár esetében viszont nem a mai szemmel kis méret a lényeg, hanem éppen ellenkezőleg: az, hogy korábban csak magánemberek könyvgyűjteményei, illetve hivatalos iratgyűjtemények léteztek, és most először gyűjtöttek össze annyi információt egy helyen, amennyit egy ember nem tud élete végéig elolvasni. Vagyis itt először vált lehetővé az intenzív olvasás helyett (amikor újra és újra ugyanazokat a műveket tanulmányozzuk) az extenzív, amikor a még el nem olvasott könyvek sosem fogynak el.

Clay Shirky amerikai technológia-szakértő 2008-ban arról beszélt, hogy az igazi gondot nem az információ-túltermelés, hanem a nem megfelelő szűrési eljárások jelentik, vagyis az, hogy a rendelkezésre álló, nagy mennyiségű információból nem vagyunk képesek kiszűrni a számunkra relevánsat. Az alexandriai könyvtár létrejötte előtt viszont ez a probléma egyszerűen nem létezett, és némi egyszerűsítéssel akár azt is mondhatnánk, hogy az információkezelés története is három nagy korszakra osztható.

Az elsőben még képesek voltunk áttekinteni minden rendelkezésünkre álló információt; a második korszakban egyetlen helyen az egyes ember lehetőségeit meghaladó mennyiséget halmoztunk fel; a harmadikban pedig ez immár nem kivétel, hanem szabállyá vált. Egy itáliai szerző a könyvnyomtatás elterjedését követően, valamikor a 16. század közepén arról panaszkodott, hogy „annyi a könyv, hogy még arra sincs időnk, hogy a címüket elolvassuk”, és ez aztán ugyanúgy elvezetett a különböző bibliográfiák meg az új kiadásokról szóló beszámolók, illetve általában véve a különböző új információkezelési technikák megjelenéséhez (Briggs – Burke, 2004), mint ahogy az internet növekedése is azokhoz a keresőgépekhez, amelyek Shirky problémájára próbálnak megoldást kínálni. Az adatmennyiségből fakadó problémák nem elhanyagolhatóak tanulmányunk egyik tárgya, a Wikipédia esetében sem, amelynek a megbízhatóságáról lehet ugyan vitatkozni, ám óriási terjedelme miatt senki sem képes véleményt alkotni az egészéről – mint ahogy az i. e. 3. században élt kutató sem tudta volna megítélni az Alexandriában összegyűjtött szövegek minőségét.

Pedig Ptolemaiosz Szótér mindent megtett azért, hogy ez a lehető legmagasabb színvonalú legyen, s amellett, hogy a „világ összes uralkodójának” levelet írt, arra kérve őket, hogy küldjenek neki a birtokukban lévő művekből, azt is elrendelte, hogy az alexandriai kikötőbe érkező hajókat kutassák át a könyvtárból még hiányzó művek után; másolják le az eredetit papiruszra, és a másolatokat adják vissza a tulajdonosoknak. Aminek minden bizonnyal nem az a helyes olvasata, hogy nagylelkű gesztus történt (lévén a kor legjobb információhordozó közege a papirusz); hanem, hogy az eredetit tartották meg (Manguel, 2006). Márpedig egy adott szöveg pontos reprodukálása egészen a nyomtatás megjelenéséig gyakorlatilag megoldhatatlan gondot jelentett.

Richard Dawkins angol evolúcióbiológus említi, hogy „a szeretet mindent valóra vált” című lánclevélben – a jónéhány másolási mutáció eredményeként – olyan sorok olvashatóak, mint például az, hogy „ezt a levelet nem atta ki a kezéből 96 órán belül. Végül, amint elhatározta, legépelte a levelet, és vet egy új autót. Ne pénzt külgy. Ne feledkez meg erről, mert hat”, és így tovább.

Ez persze szélsőséges példa, és a másolásból fakadó hibalehetőségeket az egyetemek a nyomtatás előtt az exemplar intézményével próbálták csökkenteni. Kizárólag olyan kéziratokat volt szabad másolásra kölcsönadni, amelyeket gondosan átvizsgáltak és ellenőriztek (Febvre – Martin, 2005). A másolatról pedig tilos volt újabbakat készíteni, de ezzel is csak a hibák felhalmozódását lehetett meggátolni, nem pedig a létrejöttüket, és Umberto Eco egy helyütt még azt a feltétezést is megkockáztatja, hogy a nyomtatás előtti nyugati kultúra többek között azért tűnik konzervatívnak a számunkra, mert egy olyan világban, ahol komoly erőfeszítéseket kellett tenni a pontos utánzásra, az „eredetiséget” minden bizonnyal máshogyan ítélték meg, mint mi. De aztán jött a „fekete művészet”, s ennek képviselői már a 16. század elején azzal reklámozták magukat, hogy képesek ugyanazt a szöveget akárhány példányban változatlanul előállítani – és ezzel megjelent az úgynevezett textuális stabilitás (Johns, 1998).


A lehetőségek fázistere


Vagy legalábbis a lehetősége, sosem szabad ugyanis elfelejteni, hogy a technológia legfeljebb lehetőséget teremt valamire, de nem szükségképpen vezet egy adott eredményre. A betű például korántsem volt önjáró, és az, hogy rendelkezésre állt a szükséges technika, nem jelentette automatikusan az elterjedését. Samuel Hartlib 17. századi filozófus ugyan azt hangoztatta, hogy „a könyvnyomtatás művészete olyannyira elterjeszti a tudást, hogy a közönséges emberek, megismerve jogaikat és szabadságukat, nem engedik majd magukat zsarnoki módon kormányozni”, ám még ha így lenne is, az elvileg elképzelhető hatást ne tévesszük össze a valóban létrejövővel. A nyomdagép ugyan már létezett, de miután a szultán 1515-ben halálbüntetés terhe mellett tiltotta meg az alkalmazását, az első török nyomdára az 1700-as évekig kellett várni (Briggs – Burke, 2004).

Mint ahogy az sem volt szükségszerű, hogy az internet megjelenése elvezessen a „bárki által szabadon szerkeszthető” enciklopédiához. Amikor 1991-ben az MIT kiadta a vezető számítástechnikai tudósok által írt Technológia 2001: A számítástechnika és a kommunikáció jövője című könyvet, akkor abban még véletlenül sem említették az internetet. Méghozzá nem azért, mert tájékozatlanok lettek volna, hanem azért, mert az internet ugyanúgy nem „önjáró” technológia, mint ahogyan a nyomtatás sem az, és a sikeressé válásához arra volt szükség, hogy az amerikai kormány úgy döntsön, hogy a szabadság és demokrácia „politikai szimbólumává” teszi és támogatja. Amit viszont alig két évvel korábban az MIT szakértői még nem láthattak előre.

Hiba lenne azonban kizárólagosságot tulajdonítani a politikai beavatkozásnak. Jonathan Zittrain amerikai internetjogász említi a CB-rádió példáját. Ebből 1959 és 1977 között egymilliót adtak el az USA-ban; a következő egymillióhoz nyolc, a harmadikhoz pedig mindössze három hónap kellett, és 1977-re 25 millióan(!) használták. A kereskedelmi rádiók már a reklámbevételeiket kezdték félteni – aztán a hullám lecsengett, és a CB-rádió ma már csupán lelkes amatőrök hobbija (Zittrain, 2008). Kérdés viszont, hogy mi történt volna, ha a politika ugyanúgy e technológia mellé áll, mint az internet esetében történt; és hogy vajon egy nem szöveg-, hanem hangalapú kommunikációs forradalom zajlott volna-e le. Vagy esetleg annak idején az szólt volna-e az internet mellett, hogy alapvetően szövegalapú volt, s így könnyen lehetett a könyv- és könyvtárvonalat tovább vive egyetemes tudásfokozó eszköznek is tekinteni?

Mindenesetre mostanra a mobiltelefon előretörésével mintha a Dewar-féle sok a sokhoz után valamiféle „egy a bárholhoz” forradalom következne, miközben ez utóbbi sikerét nem politikai megfontolások segítették. És ezt az áttörést ugyanúgy nem lehetett előre látni, mint valamivel korábban az internet tömegessé válását, és innentől kezdve nem meglepő az sem, hogy amikor Nicholas Negroponte, az MIT Media Lab alapítója az 1990-es évek közepén a várható technológiai fejlődésről írt, még csak azt tudta elképzelni, hogy a jövőben egyfajta személyre szabott filterező rendszer (vagy ha úgy jobban tetszik: személyre szabott elektronikus napilap) fogja szolgáltatni a leginkább minket érdeklő híreket (Negroponte, 1995), de az fel sem merült benne, hogy a hírfogyasztó a hírek előállításában is rész vegyen. Ugyanis nem voltak tapasztalatai azzal kapcsolatban, hogy a felhasználók milyen mértékig hajlandóak vagy nem hajlandóak részt venni az információtermelésben. És hasonlóképpen: részben más okokból kifolyólag ugyan, de Richard Stallman amerikai számítógépguru, a szabad szoftver mozgalom megalapítója 1999-ben egy mindenki által szabadon felhasználható és „univerzális, a tudás összes területét magában foglaló [online] enciklopédia” létrehozásának gondolatával foglalkozva még szintén abból indult ki, hogy „elvileg mindenkit szeretettel látunk, aki cikket akar írni. De ha segítséget keresünk, akkor a legígéretesebbek a tanárok és a diákok” (Stallman, 1999) – mintegy lemásolva ezzel az általa alapított Free Software Foundation működését, ahol programozókat fizettek meg, hogy mindenki által szabadon felhasználható (és módosítható) szoftvereket írjanak. Sőt, a Wikipédia közvetlen elődje (melynek fejlesztésében a Wikipédia későbbi kulcsembere, Jimmy Wales is részt vett), a Nupedia is azon a koncepción alapult, hogy a cikkeket önkéntes szakértők írják, és azt követően, hogy a szerkesztők, akik „valóban járatosak az adott területen, és nagyon kevés kivételtől eltekintve PhD-val is rendelkeznek belőle”, ellenőrizték, bárki szabadon felhasználhatja (átveheti, módosíthatja stb.) őket (Sanger, 2005).

Pedig visszatekintve nem is olyan meglepő az, hogy bizonyos esetekben a hírek előállítói és fogyasztói egyre inkább ugyanazok, még ha ez csupán afféle utólagos bölcsesség is. Alvin Toffler amerikai jövőkutató már az 1970-es évek elején azt fejtegette, hogy az ipari forradalom vezetett el a termelők és a fogyasztók szétválásához, tehát joggal számíthatunk arra, hogy a harmadik hullám: az információs forradalom ugyanilyen radikális átalakulásokat eredményez majd. Például „egyre inkább elmosódik a termelést a fogyasztástól elválasztó határvonal”. A jövőben tehát majd nem a boltban vásároljuk az inget: ehelyett egy kazettát vásárolunk meg, és az azon lévő program fogja az okos varrógépet vezérelni (Toffler, 2001).

Arra viszont ő sem gondolt, hogy hasonló folyamat játszódhat le a híriparban is; illetve, hogy ez a forradalom aztán elvezethet a Wikipédia létrejöttéhez, amely teljesen más elveken alapul, mint amit a nyomtatás elterjedése után megszoktunk, és természetesnek tartottunk. Sőt, még ma is tartunk.


Cenzor, plágium és remix


Vagyis egyfelől azon, hogy a nyomtatott szövegek állandóak, és egy adott címet viselő könyv minden példányában betűről betűre ugyanazt fogjuk olvasni. Illetve, hogy van jól azonosítható szerzője, s miként Adrian Johns amerikai történész megjegyzi, még az az élénk szkepticizmus is, amely bizonyos nyomtatott termékekkel (például bulvárlapokkal) szemben él bennünk, „csak addig működik, amíg biztosak vagyunk benne, hogy helyesen és konzisztens módon tudjuk megítélni, hogy mit sújtunk a megvetésünkkel” (Johns, 1998). Márpedig ez textuális stabilitás és jól azonosítható szerző nélkül nem lenne lehetséges. Viszont bármennyire természetesnek érezzük is ezeket, itt is csupán a technológia által kínált megoldásokról, nem pedig szükségszerűségről van szó, és a nyomtatás korántsem szükségképpen vezetett ide. Daniel Defoe 1700 körül két könyvbűn: a szöveg megváltoztatása (remix) mellett a szerző nevének megváltoztatása (plágium) ellen kelt ki, mondván: „igencsak problémás lenne megbüntetni azt a szerzőt, kinek a könyvben, miután elkészült, semmiféle joga nincs”. Viszont ha ezeket felszámoljuk, akkor az amúgy sem igazán hatékony cenzúrát utólagos kontrollra cserélhetnénk (Bodó, 2011), és ezzel Defoe lényegében az „előbb tedd közzé, aztán szűrjed” elvet támogatta. Persze a katolikus egyház által összeállított Tiltott könyvek jegyzéke (Index) már 1564-ben két kategóriába sorolta a listán szereplő szerzőket: voltak, akiknek csupán egyes műveit nem olvashatták a hívők (vagyis magára a szövegre vonatkozott a tiltás), és voltak, akiknek az összes művét (vagyis a tiltás a szerző személyére vonatkozott). A protestáns nyomdászok viszont amellett, hogy kiadványaikra sokszor katolikus városok nevét írták rá megjelenési helyül, még arra is ügyeltek, hogy olyan tipográfiát használjanak, mint az ottaniak, és nem kevesebb, mint százötven éven keresztül írták rá állítólag Kölnben nyomtatott művekre egy bizonyos Pierre de Marteau nevét (Briggs – Burke, 2004). Legalábbis elképzelhető lenne tehát egy olyan forgatókönyv, ahol a nyomtatás által kínált lehetőségek ellenére sem valósul meg sem a textuális stabilitás, sem pedig a szerző azonosíthatósága, mert a kalózkiadványok állandóan hozzátoldanak a művekhez, vagy éppen elvesznek belőlük, és állandóan változtatják a szerző nevét is.


Kronologikus információtárolás,
rugalmasság, számítógép


A másik véglet pedig az lenne, ha azt is folyamatosan figyelemmel tudnánk kísérni, hogy miként változik a tartalom az időben előre haladva – miként a Wikipédiánál is történik, ahol a „laptörténet” feltünteti, hogy mikor és milyen módosítások történtek az adott szócikkben, s ezek milyen nicknévhez vagy IP-címhez fűződnek. Illetve ott van David Gelernter amerikai számítógéptudós, aki évekkel a Wikipédia megjelenése előtt arra a következtetésre jutott, hogy érdemes lenne a hagyományos, lényegében papíralapú, nyomtatáskori irodát utánzó íróasztal-metafora helyett az „időutazás” metaforájából kiindulva lehetővé tenni, „hogy helyreállítsunk bizonyos kontextusokat a múltból”, és „kronologikus információtárolást” valósítsunk meg. Azaz, ha egy műnek sem a címére, sem a szerzőjére nem emlékszünk, csak arra, hogy kb. mikor találkoztunk vele, akkor a rendszer egyszerűen rekonstruálná az adott időpont körülményeit (mondjuk azt, hogy 2011 tavaszán hogyan nézett ki a desktopunk), és így találnánk meg a keresett információt (Gelernter, 1998).

Ez egy papíralapú világban persze nem lenne lehetséges, ahol ráadásul az az alapkérdés,hogy mit őrizzünk meg. Itt viszont az, hogy mit töröljünk, ugyanis miként Székely Iván társadalmi informatikus rámutat, „eddig az emlékezés (a rögzítés, az ismeretek megőrzése, átörökítése) volt a drága és erőforrás-igényes tevékenység”, ma viszont „a szelektálás, értékelés, selejtezés” az (Székely, 2010), és ezzel vissza is értünk a filterezés korábban már érintett problémájához.

Meg persze a Wikipédiához is, amely bizonyos értelemben nagyon is furcsa konstrukció, mivel a textuális stabilitást nem a textuális labilitással cseréli fel, hanem az állandóan változó szöveggel. Amennyiben azonban az általunk hivatkozott szócikkhez egy „időbélyeget” csatolunk, úgy ezzel a textuális stabilitást is visszaállítjuk, hiszen egyértelműen és vita nélkül eldönthető, hogy pontosan mire is hivatkozunk. Sőt, még azt is rekonstruálni lehet, hogy egy változás (hiba) mikor került bele a szövegbe.

Azt viszont nem, hogy ki által, és így a Wikipédia a szerzők Defoe által is megkövetelt azonosíthatóságának nem is tesz eleget. Zittrain néhány éve arról írt, hogy a világhálót mindeddig kétféle rugalmasság jellemezte: egyfelől a rugalmas és tág határok között szabadon módosítható operációs rendszerekkel ellátott számítógépek; másfelől pedig az, hogy a hálózathoz is (többé-kevésbé) szabadon és rugalmasan csatlakozhatunk (Zittrain 2008). Legalábbis a nyugati világban, mert azt azért érdemes észrevenni, hogy például a „szabadság eszközének” kikiáltott internet a totalitárius rendszerekben nem eredményezett demokratizálódást még akkor sem, ha a szabadságmozgalmak persze megpróbálják a saját céljaikra felhasználni – mint ahogy a titkosrendőrségek is, és vannak, akik a vasfüggöny analógiájára már egyenesen „információs függönyt” emlegetnek. A nem demokratikus rendszerek megtehetik, hogy mondjuk nem az otthoni, hanem csak a nyilvános helyekről történő, ellenőrzött

 

 

internethasználatot engedélyezik, és ezáltal gátolják meg, hogy az állampolgárok nem a hatalomnak tetsző célokra használják azt. De elvileg annak sincs akadálya, hogy az összes számítógépet biometrikus azonosítóval lássuk el, és így tegyük azonosíthatóvá a felhasználókat.


A Nupediá-tól a tömegsportig


Lawrence Lessig amerikai jogász úgy fogalmaz, hogy az internet kódjának a szoftver, az architektúrájának pedig a hardver felel meg, és „egyes architektúrák támogatják az innovációt, mások viszont nem”. Azaz a hardver meghatározza a lehetőségek fázisterét. A világháló eredetileg tudományos kutatók számára épült ki, és ezért a biztonság meg az azonosíthatóság nem is volt fontos szempont. Érthető hát, hogy az internetre sokáig jellemző rossz vagy éppen semmilyen azonosíthatóság jellemzi a Wikipédia szerkesztőit is: rendszerint sejtelmünk sincs arról, hogy a nicknév vagy épp az IP-cím kit takar, és ennek megfelelően mennyire megbízható a tudása. A Wikipédia közvetlen előfutára, a Nupedia még (Stallman GNUpediá-jához hasonlóan) a papír alapú közeg hagyományos, professzionális szerkesztőkön alapuló megoldását akarta átültetni az internetes környezetbe, és nem meglepő, hogy ez nem sikerült, amennyiben elfogadjuk, hogy az architektúrának tényleg szerepe van abban, hogy mi lehetséges és mi nem; s hogy az egyik közegben olyan dolgok is megvalósulhatnak (vagy akár normává emelkedhetnek), amelyek a másikban nem.

A különbség nem az a Wikipédia meg az Encyclopedia Britannica között, hogy az előbbit „bárki” szerkesztheti, az utóbbit pedig nem. Elvégre ez utóbbi szerkesztői sem valamiféle zárt és örökletes kaszthoz tartoznak, ahová „kívülről” nem lehet bekerülni, hanem bizonyos szakmai követelményeknek kell megfelelniük. Olyan ez, mint a részvétel a nyílt forráskódú szoftverek, például a különböző Linux-disztribúciók fejlesztésében: bárki beszállhat, ha rendelkezik a megfelelő programozói tudással – anélkül viszont nem. Vagyis: viszonylag magas a beszállási küszöb. Vagy mint a sportban a válogatottba való bekerülés, amely mindenki számára bizonyos feltételekhez van kötve. A Wikipédiánál viszont nem elvárják a szakmai hozzáértést és az adott szint teljesítését, hanem bíznak benne, hogy megvan. Mivel az internet jelenlegi architektúrája miatt rosszul azonosíthatóak az emberek, ezért, bár természetesen vannak szabályok és előírások, rájuk bízzák, hogy eldöntsék, alkalmasnak találják-e magukat a szerkesztői (szócikkírói stb.) munkára. Mintha csak azt mondanánk, hogy bárki bekerülhet a válogatottba, aki azt állítja magáról, hogy alkalmas rá – ez azonban nem a válogatott kiépítése lenne, hanem tömegsport. Az Encyclopedia Britannicá-t és a Wikipédiát tehát ugyanúgy értelmetlen összehasonlítani, mint az olimpiai maratont a Futapesttel. Egyszerűen különböző célokra szolgálnak, és ebből a szempontból szerencsésebb lenne, ha a Wikipédia nem enciklopédiának nevezte volna magát, hanem valami másnak – minthogy valóban nem is felel meg a hagyományos enciklopédia kritériumainak.


Enciklopédia és adatgenerálás


Számos egyetem és oktatási intézmény tiltja a hallgatóinak, hogy a Wikipédiát mint forrást használják, és erre két okuk van. Az egyik – noha ezt nem szokták hangsúlyozni – az, hogy az enciklopédia általában véve sem tudományos referencia-mű, és már a Nagy Francia Enciklopédia létrejöttében fontos szerepet játszó D’Alembert is abból indult ki, hogy ez az általános referenciamű kiválthatja ugyan a köznapi emberek könyvtárát, de a tudósokét nem, és ennek megfelelően sem az Encarta, sem az Új Magyar Lexikon, sem az Encyclopedia Britannica nem arra való, hogy például a Magyar Tudomány-nak írott cikkben hivatkozzunk rá.

De ettől persze még mindegyiküknek van létjogosultsága, mint ahogy a Wikipédiának is lehet, amennyiben sem a tudományos forrásokkal nem tévesztjük össze, sem pedig a hagyományos értelemben vett enciklopédiákkal, ahol alapvető elvárás, hogy a szócikkeket szakértők írják, illetve, hogy azonosíthatóak legyenek.

A Wikipédia persze nem felel meg ezeknek a kritériumoknak, és eközben kimondottan magán viseli egy adott korszak felfogásának lenyomatát. Némi túlzással akár azt is állíthatnánk, hogy a jövő információtörténészei pusztán bizonyos jellemzői alapján is viszonylag pontosan képesek lennének megállapítani, hogy mikor jött létre.

Amikor a Google magyarul is elérhetővé tette a különböző szolgáltatásait a kereséstől a levelezésig bezárólag, ezzel a különböző itthoni szolgáltatások riválisává vált. Ezekben az esetekben még elég volt egy szövegfile-t egy másikkal kicserélni, hogy a „search” helyett „keresés” legyen a gombon a felirat. A második fázisban aztán a böngészők elkezdték lefordítani az internetes tartalmakat, és nem nehéz előre látni, hogy néhány éven belül a magyar hírsite-oknak a külföldiek lesznek a riválisaik.

Ma viszont még az jellemző, hogy ugyanazt a tartalmat több nyelven állítjuk elő, és ez a Wikipédia esetében sajátos helyzethez fog vezetni, amennyiben ezek „átjárhatóak” lesznek egymás felé. Innentől kezdve ugyanis kérdés lesz, hogy a különböző nyelvű és egymástól tartalmilag is többé-kevésbé eltérő változatok közül melyiket fogadjuk el.
És nem zárható ki az sem, hogy a többnyelvűséghez hasonlóan az internetes anonimitás is időleges jelenségnek bizonyul. Elvégre – miként korábban már utaltunk rá – elvileg kiépíthető egy olyan internetes architektúra, ahol mindenkiről legalább olyan pontosan lehet tudni, hogy kicsoda, mintha személyivel igazolná magát. Ekkor persze a Wikipédia szerzői és szerkesztői is jól azonosíthatóvá válnának; elvileg annak sem lenne akadálya, hogy olyan internetes architektúrát építsünk ki, amely a gelernteri elképzeléssel összhangban és valahogy úgy, mint a „laptörténet” a Wikipédia esetében, folyamatosan rögzítené a tartalmak időbeli módosulásait.

Itt persze még nem tartunk, de éppen ennek a cikknek az írása idején jelent meg a hír, hogy az iPhone eltárolja a felhasználó tartózkodási helyére vonatkozó információkat, és ez valójában jelzésértékűnek tekinthető: afféle „gyenge jelnek”, amely esetleg megmutatja, hogy merre tartunk. Ugyanis a számítástechnika története az adatok létrehozását tekintve három korszakra osztható.

Az elsőbe tartoznak a – nevezzük talán így – célzottan létrehozott adatok: ilyen például nem csupán egy Encyclopedia Britannica, hanem egy Wikipédia-szócikk is, amely úgy jön létre, hogy valaki leül, és megírja. De ide sorolhatóak a blogbejegyzések, a feltöltött fényképek is és így tovább.

A második lépés az, amikor a felhasználó magával az internetes tevékenységével generál adatokat. Persze a keresőgépek esetében már korábban is ott volt a „click-stream”, vagyis az az adatáram, amit a kattintgatásunkkal generáltunk, de mostanra egyre inkább láthatóvá válnak a többiek számára is internetes tevékenységeink nyomai, és egyre inkább az válik információvá, hogy ki kinek a fotóját „lájkolja”, vagy kinek lesz a „barátja” a Facebook-on.

A harmadik fázis pedig talán az lesz, amikor iPhone meg más megoldások révén (mint amilyen a QR-kód vagy a geotag is) a valós világból származó adatok digitálissá válva egyre inkább felkerülnek az internetre, és egyre meghatározóbbá válnak. Ha pedig miként eddig a virtuális, úgy a jövőben majd a valós életben folytatott tevékenységeink fognak adatokat létrehozni, akkor ez akár szemléletváltást is eredményezhet. Eddig alapvetően „szövegalapúnak” tekintettük az internetet, ahol a hírek, a letölthető szövegek, a tudományos publikációk meghatározóak voltak. Most viszont azzal párhuzamosan, hogy a Youtube, a zeneletöltések és a hasonló szolgáltatások mind fontosabbá válnak, elkezdhetnénk „elektronikus könyvinternet” helyett szolgáltatási és „adatbázis-internetként” gondolni rá.

Amihez Susan Greenfield brit agykutató hozzáteszi, hogy egy errefelé haladó jövőben nem fognak működni azok a megkülönböztetések, amilyen példának okáért a fizikai és a virtuális világ szembeállítása. Vagy éppen az „éné” és „környezeté”: egy tökéletesen interaktív valóságban talán ugyanúgy nem tudjuk majd magunkat a különböző szenzorok folyamatos visszajelzései nélkül elképzelni, mint ahogyan ma a bőrünket és a fogtöméseinket is „önmagunk részének” tekintjük. Vagyis a jövőben „te magad sem leszel jól definiált entitás”, illetve általánosabban fogalmazva: „egy [a mostanitól] alapvetően eltérő világban fogunk élni, ahol nem lesznek tiszta kategóriák” (Greenfield, 2004), és a jelenlegi fogalmainkat is át kell értelmezni.

Akár még azt is, hogy mi is az a tudomány és a tudományosság.


A piktografikus stabilitás,
a Wikipédia meg a tudomány jövője


A nyomtatás megjelenését követően a textuális stabilitás és a már kezdetben is többé-kevésbé azonosítható szerző megteremtette a modern tudomány létrejöttének feltételeit. Elvégre ahhoz, hogy a skolasztikus felfogás helyett a súlypont a megfigyelésen és ellenőrizhető kísérleteken alapuló tudományra kerüljön át, szükséges volt a megfigyelések pontos reprodukálhatósága. Innentől kezdve viszont érdemes volt pontosabb műszereket is készíteni, és miközben Kopernikusz a 16. század első felében még alig egy tucatnyi mérést végzett, az egy generációval később élő Tycho Brahe, aki csillagvizsgáló-szigetén saját nyomdát is működtetett, nagyságrendekkel pontosabb észleléseket végzett még a távcső feltalálása előtt (Johns, 1998). Méghozzá olyan műszerekkel, melyeket nyugodtan meg lehetett volna építeni korábban is, hiszen az alapelveik ismertek voltak – csak éppen úgysem tudták volna a pontos mérési adatokat sokszorosítani.

Most viszont megjelenhettek a távcsövek és mikroszkópok is, miközben az ezekkel végzett megfigyelések eredményeivel korábban hasonlóképpen nem lehetett volna semmit sem kezdeni, mert nem tudták volna rekonstruálni őket. Az ókori görög botanikusok például egy idő után felhagytak a növényábrázolással, mivel a másolók nem boldogultak velük, és így kénytelenek voltak a növénynevek felsorolására, illetve annak leírására korlátozni a tevékenységüket, hogy melyik mire jó. A 17. században azonban a textuális stabilitás mellett már létezik a – használjuk talán ezt a neologizmust – piktografikus stabilitás is, és innentől kezdve már van értelme a képi információk rögzítésének.

És mivel ismét csak a nyomtatás lehetővé tette az olyan, „nem a fülnek” szóló megoldások alkalmazását is, mint amilyenek a táblázatok (melyeket a szöveggel ellentétben nem lehet és nem is érdemes felolvasni), elterjednek a különféle matematikai, csillagászati stb. táblázatok is (Johns, 1998) – ami viszont megteremtette az igényt az ezekhez szükséges pontos számolásra. Elvégre amíg a rögzített adatok számolási hibáktól hemzsegtek (mint amikor emberek végezték a számításokat), akkor semmi értelme sem lett volna ezeket a textuális stabilitás kínálta lehetőségeket kihasználva közzétenni.

És ezzel el is jutottunk a számolás mechanizálásának gondolatához, amely majd elvezet a modern számítástechnikához,ahol már nem csupán az adatok sokszorosítása, de a létrehozása is hibamentesen történik. A Wikipédia viszont mintha éppen ezt a pontosságot tenné kérdésessé. Bár a mögötte meghúzódó elképzelés mintha valami olyasmi lenne, hogy ha elég sokan megnézik a szócikkeket, akkor előbb-utóbb majd biztosan akad, aki ért is hozzá, és megtalálja az esetleges hibát, Jaron Lanier, a virtuális realitás fogalmának egyik kidolgozója ezzel kapcsolatban egyenesen digitális maoizmust emleget, amely egyfelől túlságosan közvetlenné teszi a tömegek részvételét a különféle döntések meghozatalában, attól kezdve, hogy mondjuk: ki a „legjobb énekes” az X-faktorban, és befejezve azon, hogy mikor született Alexander Hamilton amerikai politikus – vagy éppen hogy ő, Jaron Lanier, filmrendező-e vagy sem. „A rólam szóló Wikipedia-bejegyzés filmrendezőnek tüntet föl”, írja, noha azon túl, hogy valamikor valóban forgatott egy rövidfilmet, nem tartja magát annak, de a Wikipédia-bejegyzésen többszöri próbálkozásra sem tudott változtatni, mert mindig akadt valaki, aki visszaállította az eredeti állapotot.

Ami valóban bosszantó lehet, és természetesen senki sem vitatja, hogy az, hogy ki ad elő a legjobban egy számot, meglehetősen tág határok között vélemény kérdése; az viszont, hogy valakinek mi a foglalkozása (vagy mikor látta meg a napvilágot) ténykérdés. Az viszont, hogy a többség véleményét tartjuk-e fontosabbnak, még akkor is változhat, ha azt senki sem vitatja, hogy a modern tudomány – a nyomtatás elterjedése óta – nem a véleményekre próbál támaszkodni, és az is kétségtelen, hogy azokhoz az eredményekhez, melyekhez így eljutottunk, biztos nem jutottunk volna el, ha nem errefelé indulunk. De persze mindig elképzelhetőek más utak és megoldások is, és a Wikipédia például teljesen másra alkalmas, mint a hagyományos enciklopédiák. Tehát hiba is lenne ugyanazt elvárni tőle.

Toffler megkülönbözteti a „szakaszos” és a „folyamatos” működésű gépeket. Előbbire a sajtológép a példa, mely csak akkor dolgozik, amikor éppen a belehelyezett fémlemezt munkáljuk meg vele; ellentétben mondjuk az olajfinomítóval, ahol „napi 24 órán át folyik az olaj a csöveken, kamrákon, tálcákon keresztül” (Toffler, 2001). Az első megoldás a hagyományos, nyomtatott kiadványokkal: könyvekkel, folyóiratokkal, enciklopédiákkal stb. állítható párhuzamba; a második viszont tipikusan az online publikációkkal – természetesen ideértve a Wikipédiát is, amely képes azonnal reagálni a változásokra, mivel folyamatosan „működik”, és ennek megfelelően azonnal módosítani lehet egy politikus életrajzát, ha történik valami.

A hagyományos enciklopédia viszont nem engedheti meg magának, hogy aktualitásokkal (is) foglalkozzon, elvégre megjelenése után akár évtizedekig változatlan formában kell használnunk, ráadásul további gondot jelent, hogy csupán korlátozott hely és korlátozott szerkesztői kapacitás áll a rendelkezésére – ellentétben a Wikipédiá-val, ahol nincsenek ilyen problémák. Innentől kezdve viszont feldolgozhat olyan, populáris témákat is, melyek egy Encyclopedia Britannicá-ba értelemszerűen nem férnének be.

Sőt, annál inkább fogunk szócikket találni róla, minél inkább érdekli az embereket, és innentől kezdve nem nehéz amellett érvelni, hogy a Wikipédia valóban másmilyen, mint a hagyományos referenciaművek, és ez többek között annak köszönhető, hogy a nyomtatást felváltó új közeg a korábbitól egészen eltérő lehetőségeket teremtett. Viszont miért is várnánk azt, hogy a megváltozott körülmények között minden pontosan ugyanúgy funkcionáljon? A nyomtatás is alapvetően átalakított jó néhány dolgot egészen a tudományosság fogalmáig bezárólag, és most elképzelhető – bár korántsem biztos –, hogy valami hasonló játszódik le.

„Könnyű azt mondani, hogy a jövő a jelennel kezdődik. De melyik jelennel?”, kérdezi Toffler (Toffler 2001). Azaz a jelenből kiindulva nehéz – ha ugyan nem lehetetlen – megítélni, hogy a későbbiekben mi fog fontosnak bizonyulni. Tehát amennyiben arra vagyunk kíváncsiak, hogy a Wikipédiának és a hozzá kapcsolódó jelenségeknek hosszú távon milyen hatásaik lesznek, akkor érdemes megnézni, hogy milyen forgatókönyvek képzelhetőek el.

Az első szerint a Wikipédia végül lokális anomáliának fog bizonyulni – valahogy úgy, mint annak idején a CB-rádió, és éppúgy nem fog kihívást jelenteni a hagyományos tudásra nézve, mint ahogy végül a CB-rádió sem fenyegette a rádióadók reklámbevételeit.

A második szerint a tudomány meg a tudományos ismeretterjesztés mellett meg fog jelenni egy harmadik kategória is, amelynek a Wikipédia az egyik korai előfutára: ez valamiféle „meggyőződéstudomány” lenne, ahol az emberek ugyanúgy kollektíven döntenének arról, hogy melyik történelmi adat helyes, mint ahogy arról is, hogy ki a legalkalmasabb az ország vezetésére. Ez persze nem hagyományos értelemben vett tudományt jelentene, hanem valami olyat, amely párhuzamosan, de a mostanitól elkülönülve létezik.
Végezetül pedig ott van az a lehetőség is, hogy miként a nyomtatás ha nem is létrehozta, de legalábbis lehetővé tette a modern tudományosságot, most azzal együtt, hogy a digitális közeg veszi át a papír helyét, a tudományfogalom is ugyanolyan radikálisan átalakul majd, mint annak idején. Aminek egyelőre persze képtelenek lennénk felbecsülni a jelentőségét – de ez nem ok arra, hogy legalább elvi lehetőségként ne számoljunk ezzel is.
 



Kulcsszavak: Wikipédia, nyomtatás, textuális stabilitás, tudás, internet, jövő
 


 

IRODALOM

Bankes, Steven C. – Lempert, R. J. – Popper, S. W. (2003): Shaping the Next One Hundred Years. New Methods for Quantitative, Long-Term Policy Analysis. Rand Publishing • WEBCÍM >

Bodó Balázs (2011): A szerzői jog kalózai. Typotex, Budapest

Briggs, Asa – Burke, Peter (2004): A média társadalomtörténete Gutenbergtől az internetig. (ford. Gelléri Gábor, Göbölyös Magdolna, Konok Péter) Napvilág, Budapest

Febvre, Lucien – Martin, Henri-Jean (2005): A könyv születése. A nyomtatott könyv és története a XV–XVIII. században. (ford. Csernus Anikó és Szász Géza) Osiris, Budapest

Gelernter, David (1998): Ami működik, az csodálatos. (ford. Kertész Balázs) Vince, Budapest

Greenfield, Susan (2004): Tomorrow’s People. How the 21st Century Technology is Changing the Way We Think and Feel. Penguin

Johns, Adrian (1998): The Nature of the Book: Print and Knowledge in the Making. University of Chicago Press • WEBCÍM >

Manguel, Alberto (2006): The Library at Night. Yale University Press

Negroponte, Nicholas (1995): Being Digital. Vintage Publishing • WEBCÍM >

Selected Bits Online Version

Toffler, Alvin (2001): A harmadik hullám. Információs társadalom A-tól Z-ig sorozat. (ford. Rohonyi András) Typotex, Budapest

Sanger, Larry (2005): The Early History of Nupedia and Wikipedia: A Memoir. In: DiBona, Chris – Cooper, D. – Stone, M. et al.: Open Sources 2.0: The Continuing Evolution. O’Reilly • WEBCÍM >

Stallman, Richard (1999): The Free Universal Encyclopedia and Learning Resource. • WEBCÍM >

Székely Iván (2010): A felejtés joga. In: Eötvös Károly Intézet: A személyiség burkai. Írások, tanulmányok a 60 éves Majtényi László tiszteletére. Eötvös Károly Intézet, Budapest

Zittrain, Jonathan L. (2008): The Future of the Internet and How to Stop it. Yale • WEBCÍM >