Bevezetés helyett: ha nem a bizalom számít
„Az ismerőseim és barátaim közül senki sem bízik a Wikipédiában, de
mindenki olvassa. A fenntartások és a produktív használat [tehát] nem
összeférhetetlenek”, állapítja meg Freeman Dyson amerikai fizikus, és
ez a sajátos viszonyulás már csak azért is érdekes a számunkra, mert
egyfelől olyan online enciklopédiáról van szó, amely mintha
megváltoztatna mindent, amit a könyvnyomtatás megjelenését követően a
szerzőségről, a szövegről és annak tulajdonságairól gondoltunk.
Másfelől pedig azért, mert innentől kezdve kérdés, hogy csupán
anomáliáról van-e szó vagy esetleg olyan jelenségről, amely ugyanúgy
át fog alakítani a tudományosság kritériumaiig bezárólag az élet
számos területén mindent, ahogy annak idején Gutenberg találmánya
tette.
Érdemes tehát számításba venni néhány, ha nem is
megvalósuló, de legalább felmerülő lehetőséget, és eközben
valószínűleg érdemes egy párhuzammal kezdeni. Méghozzá azzal, hogy
James A. Dewar, a RAND nevű amerikai agytröszt kutatója az 1990-es
évek végén arra volt kíváncsi, hogy milyen potenciális hatása lehet az
internetnek a társadalomra, és eközben abból indult ki, hogy a
nyomtatás a történelem folyamán először rendkívül olcsóvá tette az egy
a sokhoz kommunikációt – ami aztán olyan, előre nem látott
következményekhez vezetett, mint a reformáció meg az új értelemben
vett tudományosság. Mivel pedig az internet a sok a sokhoz
kommunikációt tette rendkívül olcsóvá ismét csak a történelem folyamán
először globális léptékben is, ezért Dewar szerint joggal számíthatunk
rá, hogy hasonlóképpen alapvető hatása lesz számos területen (Bankes
et al. 2003). Mivel – mint mindjárt látni fogjuk – a Wikipédia
létrejöttét az internet kialakulása tette lehetővé, ezért érdemes az
egész problémakört tágabb összefüggéseiben szemlélni, és nemcsak arra
koncentrálni, hogy egy „mindenki által szerkeszthető, szabad
enciklopédiáról” van szó. Vagyis érdemes megnézni, milyen körülmények
között és miként jöttek létre a jelenleg még érvényben lévő
játékszabályok, amelyeket elképzelhető, még ha nem is szükségszerű,
hogy a jövőben újak fognak felváltani, melyek talán legalább annyira
fognak különbözni a mostanitól, mint a mostani a könyvnyomtatás előtti
korszak módszereitől, szabályozásaitól és normáitól.
Legalábbis az egyik lehetséges értelmezés szerint,
mert miként a gazdaságtörténész Joel Mokyr felhívja rá a figyelmet,
„az események reménytelenül túldetermináltak, azaz mindegyiknek számos
elfogadható magyarázata van”, és innentől kezdve szükségképpen
túlegyszerűsített az általunk adott leírás is. Ami persze nem jelenti
azt, hogy bármilyen túlegyszerűsítés elfogadható.
Az alexandriai könyvtártól az exemplarig
De az valószínűleg azért védhető álláspont, ha az alexandriai
könyvtártól indulunk el, illetve attól, hogy amikor az i. e. 3.
században a hagyomány szerint I. Ptolemaiosz Szótér megalapította,
akkor ott a teljes emberi tudást össze akarták gyűjteni, és úgy
becsülték, hogy ez mintegy ötszázezer tekercsnyi lesz. Mivel egy
tekercs jó közelítésben egy mai könyvfejezetnek felel meg, ez kb. egy
nagyobb vidéki könyvtár állományát jelenti – miközben a Washingtoni
Kongresszusi Könyvtár a 90-es évek végén ennyi könyvvel gyarapodott
egyetlen év alatt (Manguel, 2006). Az alexandriai könyvtár esetében
viszont nem a mai szemmel kis méret a lényeg, hanem éppen
ellenkezőleg: az, hogy korábban csak magánemberek könyvgyűjteményei,
illetve hivatalos iratgyűjtemények léteztek, és most először
gyűjtöttek össze annyi információt egy helyen, amennyit egy ember nem
tud élete végéig elolvasni. Vagyis itt először vált lehetővé az
intenzív olvasás helyett (amikor újra és újra ugyanazokat a műveket
tanulmányozzuk) az extenzív, amikor a még el nem olvasott könyvek
sosem fogynak el.
Clay Shirky amerikai technológia-szakértő 2008-ban
arról beszélt, hogy az igazi gondot nem az információ-túltermelés,
hanem a nem megfelelő szűrési eljárások jelentik, vagyis az, hogy a
rendelkezésre álló, nagy mennyiségű információból nem vagyunk képesek
kiszűrni a számunkra relevánsat. Az alexandriai könyvtár létrejötte
előtt viszont ez a probléma egyszerűen nem létezett, és némi
egyszerűsítéssel akár azt is mondhatnánk, hogy az információkezelés
története is három nagy korszakra osztható.
Az elsőben még képesek voltunk áttekinteni minden
rendelkezésünkre álló információt; a második korszakban egyetlen
helyen az egyes ember lehetőségeit meghaladó mennyiséget halmoztunk
fel; a harmadikban pedig ez immár nem kivétel, hanem szabállyá vált.
Egy itáliai szerző a könyvnyomtatás elterjedését követően, valamikor a
16. század közepén arról panaszkodott, hogy „annyi a könyv, hogy még
arra sincs időnk, hogy a címüket elolvassuk”, és ez aztán ugyanúgy
elvezetett a különböző bibliográfiák meg az új kiadásokról szóló
beszámolók, illetve általában véve a különböző új információkezelési
technikák megjelenéséhez (Briggs – Burke, 2004), mint ahogy az
internet növekedése is azokhoz a keresőgépekhez, amelyek Shirky
problémájára próbálnak megoldást kínálni. Az adatmennyiségből fakadó
problémák nem elhanyagolhatóak tanulmányunk egyik tárgya, a Wikipédia
esetében sem, amelynek a megbízhatóságáról lehet ugyan vitatkozni, ám
óriási terjedelme miatt senki sem képes véleményt alkotni az egészéről
– mint ahogy az i. e. 3. században élt kutató sem tudta volna
megítélni az Alexandriában összegyűjtött szövegek minőségét.
Pedig Ptolemaiosz Szótér mindent megtett azért,
hogy ez a lehető legmagasabb színvonalú legyen, s amellett, hogy a
„világ összes uralkodójának” levelet írt, arra kérve őket, hogy
küldjenek neki a birtokukban lévő művekből, azt is elrendelte, hogy az
alexandriai kikötőbe érkező hajókat kutassák át a könyvtárból még
hiányzó művek után; másolják le az eredetit papiruszra, és a
másolatokat adják vissza a tulajdonosoknak. Aminek minden bizonnyal
nem az a helyes olvasata, hogy nagylelkű gesztus történt (lévén a kor
legjobb információhordozó közege a papirusz); hanem, hogy az eredetit
tartották meg (Manguel, 2006). Márpedig egy adott szöveg pontos
reprodukálása egészen a nyomtatás megjelenéséig gyakorlatilag
megoldhatatlan gondot jelentett.
Richard Dawkins angol evolúcióbiológus említi, hogy
„a szeretet mindent valóra vált” című lánclevélben – a jónéhány
másolási mutáció eredményeként – olyan sorok olvashatóak, mint például
az, hogy „ezt a levelet nem atta ki a kezéből 96 órán belül. Végül,
amint elhatározta, legépelte a levelet, és vet egy új autót. Ne pénzt
külgy. Ne feledkez meg erről, mert hat”, és így tovább.
Ez persze szélsőséges példa, és a másolásból fakadó
hibalehetőségeket az egyetemek a nyomtatás előtt az exemplar
intézményével próbálták csökkenteni. Kizárólag olyan kéziratokat volt
szabad másolásra kölcsönadni, amelyeket gondosan átvizsgáltak és
ellenőriztek (Febvre – Martin, 2005). A másolatról pedig tilos volt
újabbakat készíteni, de ezzel is csak a hibák felhalmozódását lehetett
meggátolni, nem pedig a létrejöttüket, és Umberto Eco egy helyütt még
azt a feltétezést is megkockáztatja, hogy a nyomtatás előtti nyugati
kultúra többek között azért tűnik konzervatívnak a számunkra, mert egy
olyan világban, ahol komoly erőfeszítéseket kellett tenni a pontos
utánzásra, az „eredetiséget” minden bizonnyal máshogyan ítélték meg,
mint mi. De aztán jött a „fekete művészet”, s ennek képviselői már a
16. század elején azzal reklámozták magukat, hogy képesek ugyanazt a
szöveget akárhány példányban változatlanul előállítani – és ezzel
megjelent az úgynevezett textuális stabilitás (Johns, 1998).
A lehetőségek fázistere
Vagy legalábbis a lehetősége, sosem szabad ugyanis elfelejteni, hogy a
technológia legfeljebb lehetőséget teremt valamire, de nem
szükségképpen vezet egy adott eredményre. A betű például korántsem
volt önjáró, és az, hogy rendelkezésre állt a szükséges technika, nem
jelentette automatikusan az elterjedését. Samuel Hartlib 17. századi
filozófus ugyan azt hangoztatta, hogy „a könyvnyomtatás művészete
olyannyira elterjeszti a tudást, hogy a közönséges emberek, megismerve
jogaikat és szabadságukat, nem engedik majd magukat zsarnoki módon
kormányozni”, ám még ha így lenne is, az elvileg elképzelhető hatást
ne tévesszük össze a valóban létrejövővel. A nyomdagép ugyan már
létezett, de miután a szultán 1515-ben halálbüntetés terhe mellett
tiltotta meg az alkalmazását, az első török nyomdára az 1700-as évekig
kellett várni (Briggs – Burke, 2004).
Mint ahogy az sem volt szükségszerű, hogy az
internet megjelenése elvezessen a „bárki által szabadon szerkeszthető”
enciklopédiához. Amikor 1991-ben az MIT kiadta a vezető
számítástechnikai tudósok által írt Technológia 2001: A
számítástechnika és a kommunikáció jövője című könyvet, akkor abban
még véletlenül sem említették az internetet. Méghozzá nem azért, mert
tájékozatlanok lettek volna, hanem azért, mert az internet ugyanúgy
nem „önjáró” technológia, mint ahogyan a nyomtatás sem az, és a
sikeressé válásához arra volt szükség, hogy az amerikai kormány úgy
döntsön, hogy a szabadság és demokrácia „politikai szimbólumává” teszi
és támogatja. Amit viszont alig két évvel korábban az MIT szakértői
még nem láthattak előre.
Hiba lenne azonban kizárólagosságot tulajdonítani a
politikai beavatkozásnak. Jonathan Zittrain amerikai internetjogász
említi a CB-rádió példáját. Ebből 1959 és 1977 között egymilliót adtak
el az USA-ban; a következő egymillióhoz nyolc, a harmadikhoz pedig
mindössze három hónap kellett, és 1977-re 25 millióan(!) használták. A
kereskedelmi rádiók már a reklámbevételeiket kezdték félteni – aztán a
hullám lecsengett, és a CB-rádió ma már csupán lelkes amatőrök hobbija
(Zittrain, 2008). Kérdés viszont, hogy mi történt volna, ha a politika
ugyanúgy e technológia mellé áll, mint az internet esetében történt;
és hogy vajon egy nem szöveg-, hanem hangalapú kommunikációs
forradalom zajlott volna-e le. Vagy esetleg annak idején az szólt
volna-e az internet mellett, hogy alapvetően szövegalapú volt, s így
könnyen lehetett a könyv- és könyvtárvonalat tovább vive egyetemes
tudásfokozó eszköznek is tekinteni?
Mindenesetre mostanra a mobiltelefon előretörésével
mintha a Dewar-féle sok a sokhoz után valamiféle „egy a bárholhoz”
forradalom következne, miközben ez utóbbi sikerét nem politikai
megfontolások segítették. És ezt az áttörést ugyanúgy nem lehetett
előre látni, mint valamivel korábban az internet tömegessé válását, és
innentől kezdve nem meglepő az sem, hogy amikor Nicholas Negroponte,
az MIT Media Lab alapítója az 1990-es évek közepén a várható
technológiai fejlődésről írt, még csak azt tudta elképzelni, hogy a
jövőben egyfajta személyre szabott filterező rendszer (vagy ha úgy
jobban tetszik: személyre szabott elektronikus napilap) fogja
szolgáltatni a leginkább minket érdeklő híreket (Negroponte, 1995), de
az fel sem merült benne, hogy a hírfogyasztó a hírek előállításában is
rész vegyen. Ugyanis nem voltak tapasztalatai azzal kapcsolatban, hogy
a felhasználók milyen mértékig hajlandóak vagy nem hajlandóak részt
venni az információtermelésben. És hasonlóképpen: részben más okokból
kifolyólag ugyan, de Richard Stallman amerikai számítógépguru, a
szabad szoftver mozgalom megalapítója 1999-ben egy mindenki által
szabadon felhasználható és „univerzális, a tudás összes területét
magában foglaló [online] enciklopédia” létrehozásának gondolatával
foglalkozva még szintén abból indult ki, hogy „elvileg mindenkit
szeretettel látunk, aki cikket akar írni. De ha segítséget keresünk,
akkor a legígéretesebbek a tanárok és a diákok” (Stallman, 1999) –
mintegy lemásolva ezzel az általa alapított Free Software Foundation
működését, ahol programozókat fizettek meg, hogy mindenki által
szabadon felhasználható (és módosítható) szoftvereket írjanak. Sőt, a
Wikipédia közvetlen elődje (melynek fejlesztésében a Wikipédia későbbi
kulcsembere, Jimmy Wales is részt vett), a Nupedia is azon a
koncepción alapult, hogy a cikkeket önkéntes szakértők írják, és azt
követően, hogy a szerkesztők, akik „valóban járatosak az adott
területen, és nagyon kevés kivételtől eltekintve PhD-val is
rendelkeznek belőle”, ellenőrizték, bárki szabadon felhasználhatja
(átveheti, módosíthatja stb.) őket (Sanger, 2005).
Pedig visszatekintve nem is olyan meglepő az, hogy
bizonyos esetekben a hírek előállítói és fogyasztói egyre inkább
ugyanazok, még ha ez csupán afféle utólagos bölcsesség is. Alvin
Toffler amerikai jövőkutató már az 1970-es évek elején azt fejtegette,
hogy az ipari forradalom vezetett el a termelők és a fogyasztók
szétválásához, tehát joggal számíthatunk arra, hogy a harmadik hullám:
az információs forradalom ugyanilyen radikális átalakulásokat
eredményez majd. Például „egyre inkább elmosódik a termelést a
fogyasztástól elválasztó határvonal”. A jövőben tehát majd nem a
boltban vásároljuk az inget: ehelyett egy kazettát vásárolunk meg, és
az azon lévő program fogja az okos varrógépet vezérelni (Toffler,
2001).
Arra viszont ő sem gondolt, hogy hasonló folyamat
játszódhat le a híriparban is; illetve, hogy ez a forradalom aztán
elvezethet a Wikipédia létrejöttéhez, amely teljesen más elveken
alapul, mint amit a nyomtatás elterjedése után megszoktunk, és
természetesnek tartottunk. Sőt, még ma is tartunk.
Cenzor, plágium és remix
Vagyis egyfelől azon, hogy a nyomtatott szövegek állandóak, és egy
adott címet viselő könyv minden példányában betűről betűre ugyanazt
fogjuk olvasni. Illetve, hogy van jól azonosítható szerzője, s miként
Adrian Johns amerikai történész megjegyzi, még az az élénk
szkepticizmus is, amely bizonyos nyomtatott termékekkel (például
bulvárlapokkal) szemben él bennünk, „csak addig működik, amíg biztosak
vagyunk benne, hogy helyesen és konzisztens módon tudjuk megítélni,
hogy mit sújtunk a megvetésünkkel” (Johns, 1998). Márpedig ez
textuális stabilitás és jól azonosítható szerző nélkül nem lenne
lehetséges. Viszont bármennyire természetesnek érezzük is ezeket, itt
is csupán a technológia által kínált megoldásokról, nem pedig
szükségszerűségről van szó, és a nyomtatás korántsem szükségképpen
vezetett ide. Daniel Defoe 1700 körül két könyvbűn: a szöveg
megváltoztatása (remix) mellett a szerző nevének megváltoztatása
(plágium) ellen kelt ki, mondván: „igencsak problémás lenne
megbüntetni azt a szerzőt, kinek a könyvben, miután elkészült,
semmiféle joga nincs”. Viszont ha ezeket felszámoljuk, akkor az amúgy
sem igazán hatékony cenzúrát utólagos kontrollra cserélhetnénk (Bodó,
2011), és ezzel Defoe lényegében az „előbb tedd közzé, aztán szűrjed”
elvet támogatta. Persze a katolikus egyház által összeállított Tiltott
könyvek jegyzéke (Index) már 1564-ben két kategóriába sorolta a listán
szereplő szerzőket: voltak, akiknek csupán egyes műveit nem
olvashatták a hívők (vagyis magára a szövegre vonatkozott a tiltás),
és voltak, akiknek az összes művét (vagyis a tiltás a szerző
személyére vonatkozott). A protestáns nyomdászok viszont amellett,
hogy kiadványaikra sokszor katolikus városok nevét írták rá
megjelenési helyül, még arra is ügyeltek, hogy olyan tipográfiát
használjanak, mint az ottaniak, és nem kevesebb, mint százötven éven
keresztül írták rá állítólag Kölnben nyomtatott művekre egy bizonyos
Pierre de Marteau nevét (Briggs – Burke, 2004). Legalábbis
elképzelhető lenne tehát egy olyan forgatókönyv, ahol a nyomtatás
által kínált lehetőségek ellenére sem valósul meg sem a textuális
stabilitás, sem pedig a szerző azonosíthatósága, mert a
kalózkiadványok állandóan hozzátoldanak a művekhez, vagy éppen
elvesznek belőlük, és állandóan változtatják a szerző nevét is.
Kronologikus információtárolás,
rugalmasság, számítógép
A másik véglet pedig az lenne, ha azt is folyamatosan figyelemmel
tudnánk kísérni, hogy miként változik a tartalom az időben előre
haladva – miként a Wikipédiánál is történik, ahol a „laptörténet”
feltünteti, hogy mikor és milyen módosítások történtek az adott
szócikkben, s ezek milyen nicknévhez vagy IP-címhez fűződnek. Illetve
ott van David Gelernter amerikai számítógéptudós, aki évekkel a
Wikipédia megjelenése előtt arra a következtetésre jutott, hogy
érdemes lenne a hagyományos, lényegében papíralapú, nyomtatáskori
irodát utánzó íróasztal-metafora helyett az „időutazás” metaforájából
kiindulva lehetővé tenni, „hogy helyreállítsunk bizonyos kontextusokat
a múltból”, és „kronologikus információtárolást” valósítsunk meg.
Azaz, ha egy műnek sem a címére, sem a szerzőjére nem emlékszünk, csak
arra, hogy kb. mikor találkoztunk vele, akkor a rendszer egyszerűen
rekonstruálná az adott időpont körülményeit (mondjuk azt, hogy 2011
tavaszán hogyan nézett ki a desktopunk), és így találnánk meg a
keresett információt (Gelernter, 1998).
Ez egy papíralapú világban persze nem lenne
lehetséges, ahol ráadásul az az alapkérdés,hogy mit őrizzünk meg. Itt
viszont az, hogy mit töröljünk, ugyanis miként Székely Iván társadalmi
informatikus rámutat, „eddig az emlékezés (a rögzítés, az ismeretek
megőrzése, átörökítése) volt a drága és erőforrás-igényes
tevékenység”, ma viszont „a szelektálás, értékelés, selejtezés” az
(Székely, 2010), és ezzel vissza is értünk a filterezés korábban már
érintett problémájához.
Meg persze a Wikipédiához is, amely bizonyos
értelemben nagyon is furcsa konstrukció, mivel a textuális stabilitást
nem a textuális labilitással cseréli fel, hanem az állandóan változó
szöveggel. Amennyiben azonban az általunk hivatkozott szócikkhez egy
„időbélyeget” csatolunk, úgy ezzel a textuális stabilitást is
visszaállítjuk, hiszen egyértelműen és vita nélkül eldönthető, hogy
pontosan mire is hivatkozunk. Sőt, még azt is rekonstruálni lehet,
hogy egy változás (hiba) mikor került bele a szövegbe.
Azt viszont nem, hogy ki által, és így a Wikipédia
a szerzők Defoe által is megkövetelt azonosíthatóságának nem is tesz
eleget. Zittrain néhány éve arról írt, hogy a világhálót mindeddig
kétféle rugalmasság jellemezte: egyfelől a rugalmas és tág határok
között szabadon módosítható operációs rendszerekkel ellátott
számítógépek; másfelől pedig az, hogy a hálózathoz is (többé-kevésbé)
szabadon és rugalmasan csatlakozhatunk (Zittrain 2008). Legalábbis a
nyugati világban, mert azt azért érdemes észrevenni, hogy például a
„szabadság eszközének” kikiáltott internet a totalitárius
rendszerekben nem eredményezett demokratizálódást még akkor sem, ha a
szabadságmozgalmak persze megpróbálják a saját céljaikra felhasználni
– mint ahogy a titkosrendőrségek is, és vannak, akik a vasfüggöny
analógiájára már egyenesen „információs függönyt” emlegetnek. A nem
demokratikus rendszerek megtehetik, hogy mondjuk nem az otthoni, hanem
csak a nyilvános helyekről történő, ellenőrzött
|
|
internethasználatot engedélyezik, és ezáltal
gátolják meg, hogy az állampolgárok nem a hatalomnak tetsző célokra
használják azt. De elvileg annak sincs akadálya, hogy az összes
számítógépet biometrikus azonosítóval lássuk el, és így tegyük
azonosíthatóvá a felhasználókat.
A Nupediá-tól a tömegsportig
Lawrence Lessig amerikai jogász úgy fogalmaz, hogy az internet
kódjának a szoftver, az architektúrájának pedig a hardver felel meg,
és „egyes architektúrák támogatják az innovációt, mások viszont nem”.
Azaz a hardver meghatározza a lehetőségek fázisterét. A világháló
eredetileg tudományos kutatók számára épült ki, és ezért a biztonság
meg az azonosíthatóság nem is volt fontos szempont. Érthető hát, hogy
az internetre sokáig jellemző rossz vagy éppen semmilyen
azonosíthatóság jellemzi a Wikipédia szerkesztőit is: rendszerint
sejtelmünk sincs arról, hogy a nicknév vagy épp az IP-cím kit takar,
és ennek megfelelően mennyire megbízható a tudása. A Wikipédia
közvetlen előfutára, a Nupedia még (Stallman GNUpediá-jához hasonlóan)
a papír alapú közeg hagyományos, professzionális szerkesztőkön alapuló
megoldását akarta átültetni az internetes környezetbe, és nem meglepő,
hogy ez nem sikerült, amennyiben elfogadjuk, hogy az architektúrának
tényleg szerepe van abban, hogy mi lehetséges és mi nem; s hogy az
egyik közegben olyan dolgok is megvalósulhatnak (vagy akár normává
emelkedhetnek), amelyek a másikban nem.
A különbség nem az a Wikipédia meg az Encyclopedia
Britannica között, hogy az előbbit „bárki” szerkesztheti, az utóbbit
pedig nem. Elvégre ez utóbbi szerkesztői sem valamiféle zárt és
örökletes kaszthoz tartoznak, ahová „kívülről” nem lehet bekerülni,
hanem bizonyos szakmai követelményeknek kell megfelelniük. Olyan ez,
mint a részvétel a nyílt forráskódú szoftverek, például a különböző
Linux-disztribúciók fejlesztésében: bárki beszállhat, ha rendelkezik a
megfelelő programozói tudással – anélkül viszont nem. Vagyis:
viszonylag magas a beszállási küszöb. Vagy mint a sportban a
válogatottba való bekerülés, amely mindenki számára bizonyos
feltételekhez van kötve. A Wikipédiánál viszont nem elvárják a szakmai
hozzáértést és az adott szint teljesítését, hanem bíznak benne, hogy
megvan. Mivel az internet jelenlegi architektúrája miatt rosszul
azonosíthatóak az emberek, ezért, bár természetesen vannak szabályok
és előírások, rájuk bízzák, hogy eldöntsék, alkalmasnak találják-e
magukat a szerkesztői (szócikkírói stb.) munkára. Mintha csak azt
mondanánk, hogy bárki bekerülhet a válogatottba, aki azt állítja
magáról, hogy alkalmas rá – ez azonban nem a válogatott kiépítése
lenne, hanem tömegsport. Az Encyclopedia Britannicá-t és a Wikipédiát
tehát ugyanúgy értelmetlen összehasonlítani, mint az olimpiai maratont
a Futapesttel. Egyszerűen különböző célokra szolgálnak, és ebből a
szempontból szerencsésebb lenne, ha a Wikipédia nem enciklopédiának
nevezte volna magát, hanem valami másnak – minthogy valóban nem is
felel meg a hagyományos enciklopédia kritériumainak.
Enciklopédia és adatgenerálás
Számos egyetem és oktatási intézmény tiltja a hallgatóinak, hogy a
Wikipédiát mint forrást használják, és erre két okuk van. Az egyik –
noha ezt nem szokták hangsúlyozni – az, hogy az enciklopédia általában
véve sem tudományos referencia-mű, és már a Nagy Francia Enciklopédia
létrejöttében fontos szerepet játszó D’Alembert is abból indult ki,
hogy ez az általános referenciamű kiválthatja ugyan a köznapi emberek
könyvtárát, de a tudósokét nem, és ennek megfelelően sem az Encarta,
sem az Új Magyar Lexikon, sem az Encyclopedia Britannica nem arra
való, hogy például a Magyar Tudomány-nak írott cikkben hivatkozzunk
rá.
De ettől persze még mindegyiküknek van
létjogosultsága, mint ahogy a Wikipédiának is lehet, amennyiben sem a
tudományos forrásokkal nem tévesztjük össze, sem pedig a hagyományos
értelemben vett enciklopédiákkal, ahol alapvető elvárás, hogy a
szócikkeket szakértők írják, illetve, hogy azonosíthatóak legyenek.
A Wikipédia persze nem felel meg ezeknek a
kritériumoknak, és eközben kimondottan magán viseli egy adott korszak
felfogásának lenyomatát. Némi túlzással akár azt is állíthatnánk, hogy
a jövő információtörténészei pusztán bizonyos jellemzői alapján is
viszonylag pontosan képesek lennének megállapítani, hogy mikor jött
létre.
Amikor a Google magyarul is elérhetővé tette a
különböző szolgáltatásait a kereséstől a levelezésig bezárólag, ezzel
a különböző itthoni szolgáltatások riválisává vált. Ezekben az
esetekben még elég volt egy szövegfile-t egy másikkal kicserélni, hogy
a „search” helyett „keresés” legyen a gombon a felirat. A második
fázisban aztán a böngészők elkezdték lefordítani az internetes
tartalmakat, és nem nehéz előre látni, hogy néhány éven belül a magyar
hírsite-oknak a külföldiek lesznek a riválisaik.
Ma viszont még az jellemző, hogy ugyanazt a
tartalmat több nyelven állítjuk elő, és ez a Wikipédia esetében
sajátos helyzethez fog vezetni, amennyiben ezek „átjárhatóak” lesznek
egymás felé. Innentől kezdve ugyanis kérdés lesz, hogy a különböző
nyelvű és egymástól tartalmilag is többé-kevésbé eltérő változatok
közül melyiket fogadjuk el.
És nem zárható ki az sem, hogy a többnyelvűséghez hasonlóan az
internetes anonimitás is időleges jelenségnek bizonyul. Elvégre –
miként korábban már utaltunk rá – elvileg kiépíthető egy olyan
internetes architektúra, ahol mindenkiről legalább olyan pontosan
lehet tudni, hogy kicsoda, mintha személyivel igazolná magát. Ekkor
persze a Wikipédia szerzői és szerkesztői is jól azonosíthatóvá
válnának; elvileg annak sem lenne akadálya, hogy olyan internetes
architektúrát építsünk ki, amely a gelernteri elképzeléssel
összhangban és valahogy úgy, mint a „laptörténet” a Wikipédia
esetében, folyamatosan rögzítené a tartalmak időbeli módosulásait.
Itt persze még nem tartunk, de éppen ennek a
cikknek az írása idején jelent meg a hír, hogy az iPhone eltárolja a
felhasználó tartózkodási helyére vonatkozó információkat, és ez
valójában jelzésértékűnek tekinthető: afféle „gyenge jelnek”, amely
esetleg megmutatja, hogy merre tartunk. Ugyanis a számítástechnika
története az adatok létrehozását tekintve három korszakra osztható.
Az elsőbe tartoznak a – nevezzük talán így –
célzottan létrehozott adatok: ilyen például nem csupán egy
Encyclopedia Britannica, hanem egy Wikipédia-szócikk is, amely úgy jön
létre, hogy valaki leül, és megírja. De ide sorolhatóak a
blogbejegyzések, a feltöltött fényképek is és így tovább.
A második lépés az, amikor a felhasználó magával az
internetes tevékenységével generál adatokat. Persze a keresőgépek
esetében már korábban is ott volt a „click-stream”, vagyis az az
adatáram, amit a kattintgatásunkkal generáltunk, de mostanra egyre
inkább láthatóvá válnak a többiek számára is internetes
tevékenységeink nyomai, és egyre inkább az válik információvá, hogy ki
kinek a fotóját „lájkolja”, vagy kinek lesz a „barátja” a Facebook-on.
A harmadik fázis pedig talán az lesz, amikor iPhone
meg más megoldások révén (mint amilyen a QR-kód vagy a geotag is) a
valós világból származó adatok digitálissá válva egyre inkább
felkerülnek az internetre, és egyre meghatározóbbá válnak. Ha pedig
miként eddig a virtuális, úgy a jövőben majd a valós életben
folytatott tevékenységeink fognak adatokat létrehozni, akkor ez akár
szemléletváltást is eredményezhet. Eddig alapvetően „szövegalapúnak”
tekintettük az internetet, ahol a hírek, a letölthető szövegek, a
tudományos publikációk meghatározóak voltak. Most viszont azzal
párhuzamosan, hogy a Youtube, a zeneletöltések és a hasonló
szolgáltatások mind fontosabbá válnak, elkezdhetnénk „elektronikus
könyvinternet” helyett szolgáltatási és „adatbázis-internetként”
gondolni rá.
Amihez Susan Greenfield brit agykutató hozzáteszi,
hogy egy errefelé haladó jövőben nem fognak működni azok a
megkülönböztetések, amilyen példának okáért a fizikai és a virtuális
világ szembeállítása. Vagy éppen az „éné” és „környezeté”: egy
tökéletesen interaktív valóságban talán ugyanúgy nem tudjuk majd
magunkat a különböző szenzorok folyamatos visszajelzései nélkül
elképzelni, mint ahogyan ma a bőrünket és a fogtöméseinket is
„önmagunk részének” tekintjük. Vagyis a jövőben „te magad sem leszel
jól definiált entitás”, illetve általánosabban fogalmazva: „egy [a
mostanitól] alapvetően eltérő világban fogunk élni, ahol nem lesznek
tiszta kategóriák” (Greenfield, 2004), és a jelenlegi fogalmainkat is
át kell értelmezni.
Akár még azt is, hogy mi is az a tudomány és a
tudományosság.
A piktografikus stabilitás,
a Wikipédia meg a tudomány jövője
A nyomtatás megjelenését követően a textuális stabilitás és a már
kezdetben is többé-kevésbé azonosítható szerző megteremtette a modern
tudomány létrejöttének feltételeit. Elvégre ahhoz, hogy a skolasztikus
felfogás helyett a súlypont a megfigyelésen és ellenőrizhető
kísérleteken alapuló tudományra kerüljön át, szükséges volt a
megfigyelések pontos reprodukálhatósága. Innentől kezdve viszont
érdemes volt pontosabb műszereket is készíteni, és miközben
Kopernikusz a 16. század első felében még alig egy tucatnyi mérést
végzett, az egy generációval később élő Tycho Brahe, aki
csillagvizsgáló-szigetén saját nyomdát is működtetett,
nagyságrendekkel pontosabb észleléseket végzett még a távcső
feltalálása előtt (Johns, 1998). Méghozzá olyan műszerekkel, melyeket
nyugodtan meg lehetett volna építeni korábban is, hiszen az alapelveik
ismertek voltak – csak éppen úgysem tudták volna a pontos mérési
adatokat sokszorosítani.
Most viszont megjelenhettek a távcsövek és
mikroszkópok is, miközben az ezekkel végzett megfigyelések
eredményeivel korábban hasonlóképpen nem lehetett volna semmit sem
kezdeni, mert nem tudták volna rekonstruálni őket. Az ókori görög
botanikusok például egy idő után felhagytak a növényábrázolással,
mivel a másolók nem boldogultak velük, és így kénytelenek voltak a
növénynevek felsorolására, illetve annak leírására korlátozni a
tevékenységüket, hogy melyik mire jó. A 17. században azonban a
textuális stabilitás mellett már létezik a – használjuk talán ezt a
neologizmust – piktografikus stabilitás is, és innentől kezdve már van
értelme a képi információk rögzítésének.
És mivel ismét csak a nyomtatás lehetővé tette az
olyan, „nem a fülnek” szóló megoldások alkalmazását is, mint amilyenek
a táblázatok (melyeket a szöveggel ellentétben nem lehet és nem is
érdemes felolvasni), elterjednek a különféle matematikai,
csillagászati stb. táblázatok is (Johns, 1998) – ami viszont
megteremtette az igényt az ezekhez szükséges pontos számolásra.
Elvégre amíg a rögzített adatok számolási hibáktól hemzsegtek (mint
amikor emberek végezték a számításokat), akkor semmi értelme sem lett
volna ezeket a textuális stabilitás kínálta lehetőségeket kihasználva
közzétenni.
És ezzel el is jutottunk a számolás
mechanizálásának gondolatához, amely majd elvezet a modern
számítástechnikához,ahol már nem csupán az adatok sokszorosítása, de a
létrehozása is hibamentesen történik. A Wikipédia viszont mintha éppen
ezt a pontosságot tenné kérdésessé. Bár a mögötte meghúzódó elképzelés
mintha valami olyasmi lenne, hogy ha elég sokan megnézik a
szócikkeket, akkor előbb-utóbb majd biztosan akad, aki ért is hozzá,
és megtalálja az esetleges hibát, Jaron Lanier, a virtuális realitás
fogalmának egyik kidolgozója ezzel kapcsolatban egyenesen digitális
maoizmust emleget, amely egyfelől túlságosan közvetlenné teszi a
tömegek részvételét a különféle döntések meghozatalában, attól kezdve,
hogy mondjuk: ki a „legjobb énekes” az X-faktorban, és befejezve azon,
hogy mikor született Alexander Hamilton amerikai politikus – vagy
éppen hogy ő, Jaron Lanier, filmrendező-e vagy sem. „A rólam szóló
Wikipedia-bejegyzés filmrendezőnek tüntet föl”, írja, noha azon túl,
hogy valamikor valóban forgatott egy rövidfilmet, nem tartja magát
annak, de a Wikipédia-bejegyzésen többszöri próbálkozásra sem tudott
változtatni, mert mindig akadt valaki, aki visszaállította az eredeti
állapotot.
Ami valóban bosszantó lehet, és természetesen senki
sem vitatja, hogy az, hogy ki ad elő a legjobban egy számot,
meglehetősen tág határok között vélemény kérdése; az viszont, hogy
valakinek mi a foglalkozása (vagy mikor látta meg a napvilágot)
ténykérdés. Az viszont, hogy a többség véleményét tartjuk-e
fontosabbnak, még akkor is változhat, ha azt senki sem vitatja, hogy a
modern tudomány – a nyomtatás elterjedése óta – nem a véleményekre
próbál támaszkodni, és az is kétségtelen, hogy azokhoz az
eredményekhez, melyekhez így eljutottunk, biztos nem jutottunk volna
el, ha nem errefelé indulunk. De persze mindig elképzelhetőek más utak
és megoldások is, és a Wikipédia például teljesen másra alkalmas, mint
a hagyományos enciklopédiák. Tehát hiba is lenne ugyanazt elvárni
tőle.
Toffler megkülönbözteti a „szakaszos” és a
„folyamatos” működésű gépeket. Előbbire a sajtológép a példa, mely
csak akkor dolgozik, amikor éppen a belehelyezett fémlemezt munkáljuk
meg vele; ellentétben mondjuk az olajfinomítóval, ahol „napi 24 órán
át folyik az olaj a csöveken, kamrákon, tálcákon keresztül” (Toffler,
2001). Az első megoldás a hagyományos, nyomtatott kiadványokkal:
könyvekkel, folyóiratokkal, enciklopédiákkal stb. állítható
párhuzamba; a második viszont tipikusan az online publikációkkal –
természetesen ideértve a Wikipédiát is, amely képes azonnal reagálni a
változásokra, mivel folyamatosan „működik”, és ennek megfelelően
azonnal módosítani lehet egy politikus életrajzát, ha történik valami.
A hagyományos enciklopédia viszont nem engedheti
meg magának, hogy aktualitásokkal (is) foglalkozzon, elvégre
megjelenése után akár évtizedekig változatlan formában kell
használnunk, ráadásul további gondot jelent, hogy csupán korlátozott
hely és korlátozott szerkesztői kapacitás áll a rendelkezésére –
ellentétben a Wikipédiá-val, ahol nincsenek ilyen problémák. Innentől
kezdve viszont feldolgozhat olyan, populáris témákat is, melyek egy
Encyclopedia Britannicá-ba értelemszerűen nem férnének be.
Sőt, annál inkább fogunk szócikket találni róla,
minél inkább érdekli az embereket, és innentől kezdve nem nehéz
amellett érvelni, hogy a Wikipédia valóban másmilyen, mint a
hagyományos referenciaművek, és ez többek között annak köszönhető,
hogy a nyomtatást felváltó új közeg a korábbitól egészen eltérő
lehetőségeket teremtett. Viszont miért is várnánk azt, hogy a
megváltozott körülmények között minden pontosan ugyanúgy
funkcionáljon? A nyomtatás is alapvetően átalakított jó néhány dolgot
egészen a tudományosság fogalmáig bezárólag, és most elképzelhető –
bár korántsem biztos –, hogy valami hasonló játszódik le.
„Könnyű azt mondani, hogy a jövő a jelennel
kezdődik. De melyik jelennel?”, kérdezi Toffler (Toffler 2001). Azaz a
jelenből kiindulva nehéz – ha ugyan nem lehetetlen – megítélni, hogy a
későbbiekben mi fog fontosnak bizonyulni. Tehát amennyiben arra
vagyunk kíváncsiak, hogy a Wikipédiának és a hozzá kapcsolódó
jelenségeknek hosszú távon milyen hatásaik lesznek, akkor érdemes
megnézni, hogy milyen forgatókönyvek képzelhetőek el.
Az első szerint a Wikipédia végül lokális
anomáliának fog bizonyulni – valahogy úgy, mint annak idején a
CB-rádió, és éppúgy nem fog kihívást jelenteni a hagyományos tudásra
nézve, mint ahogy végül a CB-rádió sem fenyegette a rádióadók
reklámbevételeit.
A második szerint a tudomány meg a tudományos
ismeretterjesztés mellett meg fog jelenni egy harmadik kategória is,
amelynek a Wikipédia az egyik korai előfutára: ez valamiféle
„meggyőződéstudomány” lenne, ahol az emberek ugyanúgy kollektíven
döntenének arról, hogy melyik történelmi adat helyes, mint ahogy arról
is, hogy ki a legalkalmasabb az ország vezetésére. Ez persze nem
hagyományos értelemben vett tudományt jelentene, hanem valami olyat,
amely párhuzamosan, de a mostanitól elkülönülve létezik.
Végezetül pedig ott van az a lehetőség is, hogy miként a nyomtatás ha
nem is létrehozta, de legalábbis lehetővé tette a modern
tudományosságot, most azzal együtt, hogy a digitális közeg veszi át a
papír helyét, a tudományfogalom is ugyanolyan radikálisan átalakul
majd, mint annak idején. Aminek egyelőre persze képtelenek lennénk
felbecsülni a jelentőségét – de ez nem ok arra, hogy legalább elvi
lehetőségként ne számoljunk ezzel is.
Kulcsszavak: Wikipédia, nyomtatás, textuális stabilitás, tudás,
internet, jövő
IRODALOM
Bankes, Steven C. – Lempert, R. J. –
Popper, S. W. (2003): Shaping the Next One Hundred Years. New Methods
for Quantitative, Long-Term Policy Analysis. Rand Publishing •
WEBCÍM >
Bodó Balázs (2011): A szerzői jog kalózai.
Typotex, Budapest
Briggs, Asa – Burke, Peter (2004): A média
társadalomtörténete Gutenbergtől az internetig. (ford. Gelléri Gábor,
Göbölyös Magdolna, Konok Péter) Napvilág, Budapest
Febvre, Lucien – Martin, Henri-Jean
(2005): A könyv születése. A nyomtatott könyv és története a XV–XVIII.
században. (ford. Csernus Anikó és Szász Géza) Osiris, Budapest
Gelernter, David (1998): Ami működik, az
csodálatos. (ford. Kertész Balázs) Vince, Budapest
Greenfield, Susan (2004): Tomorrow’s
People. How the 21st Century Technology is Changing the Way We Think
and Feel. Penguin
Johns, Adrian (1998): The Nature of the
Book: Print and Knowledge in the Making. University of Chicago Press •
WEBCÍM >
Manguel, Alberto (2006): The Library at
Night. Yale University Press
Negroponte, Nicholas (1995): Being
Digital. Vintage Publishing •
WEBCÍM >
Selected Bits Online Version
Toffler, Alvin (2001): A harmadik hullám.
Információs társadalom A-tól Z-ig sorozat. (ford. Rohonyi András)
Typotex, Budapest
Sanger, Larry (2005): The Early History of
Nupedia and Wikipedia: A Memoir. In: DiBona, Chris – Cooper, D. –
Stone, M. et al.: Open Sources 2.0: The Continuing Evolution. O’Reilly
•
WEBCÍM >
Stallman, Richard (1999): The Free
Universal Encyclopedia and Learning Resource. •
WEBCÍM >
Székely Iván (2010): A felejtés joga. In:
Eötvös Károly Intézet: A személyiség burkai. Írások, tanulmányok a 60
éves Majtényi László tiszteletére. Eötvös Károly Intézet, Budapest
Zittrain, Jonathan L. (2008): The Future
of the Internet and How to Stop it. Yale •
WEBCÍM >
|
|