A szoftvererózió lehetséges okai
Az információtechnológia rohamos fejlődése hatással van mindennapi
tevékenységünkre, és gyakorlatilag Neumann János találmánya óta
egyre szélesebb részt kér az életünkből. Szeretném a következőkben
felhívni a figyelmet azokra a változásokra, amelyek hatással
lehetnek szoftvereink folyamatos cseréjére, ami időnként úgy tűnhet,
mintha a változásnak az lenne az oka, hogy az alkalmazások
elöregedtek, vagy nem felelnek meg a minőségbiztosítási
követelményeknek. A helyzet kicsit összetettebb, és jelen cikkben
szeretném bemutatni, hogy a szoftverek elöregedése hasonlítható egy
betegséghez, aminek számos tünete jelentkezhet, ugyanakkor ez a
szervezet változása miatt következik be. Nem hagyhatjuk figyelmen
kívül azt a tényt, hogy az információs technológia nyolcvanéves
múlttal rendelkezik, aminek biztonságos működtetése, gyorsasága,
eszközgazdagsága, kommunikációs készsége gyökeres fejlődésen ment
keresztül, és most is folyamatosan változik. Úgy gondolom, ez a
technológia az emberi szervezettel ellentétben nem az öregedés,
hanem a fiatalodás jeleit mutatja, egyre gyorsabb, egyre többfajta
eszközt képes használni, gyakorlatilag mindig és mindenhol.
Ma már interneten vásárolhatunk, kormányablakban
intézhetjük az ügyeinket, e-könyvtárakban olvashatunk, és
múzeumlátogatásainkat a világ bármely országában akár virtuálisan is
megtehetjük. Az oktatás, képzés sem kizárólag a könyvek segítségével
történik, új képességek és készségek elsajátítására e-learning
technikákat vehetünk igénybe, és akár on-line vizsgázhatunk.
Mindez azt jelenti, hogy a szoftvereinkkel szemben
támasztott elvárások jelentősen megváltoztak az elmúlt évtizedekben
az internet megjelenésének és a felhasználó eszközök sokszínűségének
minden fantázián túlmenő elterjedése következtében (Haig at al.,
2013).
Többnyire a szoftverfejlesztők első kérdései közé
tartozik annak pontos meghatározása, hogy milyen eszközökön történik
majd az elkészült program futtatása, egy vagy több felhasználó
számára készítjük az alkalmazást, milyen szolgáltatásokat kívánunk
nyújtani, milyen jogosultsági szinten, milyen körben.
Szoftverfejlesztésre ma már nem egyének
vállalkoznak, hanem kialakult fejlesztő csoportok, illetve a
szoftverfejlesztés nem korlátozódik a felhasználók által használt
programokra. Eszközeink számos beépített szoftvert tartalmaznak,
amely gyártónként speciális paraméterekkel rendelkezik a működtetés
elősegítésére, és adott eszközzel kompatibilis. Ma már az
architektúrák tervezése beépített szoftverek fejlesztésével is
együtt jár.
Mindezek alapján megállapíthatjuk, hogy a
szoftverek elöregedése csak tünet, következmény, amelynek oka a
hardverek és az architektúrák folyamatos, az utóbbi időben egyre
gyorsuló fejlődése. Vagyis annak a betegségnek az oka, amely a
szoftverek egyre gyorsuló elöregedéséhez vezet, az eszközök
típusainak, architekturális felépítésének és a velük való
kommunikáció típusainak állandó változásában van.
A számítógépek fejlődésének hatása
A számítástechnika történetének kezdete a 1940-es évekig nyúlik
vissza, amikor a háború számítási problémáinak megoldására
vákuumcsöves számítógépek megépítésében látták a megoldást. A
Neumann-elv szerinti felépítés alapján a gép öt alapvető
funkcionális egységből állt, és működését tárolt programnak kellett
biztosítania. Ezekben az elvekben lényegében kidolgozásuk óta nem
történt változás, annak ellenére, hogy ma már párhuzamos és
asszociatív működésű mikroprocesszorokat alkalmaznak, és az optikai
és kvantumszámítógépek fejlesztése is folyamatban van (Rojas –
Hashagen, 2000).
Az elsőgenerációs (1945–1954), vákuumcsöves
számítógépek architektúrájában az aritmetikai és logikai egység egy
processzormag teljesítményére alapult. Az I/O egység és a
programvezérlési egység szoros kapcsolatban állt a rendelkezésre
álló memóriával, amely háromszáz szorzást végzett percenként. A
műveletvégzéshez fixpontos aritmetikát használt, és az utasításokat
gépi kódban, assembly nyelven írták. Az IBM 701, és IBM 650
modellekből kétszáz darabnál kevesebbet adtak el. A számítógépek
használhatósága csak akkor válhatott jobban elfogadottá, amikor a
kezelhetőség a különböző programozási nyelvek megjelenésével és az
architektúrák fejlődésével szélesebb felhasználói réteg számára is
megvalósult.
A második generációs (1955–1964) számítógépekben az
architekturális változást a tranzisztorok megjelenése okozta, és a
számítógép történetének ebben a szakaszában jelentős előrelépések
történtek a számítógép architektúrájának fejlődésében, vagyis az
adatbevitellel, megjelenítéssel, tárolással, feldolgozással
foglalkozó alkatrészek kidolgozásában és összekapcsolásában. Ekkor
jelentek meg az operációs rendszerek, valamint a magas szintű
programozási nyelvek, például a FORTRAN, bár ezeket a nyelveket
általában specifikusan egy-egy feladatcsoportra szánták. A népszerű
gépek közé tartozott például az IBM 700/7000 sorozata, és az IBM
1410. Memóriaként mágnestárat használtak, a háttértár mágnesszalag,
majd mágneslemez volt, kiviteli eszközként pedig a lyukkártya, a
mágnesszalag volt az általános. Ezek a gépek 50 000–200 000
művelet/másodperc sebességet értek el, de még mindig nem terjedtek
el széles körűen a felhasználók körében.
A 60-as években az integrált áramkörök (SSI, MSI)
feltalálását követően a különböző magas szintű programozási nyelvek
megjelenése az operációs rendszerek fejlődésének és elterjedésének
is utat nyitott. A harmadik generációs (1965–1974) számítógépek
képesek voltak arra, hogy az időosztásnak, multiprogramozásnak és a
párhuzamos működtetésnek köszönhetően egy időben több feladatot is
végrehajtsanak, és általánossá vált a távadatátvitel. A programozási
nyelvek közérthetőbbé válásával (például BASIC) az alkalmazások
felhasználási területe szélesedett, és elterjedtebbé vált a kész
alkalmazások használata.
A számítógépek iránti keresletet az ipari számítógép-termelés
megjelenése elégítette ki, és a gyártók ráébredtek, hogy az
architektúrák tervezésére, kialakítására és a számítógépek
gyártására fordított költségek akár négy-öt év alatt is
megtérülhetnek.
A negyedik generációs számítógépekben (1971–1991) a
mikroprocesszorok, az LSI és VLSI integrált áramkörök megjelenése
forradalmasította a szoftverek fejlesztését. Erre a generációra
jellemző, hogy a szoftvergyártás óriási méretűvé válik. A szoftverek
árai elérik, egyes esetekben meg is haladhatják a hardverét. A
szoftverfejlesztési igények a nagyobb pontosságú számokkal, hosszabb
karakterekkel való számítások végzését igényelték, valamint az
utasítások elvégzése után kapott adatok eltárolására irányultak,
ezért az architektúráknak ezeket az igényeket is figyelembe kellett
venniük. A műveletvégző képesség elérte a 20 millió szorzást
másodpercenként, az I/O-egységek külön processzorvezérlő csatornát
kaptak, és a nagyobb pontosság érdekében indexelt regiszterek
használata vált szükségessé.
A számítógépek architektúrájának fokozatos
változása a szoftverek fejlődésének újabb megerősödését jelentette.
Fejlődtek az operációs rendszerek, a programozási nyelvek és a
különböző típusú alkalmazások. A 80-as években az IBM által
forgalmazott személyi számítógépek hivatalos és általános operációs
rendszere a DOS lett, és a konfiguráció teljes mértékben támogatta
az egységesített rendszerszoftverek futtatását. Ugyanakkor támogatta
a különböző felhasználói alkalmazások használatát, fejlesztését és
gépi kódra fordítását. Az üzleti és felhasználói programok széles
köre terjedt el, megnőtt a szerkesztő programok (táblázat-, szöveg-,
kép-), és a játékok iránti igény (Hill at al., 2000).
Az internet használatának egyre szélesebb körben
történő elterjedése a hálózatok rohamos fejlődését idézte elő, és az
elosztott hálózati architektúrák használatának elterjedését
eredményezte.
Az ötödik generációs számítógépekben (1991-től
napjainkig) párhuzamos és asszociatív működésű mikroprocesszorokat
alkalmaznak. A számítógépeket úgy tervezik, hogy minél több áramköri
elemet szűkítsenek bele egyre kisebb méretű mikrochipekbe, ám ennek
hamarosan elérjük a fizikai határait, ezért új gyártási módszerekre
és működési elvekre van szükség.
A polgári, tudományos, mérnöki és üzleti
alkalmazások nagy teljesítményű 32 bites mikroprocesszorok,
virtuális memória, gyorsító tár, lebegőpontos számítás használatát
és az utasítások még gyorsabb egymás utáni végrehajtását igénylik. A
gyors végrehajtást a több processzor alkalmazásával a Massively
Parallel Processor (MPP) és a Symmetric Multiprocessing (SMP)
technológia segítségével oldják meg (Juhasz et al, 2004).
Az MPP esetében a több processzor együttes
működésével, koordináltan történik az utasítások végrehajtása, a
processzorok a saját operációs rendszerüket és memóriájukat
használják egy üzenetküldő felület segítségével. Akár kétszáz
processzor együttes működését is meg lehet oldani.
Az SMP esetében a több processzor együttes tevékenysége az operációs
rendszer, a memória, az adattároló eszközök és az I/O-buszrendszer
megosztásával történik.
A 90-es években a fejlett szuper skaláris
mikroprocesszorok megjelenésével az MPP-alapú rendszerek
népszerűsége csökkent, és az SMP-alapú szimmetrikus
mikroprocesszorok kezdték átvenni a szuperszámítógépek esetében az
alkalmazás gyakoriságában a vezetést. A 64 bites címzés
elengedhetetlenné vált, a memóriák teljesítményének növekedése és
megfizethetősége a számítógépek népszerűségének növekedéséhez
vezetett.
A 2000-es évek elején a chipek elérték az
energiaplafont, vagyis a fogyasztás és hődisszipáció ésszerű
határait. A chipenkénti feldolgozási teljesítmény növelésének
technikái nem fulladtak ki teljesen, de egyre gyökeresebb és
agresszívebb mikro- és architekturális fejlesztések váltak
szükségessé a teljesítmény jelentős növelése érdekében, miközben a
miniatürizáció egyre nagyobb igénnyel jelentkezett a tervezőmérnökök
felé.
A processzoroknál a pipeline technológia
segítségével több műveletvégző egységet helyeztek el a
processzorban, amelyek képesek egyszerre több utasítást elvégezni.
Az utasítások sorrendjét spekulatív módon a processzor optimálisan
választja meg. Az optimalitás alapja az, hogy bizonyos utasításokat
a processzor előbb hajt végre, mint ahogy ez a program szerinti
sorrendből következne, így a műveletvégző egység jobb kihasználása
érhető el. Az utasítások eredményét a processzor kialakított
regiszterekben (MIMD, SPMD) tárolja, és tetszőlegesen érheti el,
vagy törölheti.
Napjaink számítógépei a maximális kihasználtság
érdekében a paralellizáció számos formáját kombináltan is
kihasználhatják. Elosztott memóriát használó program futhat több
MPI-csomóponton, és a pipeline technológia használata történhet a
párhuzamos funkcionális egységekben, amelyeket a maximális
processzorsebesség elérése érdekében használnak.
2004-re a sebesség növelésének módszere a
párhuzamos processzorok alkalmazásáról a többmagos processzorok
használata felé tolódott el. 2006-ban megjelentek a
Core2-architektúrák. A Core mikroarchitektúra alacsonyabb órajellel,
hatékonyabb órajelciklussal és kisebb áramfelhasználással
rendelkezik, mint a Pentium 4-es, Pentium D márkájú processzorok.
A Core mikroarchitektúra-utasítás dekódolása,
végrehajtó egységei, gyorsítótára és rendszerbuszai hatékonyabbak az
elődjénél, feldolgozási sebessége nagyobb. Az Intel és az AMD
átvette a vezető szerepet a számítógéppiacon a többmagos
processzorok gyártásával. Az új konfiguráció megjelenése és a
32-bites rendszer 64 bitesre cserélése a szoftverek készítőit
alkalmazásaik kompatibilitásának megőrzése érdekében fejlesztésre
kényszerítette. A többszálú szoftverek azonban futtatásukhoz
igénylik a hyperthreading technológiát támogató Intel
processzorokat, BIOS-t és operációs rendszert is, így összefonódik
az architektúra fejlettsége az alkalmazható szoftverek minőségével.
A processzormagok számának gyors növekedése súlyos problémákat okoz
a szoftveriparnak, a hardver párhuzamossága ugyanis magasan
meghaladja azt a szintet, mint amelyre a szoftverek tervezői
felkészültek. Ez az operációs rendszereket, infrastrukturális és
köztesszoftvereket, valamint alkalmazásokat egyaránt érinti, így a
szoftverek és az architektúrák versenyében úgy tűnik, hogy a
szoftverek fejlesztői képtelenek lépést tartani az architekturális
változásokkal.
|
|
Az eszközök miniatürizálásával, a mobiltelefonok
funkcióinak bővülésével új technológiák jelentek meg. A System on
Chip (SOC) technológia hagyományos CPU-magokat tartalmaz, összekötve
egy on-chip hálózaton, ami kiegészül néhány speciális funkcióval,
mint a hálózati és merevlemez-vezérlő, memóriavezérlő, alacsony
sebességű I/O-vezérlők. A SOC-technológia egyaránt alkalmazható
mobiltelefonok, asztali számítógépek, tabletek és adatközpontok
szerverei esetében, és akár többszörös energiahatékonysággal
rendelkezik (Badawy – Graham, 2003).
A mind fejlettebb technológiák használatakor
azonban előfordulhat, hogy a professzionális munkaállomásokra és
fejlesztői szoftverekre korlátozódó programok helyesen működnek, míg
az olyan hétköznapi alkalmazások, mint egy böngésző, irodai program,
médialejátszó vagy végfelhasználóknak szánt multimédiás szerkesztők
nem, vagy rossz hatékonysággal párhuzamosítottak; hiába a bődületes
teljesítmény, ha nem megfelelő a kód.
Az operációs rendszereknek megjelentek a 32 és 64
bites verziói, az üzleti, tudományos, mérnöki és polgári
alkalmazásban készült programok megújítására a lehető legrövidebb
időn belül szükség van. Versenyfutás kezdődött a fejlesztők és a
számítógép-architektúrák tervezői között, s ezt hétköznapi
életünkben is érzékelhetjük. Napjainkban is folyamatosan zajlik az
x86 mikroarchitektúrák finomítása, és az új architektúrák
megjelenése, amelyeknek kordában tartásához a szabványok folyamatos
fejlesztésére is szükség van.
Az architektúrák fejlődése a számítógépek,
szerverek, adattároló egységek, adatkapcsolati berendezések olyan
szintű fejlődését okozta, hogy mára az egyes elemek saját
rendszerszoftverrel rendelkeznek, melyeknek interoperabilitását az
alkalmazások tervezésénél figyelembe kell venni, ami nagy kihívást
jelent a szoftverfejlesztésben. Napjainkban a hardverek
rendszerszoftverei nehezen tartanak összhangot az alkalmazások
fejlesztésével.
Ugyanakkor, mivel a gyorsaság az egyszálú
feldolgozás végletekig történő felgyorsításának következtében állt
elő, ez jelentősen növelte az alkalmazások és rendszerszoftverek
bonyolultságát és az energiafogyasztást. Egyre erőteljesebben
jelenik meg az energiafogyasztás csökkentésének igénye, ami
várhatóan újabb változásokat fog generálni.
Ahogy változnak az igények, úgy változnak az
architektúrák és a szoftverek. A számítógépes történelem
időszakaiban megfigyelhető a ciklikusság az architekturális fejlődés
és a szoftverfejlődés időszakai között. A fejlődés szinte
DNS-spirált alkot, amelynek egyik ága az architektúrák fejlődését
jelenti, amelyet szinte magába ölel a szoftverek fejlődése, és hol
az egyik, hol a másik ág kerül előtérbe, ugyanakkor mindkét ág
szimmetrikus változása figyelhető meg az idő távlatában.
Fejlődést gerjesztő tényezők
A számítógépek működését biztosító technológiák (Computer
Organization an Information Technologies – COIT) alatt azon
számítógép-architektúrák, rendszerszoftverek, alkalmazások és
operációs rendszerek összességét értjük, amelyek magukban foglalják
az ember és a számítógép közötti kapcsolat megteremtésének
eszközeit, a működtetését biztosító programok összességét. A COT
folyamatos fejlődésének okait az alábbiakban látom:
• a gyorsaság, végrehajtási sebesség fokozásának
igénye;
• a feldolgozandó adatok számának növekedése;
• a funkcionalitás bővülése, kiszélesedése;
• a felhasználók igényeinek szétválása (polgári,
tudományos, szervezeti);
• az eszközök típusainak és az információátadás
formáinak kiszélesedése;
• a gazdasági élet és az informatikai ipar
összefonódása, haszonszerzés;
• az energiafelhasználási költségek csökkentése a
feladatok végrehajtási képességének megőrzése mellett;
• az informatikai eszközök megbízható működésének
biztosítása;
• a programozhatóság és az informatikai rendszer
alapképességeinek összehangolása (a hardver felépítésének és a rá
épülő szoftverek képességeinek szinkronizálása).
Felmerülhet a kérdés: miért fiolyamatos a
számítógépek működtetését biztosító technológiák fejlődése, miért
nem mondhatjuk sosem, hogy a rendszer képessége, szolgáltatásai
elérték az emberiség által elérhető határokat? Többen észrevették
már a fejlődés állandóságát, és az Intel egyik alapítója, Gordon E.
Moore megfigyelése szerint az integrált áramkörök folyamatos
fejlődése kb. 18 hónaponként megduplázódik (Moore, 1965).
A jövő tendenciái
A világ vezető információs technológiai kutatásokkal foglalkozó
szakemberei úgy gondolják, hogy a következő években a mobil, a
felhőalapú, a szervezeti és az üzleti információk kezelésének
technológiája még jobban közeledni fog egymáshoz. Egyre erőteljesebb
a fiatalokban az igény az okostelefonok iránt, melyek egyesíthetik a
számítógép és az internet nyújtotta előnyöket, ugyanakkor az egyén
mobilitását nem korlátozzák. A felhasználók igénye tehát az
alkalmazói szoftverek tekintetében arra mozdul el, hogy egyre
kisebb, hordozható eszközökön lehessen az információt megszerezni,
kezelni, továbbítani, és mindezt az egyéni, közösségi, a
biztonsággal összefüggő feltételeket figyelembe véve. Az operációs
rendszerek fejlesztésénél (Android, Apple, Microsoft) figyelembe
kell venni a mobil eszközök előretörését és az alkalmazás
népszerűségét a felhasználók körében. A PC- és a tablet eszközök
egységesítésének gyártókban megfogant igényét a felhasználók
alkalmazói kedve lassíthatja is, amennyiben az alkalmazásaikat nem
tudják az új eszközeiken a megszokottak szerint használni, így a
szoftverfejlesztőknek ismét kihívást jelent majd az új platformokon
való megfelelés. Ez versenyhelyzetet teremthet a Microsoft és más
alternatív operációs rendszerek használata között, és előfordulhat,
hogy a post PC-korszakban a különböző operációs rendszerek közötti
versenyt az fogja eldönteni, melyik népszerűbb a felhasználók
körében. A fejlesztőknek a szoftvereik tervezésénél kiemelt
figyelmet kell fordítaniuk arra, hogy az érintőképernyőt használó
alkalmazások fognak elterjedni, ami új programozási nyelvek,
technikák megjelenéséhez vezethet (Willis, 2013).
A felhőtechnológia megjelenése és elterjedése azt
fogja okozni, hogy a felhasználók adataikat, alkalmazásaikat
személyre szabottan nem a személyi számítógépükön, hanem mobil
eszközzel csatlakozva a felhőben fogják tárolni. Ez azt is jelenti,
hogy a különböző architektúrák megjelenésének és a szoftverek
használatának a felhőszolgáltatások igénybevételéhez is igazodniuk
kell. A HTML5 megjelenésével a web lesz a kommunikáció és az
információáramlás fő útja, ahol a felhasználók minden digitális
igényüket ki akarják elégíteni. Valószínűleg sem egyeduralkodó
platform, sem alkalmazás, sem felépítés nem lesz képes uralni és
kezelni az eszközök sokszínűségét.
A kliensalapú szolgáltatások a felhőalapú
szolgáltatások felé orientálódnak, amelyeknek a jogosultságkezelést,
a licencelést, a biztonságkezelést új irányokba vezetik. A
felhőtechnológia használatával erősödik a virtuális pénz és a Near
Field Communication (NFC) technikák használata a mobil eszközökön
(mobilparkolás, vásárlás stb.) A kommunikáció a celluláris
technológiák felé tolódik el, és a hálózati információcserét NFC-,
Bluetooth, Wi-Fi rendszeren keresztül is biztosítani kell a
különböző eszközökön keresztül, amelyekkel nemcsak mobileszközöket,
hanem szenzorokat (egészségügyi, államigazgatási), közlekedési
(földi, légi) és akár otthoni szórakoztató, riasztó-, fenntartó
rendszereket is el kell érniük. A Gartner Kutató Intézet a tárgyak
internetének (Internet of Things – IoT) eljövetelét jósolja a
következő évekre.
Mindezek alapján az informatikai döntéshozóknak
kiemelt figyelmet kell fordítaniuk a felhőtechnológiák
szabályozására, üzleti felhasználásának koordinálására. A nagy,
különböző típusú adatmennyiségek sebességének, komplexitásának
kezelése és az eszközök különböző típusainak fokozódó megjelenése az
architekturális és szoftveres technológiák hagyományostól eltérő
megközelítését igénylik. A felhasználók mobil eszközökkel történő
bekapcsolása a felhő adattárakba lehetővé teszi az optimalizációs,
szimulációs szoftverek használatát, mindig és mindenhol, ami
jelentősen befolyásolhatja az üzleti élet döntéshozóinak munkáját,
hiszen a felhasználó érdeklődése nyomon követhetővé válik.
Az architektúrákban érzékelhető memóriabővülés rövidítheti a mai
szuperszámítógépeink több órás végrehajtási sebességét akár percekre
vagy másodpercekre. Az informatikai eszközeinkre egyre inkább az
lesz jellemző, hogy a hardver- és szoftverelemeket kombináltan
tartalmazzák, speciálisan a funkció céljára, amire használni
kívánjuk, a szoftverek és igénybe vehető szolgáltatások az adott
infrastruktúra szintjén érhetők el, a gyártók a funkcionalitást és a
tartalmat a felhasználók személyes igényire szabva alakítják ki.
A felhőtechnológiák alkalmazása a szerverfarmok és
szuperkomputer centrumok egyre intenzívebb bővítését igénylik,
ugyanakkor előtérbe fog a kerülni a fenntartásuk költsége. Az
üzemeltetéssel, hűtéssel összefüggő energiaköltségek és a megtérülés
összhangjának biztosítása már ma is kiemelt probléma, ezért a
környezetbarát megoldások megtalálása nagy kihívást jelent az
elkövetkezőkben, ami véget vethet a processzorok számában a
végletekig való növelésnek.
Összegzés
A felhasználók gyakran tapasztalják, hogy megszokott programjaikat
nem tudják számítógépeiken, eszközeiken megfelelően használni. Az
okot hajlamosak a szoftverben keresni, és a hibás működést úgy
orvosolják, hogy vagy nem használják tovább az adott alkalmazást,
vagy más szoftvert keresnek, ami az igényeiket megfelelően
kielégíti; esetleg eszközt cserélnek. Általában a fejlesztőket
okolják, holott ez nem mindig teljesen igazságos. Hozzászólásomban
rámutattam a szoftverek és a hardverek közötti főbb összefüggésekre,
és megállapítottam, hogy a hardverek felépítése nagymértékben
meghatározhatja a programozható alkalmazások kialakítását a
fejlesztők részéről. Bemutattam az informatikai eszközök
sokszínűségéből fakadó nehézségeket és a jövőben várható
tendenciákat. Úgy gondolom, hogy a számítógépek működtetését
biztosító technológiák folyamatos, ugyanakkor hullámzó, hol a
hardvereket, hol a szoftvereket érintő változása a felhasználókat is
ismereteik folyamatos megújítására kényszeríti. Azt tapasztaljuk,
hogy sokszor sem a fejlesztőnek, sem a felhasználónak nincs ideje
arra, hogy egy meglévő rendszert teljes architektúrájában és
szolgáltatásaiban megismerjen. Gyorsabb a változás, minthogy
hozzászokhatnánk a napjainkban használt szoftvereinkhez, és
kimeríthetnénk, kiaknázhatnánk a bennük rejlő lehetőségeket. Az
architektúrák gyors változása minden felhasználótól (polgári,
szervezeti, tudományos, mérnöki) önmegújító és gyors
alkalmazkodóképességek kialakítását igényli, amennyiben az IT-
technológiákat használni kívánja.
Kulcsszavak: számítástechnika-történet, szoftverek,
architektúrák, információs technológia fejlődése
IRODALOM
Badawy, Wael – Jullien, Graham A. (eds.)
(2003): System-on-Chip for Real-Time Applications. (Kluwer
international Series in Engineering and Computer Science, SECS) 711.
Kluwer Academic Publishers, Boston •
WEBCÍM
Haig Zsolt – Kovács L. – Munk S. – Ványa
L. (2013): Az infokommunkációs technológia hatása a hadtudományokra.
Nemzeti Közszolgálati Egyetem, Budapest
Hill, Mark D. – Jouppi, N. P. – Sohi, G.
(2000): Readings in Computer Architecture. Morgan Kaufmann. San
Francisco •
WEBCÍM
Juhász Z. – Kacsuk P. – Kranzlmuller, D.
(2004): Distributed and Parallel Systems: Cluster and Grid
Computing. Springer Verlag, Berlin
Moore, Gordon (1965): „Moore’s Law”
Predicts the Future of Integrated Circuits. Computer History Museum,
California •
WEBCÍM
Rojas, Raúl – Hashagen, Ulf (2000): The
First Computers: History and Architectures. MIT Press, Cambridge, MA
•
WEBCÍM
Willis, David A. (2013): Top10 Strategic
Technology Trends for 2013. Gartner Symposium/ITxpo, Orlando •
WEBCÍM
|
|