A Magyar Tudományos Akadémia folyóirata. Alapítva: 1840
 

KEZDŐLAP    ARCHÍVUM    IMPRESSZUM    KERESÉS


 A SZOFTVEREK ÖREGEDÉSE TÜNET VAGY OK?

HOZZÁSZÓLÁS GYIMÓTHY TIBOR SZOFTVEREK MINŐSÉGELLENŐRZÉSE –

A SZOFTVEREK IS ÖREGSZENEK? CÍMŰ ÍRÁSÁHOZ

X

Tibenszkyné Fórika Krisztina

PhD, egyetemi docens, Nemzeti Közszolgálati Egyetem Hadtudományi és Honvédtisztképző Kar
Informatikai és Elektronikai Hadviselés Tanszék

tibenszkynefk(kukac)uni-nke.hu

 

 

A szoftvererózió lehetséges okai


Az információtechnológia rohamos fejlődése hatással van mindennapi tevékenységünkre, és gyakorlatilag Neumann János találmánya óta egyre szélesebb részt kér az életünkből. Szeretném a következőkben felhívni a figyelmet azokra a változásokra, amelyek hatással lehetnek szoftvereink folyamatos cseréjére, ami időnként úgy tűnhet, mintha a változásnak az lenne az oka, hogy az alkalmazások elöregedtek, vagy nem felelnek meg a minőségbiztosítási követelményeknek. A helyzet kicsit összetettebb, és jelen cikkben szeretném bemutatni, hogy a szoftverek elöregedése hasonlítható egy betegséghez, aminek számos tünete jelentkezhet, ugyanakkor ez a szervezet változása miatt következik be. Nem hagyhatjuk figyelmen kívül azt a tényt, hogy az információs technológia nyolcvanéves múlttal rendelkezik, aminek biztonságos működtetése, gyorsasága, eszközgazdagsága, kommunikációs készsége gyökeres fejlődésen ment keresztül, és most is folyamatosan változik. Úgy gondolom, ez a technológia az emberi szervezettel ellentétben nem az öregedés, hanem a fiatalodás jeleit mutatja, egyre gyorsabb, egyre többfajta eszközt képes használni, gyakorlatilag mindig és mindenhol.

Ma már interneten vásárolhatunk, kormányablakban intézhetjük az ügyeinket, e-könyvtárakban olvashatunk, és múzeumlátogatásainkat a világ bármely országában akár virtuálisan is megtehetjük. Az oktatás, képzés sem kizárólag a könyvek segítségével történik, új képességek és készségek elsajátítására e-learning technikákat vehetünk igénybe, és akár on-line vizsgázhatunk.

Mindez azt jelenti, hogy a szoftvereinkkel szemben támasztott elvárások jelentősen megváltoztak az elmúlt évtizedekben az internet megjelenésének és a felhasználó eszközök sokszínűségének minden fantázián túlmenő elterjedése következtében (Haig at al., 2013).

Többnyire a szoftverfejlesztők első kérdései közé tartozik annak pontos meghatározása, hogy milyen eszközökön történik majd az elkészült program futtatása, egy vagy több felhasználó számára készítjük az alkalmazást, milyen szolgáltatásokat kívánunk nyújtani, milyen jogosultsági szinten, milyen körben.

Szoftverfejlesztésre ma már nem egyének vállalkoznak, hanem kialakult fejlesztő csoportok, illetve a szoftverfejlesztés nem korlátozódik a felhasználók által használt programokra. Eszközeink számos beépített szoftvert tartalmaznak, amely gyártónként speciális paraméterekkel rendelkezik a működtetés elősegítésére, és adott eszközzel kompatibilis. Ma már az architektúrák tervezése beépített szoftverek fejlesztésével is együtt jár.

Mindezek alapján megállapíthatjuk, hogy a szoftverek elöregedése csak tünet, következmény, amelynek oka a hardverek és az architektúrák folyamatos, az utóbbi időben egyre gyorsuló fejlődése. Vagyis annak a betegségnek az oka, amely a szoftverek egyre gyorsuló elöregedéséhez vezet, az eszközök típusainak, architekturális felépítésének és a velük való kommunikáció típusainak állandó változásában van.


A számítógépek fejlődésének hatása


A számítástechnika történetének kezdete a 1940-es évekig nyúlik vissza, amikor a háború számítási problémáinak megoldására vákuumcsöves számítógépek megépítésében látták a megoldást. A Neumann-elv szerinti felépítés alapján a gép öt alapvető funkcionális egységből állt, és működését tárolt programnak kellett biztosítania. Ezekben az elvekben lényegében kidolgozásuk óta nem történt változás, annak ellenére, hogy ma már párhuzamos és asszociatív működésű mikroprocesszorokat alkalmaznak, és az optikai és kvantumszámítógépek fejlesztése is folyamatban van (Rojas – Hashagen, 2000).

Az elsőgenerációs (1945–1954), vákuumcsöves számítógépek architektúrájában az aritmetikai és logikai egység egy processzormag teljesítményére alapult. Az I/O egység és a programvezérlési egység szoros kapcsolatban állt a rendelkezésre álló memóriával, amely háromszáz szorzást végzett percenként. A műveletvégzéshez fixpontos aritmetikát használt, és az utasításokat gépi kódban, assembly nyelven írták. Az IBM 701, és IBM 650 modellekből kétszáz darabnál kevesebbet adtak el. A számítógépek használhatósága csak akkor válhatott jobban elfogadottá, amikor a kezelhetőség a különböző programozási nyelvek megjelenésével és az architektúrák fejlődésével szélesebb felhasználói réteg számára is megvalósult.

A második generációs (1955–1964) számítógépekben az architekturális változást a tranzisztorok megjelenése okozta, és a számítógép történetének ebben a szakaszában jelentős előrelépések történtek a számítógép architektúrájának fejlődésében, vagyis az adatbevitellel, megjelenítéssel, tárolással, feldolgozással foglalkozó alkatrészek kidolgozásában és összekapcsolásában. Ekkor jelentek meg az operációs rendszerek, valamint a magas szintű programozási nyelvek, például a FORTRAN, bár ezeket a nyelveket általában specifikusan egy-egy feladatcsoportra szánták. A népszerű gépek közé tartozott például az IBM 700/7000 sorozata, és az IBM 1410. Memóriaként mágnestárat használtak, a háttértár mágnesszalag, majd mágneslemez volt, kiviteli eszközként pedig a lyukkártya, a mágnesszalag volt az általános. Ezek a gépek 50 000–200 000 művelet/másodperc sebességet értek el, de még mindig nem terjedtek el széles körűen a felhasználók körében.

A 60-as években az integrált áramkörök (SSI, MSI) feltalálását követően a különböző magas szintű programozási nyelvek megjelenése az operációs rendszerek fejlődésének és elterjedésének is utat nyitott. A harmadik generációs (1965–1974) számítógépek képesek voltak arra, hogy az időosztásnak, multiprogramozásnak és a párhuzamos működtetésnek köszönhetően egy időben több feladatot is végrehajtsanak, és általánossá vált a távadatátvitel. A programozási nyelvek közérthetőbbé válásával (például BASIC) az alkalmazások felhasználási területe szélesedett, és elterjedtebbé vált a kész alkalmazások használata.
A számítógépek iránti keresletet az ipari számítógép-termelés megjelenése elégítette ki, és a gyártók ráébredtek, hogy az architektúrák tervezésére, kialakítására és a számítógépek gyártására fordított költségek akár négy-öt év alatt is megtérülhetnek.

A negyedik generációs számítógépekben (1971–1991) a mikroprocesszorok, az LSI és VLSI integrált áramkörök megjelenése forradalmasította a szoftverek fejlesztését. Erre a generációra jellemző, hogy a szoftvergyártás óriási méretűvé válik. A szoftverek árai elérik, egyes esetekben meg is haladhatják a hardverét. A szoftverfejlesztési igények a nagyobb pontosságú számokkal, hosszabb karakterekkel való számítások végzését igényelték, valamint az utasítások elvégzése után kapott adatok eltárolására irányultak, ezért az architektúráknak ezeket az igényeket is figyelembe kellett venniük. A műveletvégző képesség elérte a 20 millió szorzást másodpercenként, az I/O-egységek külön processzorvezérlő csatornát kaptak, és a nagyobb pontosság érdekében indexelt regiszterek használata vált szükségessé.

A számítógépek architektúrájának fokozatos változása a szoftverek fejlődésének újabb megerősödését jelentette. Fejlődtek az operációs rendszerek, a programozási nyelvek és a különböző típusú alkalmazások. A 80-as években az IBM által forgalmazott személyi számítógépek hivatalos és általános operációs rendszere a DOS lett, és a konfiguráció teljes mértékben támogatta az egységesített rendszerszoftverek futtatását. Ugyanakkor támogatta a különböző felhasználói alkalmazások használatát, fejlesztését és gépi kódra fordítását. Az üzleti és felhasználói programok széles köre terjedt el, megnőtt a szerkesztő programok (táblázat-, szöveg-, kép-), és a játékok iránti igény (Hill at al., 2000).

Az internet használatának egyre szélesebb körben történő elterjedése a hálózatok rohamos fejlődését idézte elő, és az elosztott hálózati architektúrák használatának elterjedését eredményezte.

Az ötödik generációs számítógépekben (1991-től napjainkig) párhuzamos és asszociatív működésű mikroprocesszorokat alkalmaznak. A számítógépeket úgy tervezik, hogy minél több áramköri elemet szűkítsenek bele egyre kisebb méretű mikrochipekbe, ám ennek hamarosan elérjük a fizikai határait, ezért új gyártási módszerekre és működési elvekre van szükség.

A polgári, tudományos, mérnöki és üzleti alkalmazások nagy teljesítményű 32 bites mikroprocesszorok, virtuális memória, gyorsító tár, lebegőpontos számítás használatát és az utasítások még gyorsabb egymás utáni végrehajtását igénylik. A gyors végrehajtást a több processzor alkalmazásával a Massively Parallel Processor (MPP) és a Symmetric Multiprocessing (SMP) technológia segítségével oldják meg (Juhasz et al, 2004).

Az MPP esetében a több processzor együttes működésével, koordináltan történik az utasítások végrehajtása, a processzorok a saját operációs rendszerüket és memóriájukat használják egy üzenetküldő felület segítségével. Akár kétszáz processzor együttes működését is meg lehet oldani.
Az SMP esetében a több processzor együttes tevékenysége az operációs rendszer, a memória, az adattároló eszközök és az I/O-buszrendszer megosztásával történik.

A 90-es években a fejlett szuper skaláris mikroprocesszorok megjelenésével az MPP-alapú rendszerek népszerűsége csökkent, és az SMP-alapú szimmetrikus mikroprocesszorok kezdték átvenni a szuperszámítógépek esetében az alkalmazás gyakoriságában a vezetést. A 64 bites címzés elengedhetetlenné vált, a memóriák teljesítményének növekedése és megfizethetősége a számítógépek népszerűségének növekedéséhez vezetett.

A 2000-es évek elején a chipek elérték az energiaplafont, vagyis a fogyasztás és hődisszipáció ésszerű határait. A chipenkénti feldolgozási teljesítmény növelésének technikái nem fulladtak ki teljesen, de egyre gyökeresebb és agresszívebb mikro- és architekturális fejlesztések váltak szükségessé a teljesítmény jelentős növelése érdekében, miközben a miniatürizáció egyre nagyobb igénnyel jelentkezett a tervezőmérnökök felé.

A processzoroknál a pipeline technológia segítségével több műveletvégző egységet helyeztek el a processzorban, amelyek képesek egyszerre több utasítást elvégezni. Az utasítások sorrendjét spekulatív módon a processzor optimálisan választja meg. Az optimalitás alapja az, hogy bizonyos utasításokat a processzor előbb hajt végre, mint ahogy ez a program szerinti sorrendből következne, így a műveletvégző egység jobb kihasználása érhető el. Az utasítások eredményét a processzor kialakított regiszterekben (MIMD, SPMD) tárolja, és tetszőlegesen érheti el, vagy törölheti.

Napjaink számítógépei a maximális kihasználtság érdekében a paralellizáció számos formáját kombináltan is kihasználhatják. Elosztott memóriát használó program futhat több MPI-csomóponton, és a pipeline technológia használata történhet a párhuzamos funkcionális egységekben, amelyeket a maximális processzorsebesség elérése érdekében használnak.

2004-re a sebesség növelésének módszere a párhuzamos processzorok alkalmazásáról a többmagos processzorok használata felé tolódott el. 2006-ban megjelentek a Core2-architektúrák. A Core mikroarchitektúra alacsonyabb órajellel, hatékonyabb órajelciklussal és kisebb áramfelhasználással rendelkezik, mint a Pentium 4-es, Pentium D márkájú processzorok.

A Core mikroarchitektúra-utasítás dekódolása, végrehajtó egységei, gyorsítótára és rendszerbuszai hatékonyabbak az elődjénél, feldolgozási sebessége nagyobb. Az Intel és az AMD átvette a vezető szerepet a számítógéppiacon a többmagos processzorok gyártásával. Az új konfiguráció megjelenése és a 32-bites rendszer 64 bitesre cserélése a szoftverek készítőit alkalmazásaik kompatibilitásának megőrzése érdekében fejlesztésre kényszerítette. A többszálú szoftverek azonban futtatásukhoz igénylik a hyperthreading technológiát támogató Intel processzorokat, BIOS-t és operációs rendszert is, így összefonódik az architektúra fejlettsége az alkalmazható szoftverek minőségével. A processzormagok számának gyors növekedése súlyos problémákat okoz a szoftveriparnak, a hardver párhuzamossága ugyanis magasan meghaladja azt a szintet, mint amelyre a szoftverek tervezői felkészültek. Ez az operációs rendszereket, infrastrukturális és köztesszoftvereket, valamint alkalmazásokat egyaránt érinti, így a szoftverek és az architektúrák versenyében úgy tűnik, hogy a szoftverek fejlesztői képtelenek lépést tartani az architekturális változásokkal.

 

 

Az eszközök miniatürizálásával, a mobiltelefonok funkcióinak bővülésével új technológiák jelentek meg. A System on Chip (SOC) technológia hagyományos CPU-magokat tartalmaz, összekötve egy on-chip hálózaton, ami kiegészül néhány speciális funkcióval, mint a hálózati és merevlemez-vezérlő, memóriavezérlő, alacsony sebességű I/O-vezérlők. A SOC-technológia egyaránt alkalmazható mobiltelefonok, asztali számítógépek, tabletek és adatközpontok szerverei esetében, és akár többszörös energiahatékonysággal rendelkezik (Badawy – Graham, 2003).

A mind fejlettebb technológiák használatakor azonban előfordulhat, hogy a professzionális munkaállomásokra és fejlesztői szoftverekre korlátozódó programok helyesen működnek, míg az olyan hétköznapi alkalmazások, mint egy böngésző, irodai program, médialejátszó vagy végfelhasználóknak szánt multimédiás szerkesztők nem, vagy rossz hatékonysággal párhuzamosítottak; hiába a bődületes teljesítmény, ha nem megfelelő a kód.

Az operációs rendszereknek megjelentek a 32 és 64 bites verziói, az üzleti, tudományos, mérnöki és polgári alkalmazásban készült programok megújítására a lehető legrövidebb időn belül szükség van. Versenyfutás kezdődött a fejlesztők és a számítógép-architektúrák tervezői között, s ezt hétköznapi életünkben is érzékelhetjük. Napjainkban is folyamatosan zajlik az x86 mikroarchitektúrák finomítása, és az új architektúrák megjelenése, amelyeknek kordában tartásához a szabványok folyamatos fejlesztésére is szükség van.

Az architektúrák fejlődése a számítógépek, szerverek, adattároló egységek, adatkapcsolati berendezések olyan szintű fejlődését okozta, hogy mára az egyes elemek saját rendszerszoftverrel rendelkeznek, melyeknek interoperabilitását az alkalmazások tervezésénél figyelembe kell venni, ami nagy kihívást jelent a szoftverfejlesztésben. Napjainkban a hardverek rendszerszoftverei nehezen tartanak összhangot az alkalmazások fejlesztésével.

Ugyanakkor, mivel a gyorsaság az egyszálú feldolgozás végletekig történő felgyorsításának következtében állt elő, ez jelentősen növelte az alkalmazások és rendszerszoftverek bonyolultságát és az energiafogyasztást. Egyre erőteljesebben jelenik meg az energiafogyasztás csökkentésének igénye, ami várhatóan újabb változásokat fog generálni.

Ahogy változnak az igények, úgy változnak az architektúrák és a szoftverek. A számítógépes történelem időszakaiban megfigyelhető a ciklikusság az architekturális fejlődés és a szoftverfejlődés időszakai között. A fejlődés szinte DNS-spirált alkot, amelynek egyik ága az architektúrák fejlődését jelenti, amelyet szinte magába ölel a szoftverek fejlődése, és hol az egyik, hol a másik ág kerül előtérbe, ugyanakkor mindkét ág szimmetrikus változása figyelhető meg az idő távlatában.


Fejlődést gerjesztő tényezők


A számítógépek működését biztosító technológiák (Computer Organization an Information Technologies – COIT) alatt azon számítógép-architektúrák, rendszerszoftverek, alkalmazások és operációs rendszerek összességét értjük, amelyek magukban foglalják az ember és a számítógép közötti kapcsolat megteremtésének eszközeit, a működtetését biztosító programok összességét. A COT folyamatos fejlődésének okait az alábbiakban látom:

• a gyorsaság, végrehajtási sebesség fokozásának igénye;

• a feldolgozandó adatok számának növekedése;

• a funkcionalitás bővülése, kiszélesedése;

• a felhasználók igényeinek szétválása (polgári, tudományos, szervezeti);

• az eszközök típusainak és az információátadás formáinak kiszélesedése;

• a gazdasági élet és az informatikai ipar összefonódása, haszonszerzés;

• az energiafelhasználási költségek csökkentése a feladatok végrehajtási képességének megőrzése mellett;

• az informatikai eszközök megbízható működésének biztosítása;

• a programozhatóság és az informatikai rendszer alapképességeinek összehangolása (a hardver felépítésének és a rá épülő szoftverek képességeinek szinkronizálása).

Felmerülhet a kérdés: miért fiolyamatos a számítógépek működtetését biztosító technológiák fejlődése, miért nem mondhatjuk sosem, hogy a rendszer képessége, szolgáltatásai elérték az emberiség által elérhető határokat? Többen észrevették már a fejlődés állandóságát, és az Intel egyik alapítója, Gordon E. Moore megfigyelése szerint az integrált áramkörök folyamatos fejlődése kb. 18 hónaponként megduplázódik (Moore, 1965).


A jövő tendenciái


A világ vezető információs technológiai kutatásokkal foglalkozó szakemberei úgy gondolják, hogy a következő években a mobil, a felhőalapú, a szervezeti és az üzleti információk kezelésének technológiája még jobban közeledni fog egymáshoz. Egyre erőteljesebb a fiatalokban az igény az okostelefonok iránt, melyek egyesíthetik a számítógép és az internet nyújtotta előnyöket, ugyanakkor az egyén mobilitását nem korlátozzák. A felhasználók igénye tehát az alkalmazói szoftverek tekintetében arra mozdul el, hogy egyre kisebb, hordozható eszközökön lehessen az információt megszerezni, kezelni, továbbítani, és mindezt az egyéni, közösségi, a biztonsággal összefüggő feltételeket figyelembe véve. Az operációs rendszerek fejlesztésénél (Android, Apple, Microsoft) figyelembe kell venni a mobil eszközök előretörését és az alkalmazás népszerűségét a felhasználók körében. A PC- és a tablet eszközök egységesítésének gyártókban megfogant igényét a felhasználók alkalmazói kedve lassíthatja is, amennyiben az alkalmazásaikat nem tudják az új eszközeiken a megszokottak szerint használni, így a szoftverfejlesztőknek ismét kihívást jelent majd az új platformokon való megfelelés. Ez versenyhelyzetet teremthet a Microsoft és más alternatív operációs rendszerek használata között, és előfordulhat, hogy a post PC-korszakban a különböző operációs rendszerek közötti versenyt az fogja eldönteni, melyik népszerűbb a felhasználók körében. A fejlesztőknek a szoftvereik tervezésénél kiemelt figyelmet kell fordítaniuk arra, hogy az érintőképernyőt használó alkalmazások fognak elterjedni, ami új programozási nyelvek, technikák megjelenéséhez vezethet (Willis, 2013).

A felhőtechnológia megjelenése és elterjedése azt fogja okozni, hogy a felhasználók adataikat, alkalmazásaikat személyre szabottan nem a személyi számítógépükön, hanem mobil eszközzel csatlakozva a felhőben fogják tárolni. Ez azt is jelenti, hogy a különböző architektúrák megjelenésének és a szoftverek használatának a felhőszolgáltatások igénybevételéhez is igazodniuk kell. A HTML5 megjelenésével a web lesz a kommunikáció és az információáramlás fő útja, ahol a felhasználók minden digitális igényüket ki akarják elégíteni. Valószínűleg sem egyeduralkodó platform, sem alkalmazás, sem felépítés nem lesz képes uralni és kezelni az eszközök sokszínűségét.

A kliensalapú szolgáltatások a felhőalapú szolgáltatások felé orientálódnak, amelyeknek a jogosultságkezelést, a licencelést, a biztonságkezelést új irányokba vezetik. A felhőtechnológia használatával erősödik a virtuális pénz és a Near Field Communication (NFC) technikák használata a mobil eszközökön (mobilparkolás, vásárlás stb.) A kommunikáció a celluláris technológiák felé tolódik el, és a hálózati információcserét NFC-, Bluetooth, Wi-Fi rendszeren keresztül is biztosítani kell a különböző eszközökön keresztül, amelyekkel nemcsak mobileszközöket, hanem szenzorokat (egészségügyi, államigazgatási), közlekedési (földi, légi) és akár otthoni szórakoztató, riasztó-, fenntartó rendszereket is el kell érniük. A Gartner Kutató Intézet a tárgyak internetének (Internet of Things – IoT) eljövetelét jósolja a következő évekre.

Mindezek alapján az informatikai döntéshozóknak kiemelt figyelmet kell fordítaniuk a felhőtechnológiák szabályozására, üzleti felhasználásának koordinálására. A nagy, különböző típusú adatmennyiségek sebességének, komplexitásának kezelése és az eszközök különböző típusainak fokozódó megjelenése az architekturális és szoftveres technológiák hagyományostól eltérő megközelítését igénylik. A felhasználók mobil eszközökkel történő bekapcsolása a felhő adattárakba lehetővé teszi az optimalizációs, szimulációs szoftverek használatát, mindig és mindenhol, ami jelentősen befolyásolhatja az üzleti élet döntéshozóinak munkáját, hiszen a felhasználó érdeklődése nyomon követhetővé válik.
Az architektúrákban érzékelhető memóriabővülés rövidítheti a mai szuperszámítógépeink több órás végrehajtási sebességét akár percekre vagy másodpercekre. Az informatikai eszközeinkre egyre inkább az lesz jellemző, hogy a hardver- és szoftverelemeket kombináltan tartalmazzák, speciálisan a funkció céljára, amire használni kívánjuk, a szoftverek és igénybe vehető szolgáltatások az adott infrastruktúra szintjén érhetők el, a gyártók a funkcionalitást és a tartalmat a felhasználók személyes igényire szabva alakítják ki.

A felhőtechnológiák alkalmazása a szerverfarmok és szuperkomputer centrumok egyre intenzívebb bővítését igénylik, ugyanakkor előtérbe fog a kerülni a fenntartásuk költsége. Az üzemeltetéssel, hűtéssel összefüggő energiaköltségek és a megtérülés összhangjának biztosítása már ma is kiemelt probléma, ezért a környezetbarát megoldások megtalálása nagy kihívást jelent az elkövetkezőkben, ami véget vethet a processzorok számában a végletekig való növelésnek.


Összegzés


A felhasználók gyakran tapasztalják, hogy megszokott programjaikat nem tudják számítógépeiken, eszközeiken megfelelően használni. Az okot hajlamosak a szoftverben keresni, és a hibás működést úgy orvosolják, hogy vagy nem használják tovább az adott alkalmazást, vagy más szoftvert keresnek, ami az igényeiket megfelelően kielégíti; esetleg eszközt cserélnek. Általában a fejlesztőket okolják, holott ez nem mindig teljesen igazságos. Hozzászólásomban rámutattam a szoftverek és a hardverek közötti főbb összefüggésekre, és megállapítottam, hogy a hardverek felépítése nagymértékben meghatározhatja a programozható alkalmazások kialakítását a fejlesztők részéről. Bemutattam az informatikai eszközök sokszínűségéből fakadó nehézségeket és a jövőben várható tendenciákat. Úgy gondolom, hogy a számítógépek működtetését biztosító technológiák folyamatos, ugyanakkor hullámzó, hol a hardvereket, hol a szoftvereket érintő változása a felhasználókat is ismereteik folyamatos megújítására kényszeríti. Azt tapasztaljuk, hogy sokszor sem a fejlesztőnek, sem a felhasználónak nincs ideje arra, hogy egy meglévő rendszert teljes architektúrájában és szolgáltatásaiban megismerjen. Gyorsabb a változás, minthogy hozzászokhatnánk a napjainkban használt szoftvereinkhez, és kimeríthetnénk, kiaknázhatnánk a bennük rejlő lehetőségeket. Az architektúrák gyors változása minden felhasználótól (polgári, szervezeti, tudományos, mérnöki) önmegújító és gyors alkalmazkodóképességek kialakítását igényli, amennyiben az IT- technológiákat használni kívánja.
 



Kulcsszavak: számítástechnika-történet, szoftverek, architektúrák, információs technológia fejlődése

 


 

IRODALOM

Badawy, Wael – Jullien, Graham A. (eds.) (2003): System-on-Chip for Real-Time Applications. (Kluwer international Series in Engineering and Computer Science, SECS) 711. Kluwer Academic Publishers, Boston • WEBCÍM

Haig Zsolt – Kovács L. – Munk S. – Ványa L. (2013): Az infokommunkációs technológia hatása a hadtudományokra. Nemzeti Közszolgálati Egyetem, Budapest

Hill, Mark D. – Jouppi, N. P. – Sohi, G. (2000): Readings in Computer Architecture. Morgan Kaufmann. San Francisco • WEBCÍM

Juhász Z. – Kacsuk P. – Kranzlmuller, D. (2004): Distributed and Parallel Systems: Cluster and Grid Computing. Springer Verlag, Berlin

Moore, Gordon (1965): „Moore’s Law” Predicts the Future of Integrated Circuits. Computer History Museum, California • WEBCÍM

Rojas, Raúl – Hashagen, Ulf (2000): The First Computers: History and Architectures. MIT Press, Cambridge, MA • WEBCÍM

Willis, David A. (2013): Top10 Strategic Technology Trends for 2013. Gartner Symposium/ITxpo, Orlando • WEBCÍM