Nikolaj Pečenko: S prsti po zaslonu, prvič

Nikolaj Pečenko: S prsti po zaslonu, prvič
Objavljeno: 31.8.2007 16:11 | Avtor: Nikolaj Pečenko | Kategorija: Mnenja | Revija: Avgust 2007

Inženirji ne mirujejo in skoraj vsako leto predstavijo novo revolucionarno tehnologijo, ki naj bi preobrazila računalništvo, kakršno smo poznali doslej. Pa čeprav potem v resničnem življenju od visokoletečih napovedi praviloma ne ostane prav veliko. Bo z "večdotičnim" (multi-touch) uporabniškim vmesnikom drugače?

Računalniški miško je že leta 1964 izumil Douglas Engelbert s Stanfordovega raziskovalnega inštituta. Slabih deset let pozneje so v Xeroxovem razvojnem inštitutu za računalnik Alto razvili grafični uporabniški vmesnik z okni, ikonami in menuji ter miško kot ključnim sestavnim delom. Ali, kot pravijo računalnikarji, WIMP (window, icon, menu, pointing device).

Miške so se od takrat znebile repa, z laserjem nadomestile kroglico v drobovju in dobile kolesce na hrbtu, ikone so postale pisane, okna pa dobila zaobljene in prosojne okvire, a domači računalnik še vedno upravljamo skoraj natanko tako, kot so si pred petintridesetimi leti zamislili v Xeroxu.

Vmes so sicer mnogi poskušali tako ali drugače izboljšati uporabniški vmesnik, toda v glavnem brez uspeha. Spomnimo se na primer "tresoče" miške. Uporabnik je z roko na njej čutil "površino" računalniškega namizja in ko je na primer kazalec zapeljal čez rob okna, je čutil, kot bi zapeljal čez nekakšen robnik. Snovalci so v tem videli pomemben napredek, ki naj bi olajšal rabo računalnika, uporabniki pa se s tem nekako niso strinjali in tresoče miške so stvar preteklosti.

Tudi prijazni animirani pomočniki, ki naj bi pomagali manj izkušenim uporabnikom, se niso obnesli dosti bolje. Prav legendaren je, recimo, polom, ki so ga v Microsoftu doživeli z uporabniškim vmesnikom Bob.

Zanimiv poskus, ki pa tudi ni prišel dosti dlje od teorije, je ZUI (Zooming User Interface), grafični uporabniški vmesnik, katerega poglavitna lastnost je namizje, ki ga lahko poljubno povečujemo ali zmanjšujemo. Ikone, ki predstavlja datoteko z besedilom, bi na primer ne "odprli", temveč enostavno dovolj povečali in začeli pisati vanjo.

Tu je seveda še ukazovanje z glasom, od katerega so si mnogi že pred leti veliko obetali, pa še do danes ni postalo res uporabno. Če iz takega ali drugačnega vzroka ne moremo uporabljati tipkovnice in miške, je seveda pogosto najboljša rešitev, a velika večina uporabnikov še vedno raje uporablja miško, pa čeprav je ukazovanje z glasom vgrajeno v Visto. Vzrok je deloma v tem, da prepoznavanje govora še vedno ni brezhibno, pa tudi če bi bilo, ni hitrejše in enostavnejše od klikanja z miško.

Ukazovanje z glasom bo verjetno postalo uporabno šele takrat, ko bodo računalniki dovolj pametni, da ne bodo razumeli zgolj posameznih ukazov, temveč cele poljubno oblikovane stavke. Ko bom, skratka, lahko računalniku rekel: "Nadaljujva pisanje julijskega mnenja za Monitor", in bo odprl datoteko, katere vsebino pravkar berete. Teoretično bi že zdaj lahko z nekaj izrečenimi ukazi (word, file, open ...) odprl želeno datoteko, a je neprimerno enostavneje v roke vzeti miško in se priklikati do nje.

Na dovolj zmogljive računalnike za ukazovanje z glasom bo treba še počakati, do takrat pa mnogi stavijo na zaslone, občutljive za dotik. Če imamo tak zaslon, miške načeloma ne potrebujemo, saj lahko kar s prstom pritisnemo na zaslonski gumb, ikono ali karkoli pač. Prav letos smo priča dvema poskusoma, kako za dotik občutljive zaslone uporabiti za uporabniški vmesnik naslednjega rodu. Z enim od njih je opremljen Applov pametni telefon/žepni računalnik iPhone, za katerega jabolčni tržniki pravijo, da ima "najrevolucionarnejši uporabniški vmesnik po miški". Drugega smo videli na prototipu Microsoftovega računalnika Surface. Microsoftovi tržniki niso nič skromnejši, saj trdijo, da naj bi predstavljal tako pomemben korak naprej, kot je bil prehod z dosovske ukazne vrstice na Okna.

Njuna najpomembnejša razlika v primerjavi z dosedanjimi uporabniškimi vmesniki je večdotičnost. V klasičnih grafičnih vmesnikih, tudi če so prirejeni za delo s tabličnimi ali žepnimi računalniki, ki imajo za dotik občutljive zaslone, namreč lahko uporabljamo samo en kazalec miške ali eno pisalo oziroma prst, to pa možnosti za delo s predmeti na zaslonu precej omeji oziroma oteži.

Pri večdotičnem zaslonu lahko predmet "primemo" z obema rokama in raztegnemo ali, recimo, hkrati zavrtimo, povečamo in premaknemo ali pa hkrati prestavimo več predmetov, in to na različna mesta. Skratka, delo je po eni strani enostavnejše in po drugi strani precej hitrejše. Nekako tako kot desetprstno tipkanje v primerjavi z eno- ali dvoprstnim, čeprav primerjava ni povsem enakovredna.

Ker pišem o večdotičnih uporabniških vmesnikih, se spodobi, da omenim enega od pionirjev njihovega razvoja, Jeffa Hana, ki je lani na konferenci TED (Technology, Entertainment, Design) javnosti prvič predstavil delujoč prototip večdotičnega uporabniškega vmesnika, kakršnega je bilo prej mogoče videti le v znanstvenofantastičnih filmih, na primer Posebnem poročilu. Z razvojem večdotičnega uporabniškega vmesnika se zdaj ukvarja Hanovo podjetje Perceptive Pixel.

Večdotičnega uporabniškega vmesnika si verjetno v domačih računalnikih ne smemo obetati prehitro. Ustrezni zasloni bodo verjetno še nekaj časa predragi, predvsem pa si nekako ne znam predstavljati, da bi se med pisanjem stegoval čez tipkovnico in pritiskal ikone na zaslonu. Udobno naslonjen na stolu z rokami zaslona niti ne dosežem.

Precej laže si je prednosti večdotičnega vmesnika predstavljati pri vseh tistih opravilih, pri katerih tipkovnice skoraj ne potrebujemo, recimo pri digitalni obdelavi fotografij. In seveda pri delu s prenosniki, še posebej tabličnimi. Večdotični vmesnik utegne biti prav tisto, kar tabličnim računalnikom manjka že od vsega začetka in zaradi česar se še kar ne morejo uveljaviti.

Pri namiznih računalnikih bo verjetno večdotičnost, če seveda ne bodo vmes izumili še kaj čisto tretjega, bolj uporabna na naslednji razvojni stopnji, ko se namreč ne bo več treba dotakniti zaslona, temveč bo računalnik s kamero na daljavo prepoznaval gibe naših rok.

Takrat bodo verjetno že dovolj razviti tudi zasloni LCD s trirazsežno sliko, ki jih sicer že nekaj let občudujemo na različnih računalniških in tehnoloških sejmih. Vistin Flip3D bo na primer prišel res do izraza šele na zaslonu s trirazsežno sliko, po katerem bomo lahko listali kar s prsti in izbirali odprte dokumente.

Lahko pa se seveda tudi motim.

Jeff Han je lani na konferenci TED javnosti prvič predstavil prototip večdotičnega uporabniškega vmesnika, kakršnega je bilo prej mogoče videti le v znanstvenofantastičnih filmih.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!
Prijava

ph

Komentirajo lahko le prijavljeni uporabniki