Az érintőképernyőktől a Surface-ig: Az érintőképernyős technológia rövid története

Aurich Lawson / Thinkstock

Nehéz elhinni, hogy néhány évtizeddel ezelőtt az érintőképernyős technológia csak a sci-fi könyvekben és filmekben volt megtalálható. Manapság már szinte felfoghatatlan, hogyan tudtuk egykor a napi teendőinket elvégezni anélkül, hogy egy megbízható tablet vagy okostelefon ne lett volna a közelünkben, de ez nem áll meg itt. Az érintőképernyők tényleg mindenhol jelen vannak. Otthonokban, autókban, éttermekben, üzletekben, repülőgépeken, bárhol – ezek töltik ki az életünket a nyilvános és a magánterekben.

Az érintőképernyők ilyen mértékű jelenlétéhez generációkra és több jelentős technológiai fejlődésre volt szükség. Bár az érintőképernyők mögött meghúzódó technológia az 1940-es évekre vezethető vissza, számos bizonyíték utal arra, hogy az érintőképernyők legalább 1965-ig nem voltak megvalósíthatóak. Az olyan népszerű sci-fi tévéműsorok, mint a Star Trek, nem is utaltak erre a technológiára egészen a Star Trek: The Next Generation 1987-es bemutatójáig, azaz majdnem két évtizeddel azután, hogy az érintőképernyős technológiát egyáltalán lehetségesnek tartották. A sorozatban való megjelenésük azonban párhuzamosan haladt a technológiai világ fejlődésével, és az 1980-as évek végére az érintőképernyők végre elég reálisnak tűntek ahhoz, hogy a fogyasztók valóban alkalmazhassák a technológiát saját otthonukban.

Tovább

Ez a cikk egy háromrészes sorozat első része, amely az érintőképernyős technológia útját mutatja be a fikcióból a valóságba. Az érintés első három évtizedét fontos átgondolni ahhoz, hogy igazán értékelni tudjuk a ma már megszokott többérintéses technológiát. Ma megnézzük, hogy mikor jelentek meg először ezek a technológiák, és kik vezették be őket, emellett számos más úttörőről is szó lesz, akik nagy szerepet játszottak az érintés fejlődésében. A sorozat jövőbeli bejegyzései azt vizsgálják majd, hogy az érintőkijelzők változásai hogyan vezettek a mai életünkben nélkülözhetetlen eszközökhöz, és hová vezethet minket ez a technológia a jövőben. De előbb tegyük az ujjunkat a képernyőre, és utazzunk az 1960-as évekbe.

1960-as évek: Az első érintőképernyő

Johnson, 1967

A történészek általában úgy tartják, hogy az első ujjal vezérelt érintőképernyőt E. A. Johnson találta fel 1965-ben a Royal Radar Establishmentben, Malvernben, az Egyesült Királyságban. Johnson eredetileg az Electronics Letters című szaklapban megjelent “Touch display-a novel input/output device for computers” című cikkében írta le munkáját. A cikk egy ábrát tartalmazott, amely egy olyan típusú érintőképernyő-mechanizmust ismertetett, amelyet ma sok okostelefon használ – amit ma kapacitív érintésként ismerünk. Két évvel később Johnson tovább fejtette ki a technológiát fényképekkel és ábrákkal a “Touch Displays” (Érintéses kijelzők) című könyvében: A Programmed Man-Machine Interface” című, 1967-ben az Ergonomics című szaklapban megjelent cikkében.

Hogyan működnek a kapacitív érintőképernyők.

A kapacitív érintőképernyős panel egy olyan szigetelőt használ, mint az üveg, amelyet egy átlátszó vezetővel, például indium-ón-oxiddal (ITO) vonnak be. A “vezető” rész általában az emberi ujj, amely finom elektromos vezetőt képez. Johnson kezdeti technológiája egyszerre csak egy érintést tudott feldolgozni, és az, amit ma “multitouch”-nak neveznénk, még kissé messze volt. A találmány az érintés értelmezésében is bináris volt – az interfész vagy regisztrálta az érintést, vagy nem regisztrálta az érintést. A nyomásérzékenység csak jóval később jelent meg.

A korai érintőképernyő-ötletnek még az extra funkciók nélkül is voltak követői. Johnson felfedezését végül az Egyesült Királyságban a légiforgalmi irányítók is átvették, és egészen az 1990-es évek végéig használták.

1970-es évek: Az ellenállásos érintőképernyők feltalálása

Bár először kapacitív érintőképernyőket terveztek, az érintés korai éveiben ezeket háttérbe szorították az ellenállásos érintőképernyők. Dr. G. Samuel Hurst amerikai feltaláló szinte véletlenül fejlesztette ki a rezisztív érintőképernyőket. A Berea College öregdiákoknak szóló magazinja így írta le:

Az atomfizika tanulmányozásához a kutatócsoport egy túlterhelt Van de Graff gyorsítót használt, amely csak éjszaka volt elérhető. A fárasztó elemzések lelassították a kutatásukat. Sam kitalálta, hogyan oldhatná meg ezt a problémát. Ő, Parks és Thurman Stewart, egy másik doktorandusz, elektromosan vezető papírt használtak egy x- és y-koordinátapár leolvasására. Ez az ötlet vezetett az első számítógépes érintőképernyőhöz. Ezzel a prototípussal a diákjai néhány óra alatt ki tudták számítani azt, ami egyébként napokig tartott volna.

Hurst és a kutatócsoport a Kentucky Egyetemen dolgozott. Az egyetem megpróbált szabadalmat benyújtani a nevében, hogy megvédje ezt a véletlen találmányt a másolástól, de tudományos eredete miatt úgy tűnt, hogy a laboratóriumon kívül nem annyira alkalmazható.

Hurstnak azonban más elképzelései voltak. “Úgy gondoltam, hogy más dolgokban is hasznos lehet” – mondta a cikkben. 1970-ben, miután visszatért az Oak Ridge Nemzeti Laboratóriumba (ORNL) dolgozni, Hurst egy munkaidő utáni kísérletbe kezdett. A pincéjében Hurst és kilenc, különböző más szakterületekről érkező barátja nekilátott, hogy finomítsa a véletlenül feltalált dolgot. A csoport “Elographics”-nak nevezte el újonc vállalkozását, és a csapat felfedezte, hogy a számítógép-monitor érintőképernyője kiváló interakciós módszer. A képernyőnek csupán egy vezető fedőlapra volt szüksége, amely érintkezik az X- és Y-tengelyt tartalmazó lapokkal. A fedőlapra gyakorolt nyomás lehetővé tette, hogy feszültség áramoljon az X- és az Y-vezetékek között, ami mérhetővé tette a koordináták kijelzését. Ez a felfedezés segített megalapozni azt, amit ma rezisztív érintéstechnológiának nevezünk (mivel pusztán a nyomásra és nem az elektromos vezetőképességre reagál, és mind tollal, mind ujjal működik).

Hirdetés

A technológia osztályaként a rezisztív érintőképernyők előállítása általában nagyon megfizethető. A legtöbb ilyen érintésérzékeny technológiát használó eszköz és gép éttermekben, gyárakban és kórházakban található, mivel elég tartósak ezekhez a környezetekhez. Az okostelefon-gyártók a múltban is használtak rezisztív érintőképernyőket, bár a mobil térben való jelenlétük ma már inkább az alsóbb kategóriás telefonokra korlátozódik.

A második generációs AccuTouch hajlított érintőképernyő az EloTouch-tól.

Az EloTouch azonban nem csak a rezisztív érintésre szorítkozott. A csoport végül szabadalmaztatta az első hajlított üveg érintkezési felületet. A szabadalom a “síkbeli koordináták elektromos érzékelője” címet viselte, és részleteket közölt “egy olcsó síkbeli koordináták elektromos érzékelőjéről”, amely “egymás mellé helyezett, elektromos ekvipotenciális vonalakkal rendelkező vezető anyaglapokat” alkalmazott. E találmány után az Elographicsot eladták a “jó kaliforniaiaknak”, és EloTouch Systems lett belőle.

1971-re számos különböző érintésérzékeny gépet mutattak be, bár egyik sem volt nyomásérzékeny. Az egyik legszélesebb körben használt érintésérzékeny eszköz akkoriban az Illinois-i Egyetem PLATO IV terminálja volt – az egyik első általánosan elterjedt számítógépes oktatórendszer. A PLATO IV elkerülte a kapacitív vagy rezisztív érintést egy infravörös rendszer javára (ezt rövidesen elmagyarázzuk). A PLATO IV volt az első olyan érintőképernyős számítógép, amelyet tanteremben használtak, és amely lehetővé tette, hogy a diákok a kérdések megválaszolásához megérintsék a képernyőt.

A PLATO IV érintőképernyős terminál.

1980-as évek: Az érintés évtizede

A multitouch bevitelt ábrázoló egyik első diagram.
Bill Buxton

1982-ben a Torontói Egyetemen Nimish Mehta kifejlesztette az első ember által vezérelt multitouch eszközt. Ez nem is annyira érintőképernyő, mint inkább érintős táblagép volt. Az egyetem Input Research Groupja kitalálta, hogy egy matt üveglap, amely mögött egy kamera van, képes érzékelni a cselekvést, mivel felismeri a képernyőn megjelenő különböző “fekete foltokat”. Bill Buxton óriási szerepet játszott a multitouch-technológia fejlesztésében (leginkább a PortfolioWall-lal, amelyről kicsit később lesz szó), és Mehta találmányát elég fontosnak tartotta ahhoz, hogy felvegye a számítógépes beviteli eszközök nem hivatalos idővonalába:

Az érintőfelület egy átlátszó műanyag szűrő volt, amelyet egy üveglap fölé szereltek, oldalról megvilágítva egy fénycsővel. Az érintőfelület alá egy videokamerát szereltek, amely optikailag rögzítette az áttetsző szűrőn megjelenő árnyékokat. (A házban lévő tükröt használtak az optikai út meghosszabbítására.) A kamera kimenetét digitalizálták, és egy jelfeldolgozóba táplálták elemzésre.

Röviddel ezután Myron Krueger, egy amerikai számítógépes művész vezette be a gesztuális interakciót, aki olyan optikai rendszert fejlesztett ki, amely képes volt követni a kézmozdulatokat. Krueger 1983-ban mutatta be a Video Place-t (későbbi nevén Video Desk), bár már az 1970-es évek vége óta dolgozott a rendszeren. A rendszer kivetítők és videokamerák segítségével követte a kezeket, ujjakat és a hozzájuk tartozó személyeket. A multitouch rendszerrel ellentétben nem volt teljesen tudatában annak, hogy ki vagy mihez nyúl, bár a szoftver képes volt reagálni a különböző pózokra. A kijelző árnyéknak látszó dolgokat ábrázolt egy szimulált térben.

Bill Buxton bemutatja a PortfolioWallt, és részletezi néhány képességét.

Bár technikailag nem volt érintésalapú – a “tartózkodási időre” támaszkodott, mielőtt végrehajtott volna egy műveletet – Buxton úgy tekint rá, mint az egyik olyan technológiára, amely “‘megírta a könyvet’ a tehermentes… gazdag gesztusinterakció tekintetében. A munka több mint egy évtizeddel megelőzte korát, és óriási befolyással bírt, mégsem ismerik el annyira, mint kellene”. Krueger pályafutása későbbi szakaszában a virtuális valóság és az interaktív művészet úttörője is volt.

A Video Place működését részletező diagram (spanyolul!).

Az érintőképernyőket az 1980-as évek elején kezdték erősen kereskedelmi forgalomba hozni. A HP (akkor még hivatalosan Hewlett-Packard néven) 1983 szeptemberében dobta be a kalapját a HP-150-es modellel. A számítógép MS-DOS-t használt, és egy 9 hüvelykes Sony CRT-t tartalmazott, amelyet infravörös (IR) sugárzók és érzékelők vettek körül, amelyek érzékelték, hogy a felhasználó ujja hová ér a képernyőn. A rendszer körülbelül 2795 dollárba került, de nem fogadták el azonnal, mert volt néhány használhatósági problémája. Például a képernyőre bökdösés blokkolta a többi IR-sugarat, amelyek meg tudták volna mondani a számítógépnek, hogy hová mutat az ujj. Ez azt eredményezte, amit egyesek “Gorilla-karnak” neveztek, utalva az izomfáradtságra, amely abból adódott, hogy a felhasználó sokáig nyújtogatta a kezét.

Nagyítás / A HP-150 MS-DOS-t és egy 9 hüvelykes érintőképernyős Sony CRT-t tartalmazott.
Wikimedia Commons

Egy évvel később a multitouch technológia egy lépést tett előre, amikor Bob Boie, a Bell Labs munkatársa kifejlesztette az első átlátszó multitouch képernyőfelületet. Ahogy az Ars tavaly írta:

…az első multitouch képernyőt 1984-ben fejlesztették ki a Bell Labs-ben. beszámol arról, hogy a Bob Boie által készített képernyő “egy CRT-re helyezett, áttetsző, kapacitív érintésérzékelőkből álló tömböt használt”. Ez lehetővé tette, hogy a felhasználó “kiváló válaszidővel manipuláljon grafikus objektumokat az ujjaival.”

A felfedezés segített megteremteni a multitouch technológiát, amelyet ma a táblagépekben és okostelefonokban használunk.

1990-es évek: Érintőképernyők mindenkinek!

IBM Simon Personal Communicator: nagy kézi készülék, nagy képernyő és érintőceruza az érintéses bevitelhez.
Android Authority

1993-ban az IBM és a BellSouth összefogott a Simon Personal Communicator, az egyik első érintőképernyős technológiával ellátott mobiltelefon piacra dobásához. A készülék személyhívó funkcióval, e-mail- és naptáralkalmazással, határidőnaplóval, címjegyzékkel, számológéppel és tollas vázlatfüzettel rendelkezett. Emellett rezisztív érintőképernyővel is rendelkezett, amely a menükben való navigáláshoz és az adatok beviteléhez tollat igényelt.

Az eredeti MessagePad 100.

Az Apple még abban az évben piacra dobott egy érintőképernyős PDA-készüléket is: a Newton PDA-t. Bár a Newton platformot már 1987-ben elkezdték használni, a MessagePad volt az első az Apple készüléksorozatában, amely ezt a platformot használta. Mint a Time megjegyzi, az Apple akkori vezérigazgatója, John Sculley találta ki a “PDA” (vagy “személyi digitális asszisztens”) kifejezést. Az IBM Simon Personal Communicatorhoz hasonlóan a MessagePad 100 is rendelkezett kézírás-felismerő szoftverrel, és tollal vezérelhető volt.

A MessagePad 100 korai értékelései a hasznos funkcióira összpontosítottak. Amint azonban a fogyasztók kezébe került, egyre nyilvánvalóbbá váltak a hiányosságai. A kézírásfelismerő szoftver nem működött túl jól, és a Newtonból nem adtak el túl sok darabot. Ez azonban nem állította meg az Apple-t. A vállalat még hat évig gyártotta a Newtont, majd az MP2000-es modellel fejezte be.

Az első Palm Pilot.
Wikimedia Commons

Három évvel később a Palm Computing követte a példáját a saját PDA-jával, amelyet Pilotnak neveztek el. Ez volt az első a cég sok generációs személyi digitális asszisztensei közül. A Palm 1000 és a Pilot 5000 az előtte lévő érintőképernyős kütyükhöz hasonlóan toll használatát igényelte.

A Palm PDA kütyüje valamivel nagyobb sikert aratott, mint az IBM és az Apple ajánlatai. Neve hamarosan az “üzleti” szó szinonimájává vált, amihez részben az is hozzájárult, hogy kézírás-felismerő szoftvere nagyon jól működött. A felhasználók a Palm által “Graffiti” néven emlegetett szöveg, számok és egyéb karakterek bevitelére használták. A program egyszerűen megtanulható volt, és azt utánozta, ahogyan egy ember ír egy darab papírra. Ezt végül átültették az Apple Newton platformjára.

Hirdetés

A PDA típusú készülékek nem feltétlenül rendelkeztek a ma megszokott ujjal a képernyőhöz érintőképernyővel, de a fogyasztói elfogadottság meggyőzte a vállalatokat, hogy elegendő érdeklődés van az ilyen típusú készülékek iránt.

Az évtized vége felé Wayne Westerman, a Delaware Egyetem végzős hallgatója “Hand Tracking, Finger Identification, and Chordic Manipulation on a Multi-Touch Surface” címmel publikálta doktori disszertációját. A dolgozat részletesen bemutatta a ma már többérintéses kapacitív technológiaként ismert mechanizmusokat, amelyek a modern érintőképernyővel felszerelt eszközök alapfunkciójává váltak.

A FingerWorks által gyártott iGesture pad.

Westerman és kari tanácsadója, John Elias végül megalapították a FingerWorks nevű céget. A csoport elkezdte gyártani a multitouch gesztusalapú termékek sorát, köztük a TouchStream nevű gesztusalapú billentyűzetet. Ez segített azoknak, akik olyan fogyatékosságokban szenvedtek, mint az ismétlődő megterheléses sérülések és más egészségügyi állapotok. Ebben az évben jelent meg az iGesture Pad is, amely lehetővé tette a képernyő egykezes gesztikulálását és manőverezését. A FingerWorks-et végül 2005-ben felvásárolta az Apple, és sokan ennek a felvásárlásnak tulajdonítják az olyan technológiákat, mint a többérintéses Trackpad vagy az iPhone érintőképernyője.

2000-es évek és utána

Mivel annyi különböző technológia halmozódott fel az előző évtizedekben, a 2000-es évek voltak az érintőképernyős technológiák igazi virágzásának ideje. Itt nem fogunk túl sok konkrét eszközzel foglalkozni (ezekről az érintőképernyős sorozat folytatásakor még többet fogunk írni), de voltak olyan fejlesztések ebben az évtizedben, amelyek segítettek abban, hogy a multitouch és a gesztusalapú technológia tömegek számára elérhetővé váljon. A 2000-es évek volt az a korszak is, amikor az érintőképernyők a tervezési együttműködés kedvenc eszközévé váltak.

2001: Alias|Wavefront gesztusalapú PortfolioWall

Az új évezred közeledtével a vállalatok egyre több erőforrást fordítottak az érintőképernyős technológia integrálására a napi folyamatokba. A PortfolioWall megjelenésével különösen a 3D animátorokat és a tervezőket célozták meg. Ez egy nagyméretű érintőképernyő volt, amely a tervezőstúdiók által a projektek nyomon követésére használt táblák dinamikus változatának készült. Bár a fejlesztés 1999-ben kezdődött, a PortfolioWallt 2001-ben mutatták be a SIGGRAPH-on, és részben a General Motors és az Alias|Wavefront csapatának közös együttműködésével készült. Buxton, aki jelenleg a Microsoft Research vezető kutatója, volt a projekt vezető tudósa. “Lebontjuk a falat, és megváltoztatjuk az emberek hatékony kommunikációját a munkahelyen és az üzleti életben” – mondta akkoriban. “A PortfolioWall gesztusos felülete lehetővé teszi a felhasználók számára, hogy teljes mértékben interakcióba lépjenek egy digitális eszközzel. A képek nézegetése mostantól könnyedén a mindennapi munkafolyamat részévé válik.”

Bill Buxton bemutatja a PortfolioWallt, és részletezi néhány képességét.

A PortfolioWall egyszerű, könnyen használható, gesztusalapú felületet használt. Lehetővé tette a felhasználók számára, hogy a képeket, animációkat és 3D-s fájlokat csupán az ujjukkal vizsgálják és manőverezzék. A képek méretezése, a 3D modellek lehívása és a videók lejátszása is egyszerű volt. Egy későbbi verzió hozzáadta a vázlat- és szöveges megjegyzéseket, a harmadik féltől származó alkalmazások indításának lehetőségét, valamint egy Maya-alapú 3D-megjelenítő eszközt a pásztázás, forgatás, nagyítás és a 3D-modellek megtekintésének használatához. A terméket többnyire digitális parafatáblának tekintették a tervezőközpontú szakmák számára. Az egész berendezés telepítése is borsos, 38 000 dollárba került – 3000 dollárba maga a prezenter és 35 000 dollárba a szerver.

A PortfolioWall lehetővé tette a tervezők számára, hogy teljes méretű 3D modelleket jelenítsenek meg.

A PortfolioWall azzal a ténnyel is foglalkozott, hogy bár az olyan hagyományos médiumok, mint az agyagmodellek és a teljes méretű rajzok még mindig fontosak voltak a tervezési folyamatban, ezeket lassan kiegészítették a digitális eszközök. Az eszköz olyan kiegészítőket tartalmazott, amelyek virtuálisan utánozták ezeket a kézzelfogható médiumokat, és prezentációs eszközként szolgáltak a tervezők számára, hogy bemutathassák folyamatban lévő munkájukat.

A PortfolioWall másik fő vonzereje a “tudatossági szerver” volt, amely elősegítette a hálózaton keresztüli együttműködést, így a csapatoknak nem kellett egy helyiségben tartózkodniuk egy projekt áttekintéséhez. A csapatoknak több fala is lehetett különböző helyiségekben, és mégis távolról dolgozhattak együtt.

Hirdetés

A PortfolioWall végül 2008-ban véget ért, de kiváló példája volt annak, hogy az érintőképernyővel kölcsönhatásba lépő gesztusok hogyan segíthetnek egy egész operációs rendszer irányításában.

2002: Kölcsönös kapacitív érzékelés a Sony SmartSkinben

A Sony SmartSkin használata.

2002-ben a Sony olyan lapos beviteli felületet mutatott be, amely egyszerre több kéztartást és érintési pontot tudott felismerni. A vállalat a SmartSkin nevet adta neki. A technológia úgy működött, hogy kapacitív érzékeléssel és egy háló alakú antennával kiszámította a kéz és a felület közötti távolságot. A más technológiákban alkalmazott kameraalapú gesztusfelismerő rendszerrel ellentétben az érzékelő elemek mindegyike az érintőfelületbe volt integrálva. Ez azt is jelentette, hogy rossz fényviszonyok mellett sem fog hibásan működni. A projekt végső célja az volt, hogy a mindennap használt felületeket, például egy átlagos asztalt vagy falat interaktívvá alakítson át a közelben lévő PC segítségével. A technológia azonban a tervezettnél többet tett a kapacitív érintéstechnológiáért, többek között több érintkezési pontot vezetett be.

Hogyan érzékelte a SmartSkin a gesztusokat.
Sony Computer Science Laboratories, Inc.

Jun Rekimoto, a Sony Computer Science Laboratories interakciós laboratóriumának munkatársa egy whitepaperben jegyezte fel a technológia előnyeit. Szerinte a SmartSkinhez hasonló technológiák “természetes támogatást nyújtanak a többkezes, többfelhasználós műveletekhez”. Egyszerre több mint két felhasználó is megérintheti a felületet egyszerre, mindenféle interferencia nélkül. Két prototípust fejlesztettek ki a SmartSkin interaktív asztalként és gesztusfelismerő padként való használatára. A második prototípus az előbbihez képest finomabb hálót használt, hogy pontosabban fel tudja térképezni az ujjak koordinátáit. Összességében a technológia célja az volt, hogy a virtuális tárgyak valóságos érzetét nyújtsa, lényegében megismételve azt, ahogyan az emberek az ujjaikat használják a tárgyak felvételére és manipulálására.

2002-2004: Sikertelen táblagépek és a Microsoft Research TouchLight

A HandGear nevű multitouch táblagép beviteli eszköze.
Bill Buxton

A multitouch technológia küzdött a mainstreamben, speciális eszközökben jelent meg, de soha nem tudott igazán nagy áttörést elérni. Az egyik majdnem bekövetkezett 2002-ben, amikor a kanadai székhelyű DSI Datotech kifejlesztette a HandGear + GRT eszközt (a “GRT” rövidítés az eszköz gesztusfelismerő technológiájára utalt). Az eszköz többpontos érintőpadja kicsit úgy működött, mint a fent említett iGesture pad, mivel képes volt felismerni a különböző gesztusokat, és lehetővé tette a felhasználók számára, hogy beviteli eszközként használják a számítógépük vezérlésére. “Egészen biztosak akartunk lenni abban, hogy a HandGear könnyen használható legyen” – mondta Tim Heaney marketing alelnök a sajtóközleményben. “Ezért a technológiát úgy terveztük, hogy olyan kéz- és ujjmozdulatokat ismerjen fel, amelyek teljesen természetesek, vagyis intuitívak a felhasználó számára, legyen az bal- vagy jobbkezes. Egy rövid tanulási időszak után szó szerint az adott munkára tudnak koncentrálni, nem pedig arra, hogy mit csinálnak az ujjak.”

A HandGear azt is lehetővé tette a felhasználók számára, hogy valós időben “megragadjanak” háromdimenziós tárgyakat, tovább bővítve a szabadság és a termelékenység gondolatát a tervezési folyamatban. A vállalat még az API-t is elérhetővé tette a fejlesztők számára az AutoDesk-en keresztül. Sajnos, ahogy Buxton a multitouchról szóló áttekintésében említi, a cégnek elfogyott a pénze, mielőtt a termékük kiszállításra került volna, és a DSI bezárta kapuit.

Andy Wilson ismerteti a TouchLight mögött álló technológiát.

Két évvel később Andrew D. Wilson, a Microsoft Research munkatársa kifejlesztett egy gesztusalapú képalkotó érintőképernyőt és 3D kijelzőt. A TouchLight egy hátrafelé vetített kijelzőt használt, hogy egy akril műanyag lapot interaktív felületté alakítson át. A kijelző több felhasználó több ujját és kezét is érzékelte, és 3D képességei miatt rögtönzött tükörként is használható volt.

A TouchLight ügyes technológiai bemutató volt, és végül az Eon Realitynek adtak licencet a gyártásra, mielőtt a technológia túl drágának bizonyult ahhoz, hogy fogyasztói eszközbe csomagolják. A Microsoftnak azonban nem ez lett volna az egyetlen kitérője a divatos multitouch kijelzőtechnológiára.

2006: Multitouch-érzékelés “frusztrált teljes belső visszaverődéssel”

Jeff Han

2006-ban Jeff Han a kaliforniai Montereyben tartott TED-konferencián mutatta be először nyilvánosan intuitív, interfész nélküli, érintésvezérelt számítógépes képernyőjét. Előadásában Han egy óriási fénydobozon fényképeket mozgatott és manipulált, csupán az ujjbegyeit használva. Fényképeket pattintgatott, kinyújtotta és elcsípte őket, mindezt magával ragadóan természetes könnyedséggel. “Ez olyasmi, amit a Google-nek az előcsarnokában kellene elhelyeznie” – viccelődött. A bemutató megmutatta, hogy nagy felbontású, skálázható érintőképernyőt lehet építeni anélkül, hogy túl sok pénzt kellene költeni.”

A Jeff Han által használt FTIR többérintéses érzékelésének ábrája.
Jeff Han

Han felfedezte, hogy a “robusztus” multitouch-érzékelés a “frusztrált teljes belső reflexió” (FTIR) segítségével lehetséges, amely az ujjlenyomat-képalkotáshoz használt, a biometrikus közösségből származó technika. Az FTIR úgy működik, hogy egy akril- vagy plexiüvegdarabon keresztül fényt világítanak át. A fény (általában infravörös fényt használnak) előre-hátra pattog az akril felső és alsó része között. Amikor egy ujj hozzáér a felülethez, a sugarak az ujj helyére eső perem körül szóródnak, innen ered a “frusztrált” kifejezés. A keletkező képek fehér pacáknak tűnnek, és egy infravörös kamera veszi fel őket. A számítógép elemzi, hogy hol érintkezik az ujj, hogy megjelölje a helyét, és hozzárendeljen egy koordinátát. A szoftver ezután képes elemezni a koordinátákat, hogy elvégezzen egy bizonyos feladatot, például átméretezze vagy elforgassa az objektumokat.

Jeff Han bemutatja új, “interfész nélküli” érintésvezérelt képernyőjét.

Miután a TED-előadás YouTube-siker lett, Han elindította a Perceptive Pixel nevű startupot. Egy évvel az előadás után a Wirednek azt mondta, hogy a multitouch termékének még nincs neve. És bár volt néhány érdeklődő ügyfele, Han azt mondta, hogy ezek mind “igazán magas szintű ügyfelek” voltak. Többnyire védelmi cégek.”

Tavaly Hann eladta cégét a Microsoftnak, hogy a technológiát szélesebb körben elterjedtebbé és a fogyasztók számára megfizethetőbbé tegye. “A cégünk mindig is a termelékenységi felhasználási esetekről szólt” – mondta Han az AllThingsD-nek. “Ezért mindig is ezekre a nagyobb kijelzőkre összpontosítottunk. Az emberek az Office-ra gondolnak, amikor a termelékenységre gondolnak.”

2008: A Microsoft Surface

Mielőtt létezett volna 10 hüvelykes táblagép, a “Surface” név a Microsoft csúcskategóriás asztali grafikus érintőképernyőjére utalt, amelyet eredetileg egy valódi IKEA-asztal belsejébe építettek, amelynek tetejébe lyukat vágtak. Bár 2007-ben mutatták be a nagyközönségnek, az ötlet még 2001-ben született. A redmondi kutatók egy olyan interaktív munkafelületet képzeltek el, amelyen a kollégák oda-vissza manipulálhatják a tárgyakat. A munkát sokáig titoktartási megállapodás mögé rejtették. 85 prototípusra volt szükség, mire a Surface 1.0 készen állt.

Amint az Ars 2007-ben írta, a Microsoft Surface lényegében egy közepes méretű asztalba ágyazott számítógép volt, tetején egy nagy, lapos kijelzővel. A képernyő képét az asztal belsejéből hátulról vetítették a kijelző felületére, és a rendszer az asztal belsejébe szerelt, a felhasználó felé felfelé néző kamerákon keresztül érzékelte, hogy a felhasználó hol érintette meg a képernyőt. Ahogy az ujjak és a kezek interakcióba léptek a képernyőn megjelenő anyaggal, a Surface szoftvere követte az érintési pontokat, és elindította a megfelelő műveleteket. A Surface egyszerre több érintési pontot, valamint a rájuk ragasztott kis “dominó” matricákkal ellátott tárgyakat is képes volt felismerni. A fejlesztési ciklus későbbi szakaszában a Surface az eszközök RFID segítségével történő azonosítására is képessé vált.

Bill Gates bemutatja a Microsoft Surface-t.

Az eredeti Surface-t a 2007-es All Things D konferencián mutatták be. Bár sok tervezési koncepciója nem volt új, nagyon hatásosan illusztrálta a dohányzóasztal méretű eszközbe integrált érintőképernyők valós felhasználási esetét. A Microsoft ezután elhozta a 30 hüvelykes Surface-t, hogy a 2008-as CES-en bemutassa, de a vállalat kifejezetten azt mondta, hogy a “szórakoztató kiskereskedelmi területet” célozza meg. A Surface-t elsősorban a Microsoft kereskedelmi ügyfelei számára tervezték, hogy a fogyasztók megízlelhessék a hardvert. A vállalat több nagynevű szállodai üdülőhellyel – például a Starwooddal és a Harrah’s Casinóval – lépett partnerségre, hogy a technológiát a lobbikban mutassák be. Az olyan vállalatok, mint az AT&T arra használták a Surface-t, hogy bemutassák a legújabb telefonokat a tégla és habarcs kiskereskedelmi üzleteikbe belépő fogyasztóknak.

Surface a CES 2008-on.

A Microsoft ahelyett, hogy grafikus felhasználói felületnek (GUI) nevezte volna, a Surface felületét természetes felhasználói felületnek, azaz “NUI”-nak nevezte. A kifejezés azt sugallta, hogy a technológia szinte ösztönösnek fog tűnni az emberi végfelhasználó számára, olyan természetesnek, mint a valós világban bármilyen kézzelfogható tárggyal való interakció. A kifejezés arra is utalt, hogy a felületet elsősorban a felhasználó érintése vezérli, nem pedig a beviteli eszközök. (Ráadásul a NUI – “new-ey” – egy frappáns, marketingbarát rövidítés volt.)

Microsoft bemutatja a Samsung SUR40-t.

2011-ben a Microsoft olyan gyártókkal lépett partnerségre, mint a Samsung, hogy karcsúbb, újabb, táblagépes Surface hardvereket gyártson. A Samsung SUR40 például 40 hüvelykes, 1080p felbontású LED kijelzővel rendelkezik, és drasztikusan csökkentette az érintésérzékelő mechanizmusokhoz szükséges belső helyigényt. A 22 hüvelykes vastagságával vékonyabb volt, mint elődei, és a méretcsökkentés lehetővé tette, hogy a kijelzőt falra szereljék, ahelyett, hogy asztalra lenne szükség a kamera és az érzékelők elhelyezéséhez. Bemutatásakor mintegy 8400 dollárba került, és Windows 7-et és Surface 2.0 szoftvert futtatott.

Microsoft

Múlt évben a vállalat átnevezte a technológiát PixelSense-re, miután a Microsoft bemutatta a fogyasztóknak a nem kapcsolódó Surface táblagépét. A “PixelSense” elnevezés a technológia tényleges működésére utal: egy infravörös háttérvilágítás tetejére egy érintésérzékeny védőüveg kerül. Az üvegre érkező fény visszaverődik az integrált érzékelőkhöz, amelyek a fényt elektromos jellé alakítják. Ezt a jelet “értéknek” nevezik, és ezek az értékek hozzák létre a kijelzőn megjelenő képet. A képet ezután képfeldolgozási technikák segítségével elemzik, és ezt a kimenetet elküldik a számítógépnek, amelyhez csatlakozik.

A PixelSense technológiáját négy fő összetevő alkotja: működéséhez nincs szükség egérre és billentyűzetre, egyszerre több felhasználó is kapcsolatba léphet vele, képes felismerni bizonyos, az üvegen elhelyezett tárgyakat, és több érintkezési ponttal rendelkezik. A PixelSense név is különösen ez utóbbinak tudható be – minden egyes pixel valóban érzékeli, hogy volt-e érintés vagy sem.

Hirdetés

Bár remekül mutatna a nappaliban, a Microsoft továbbra is inkább üzleti eszközként, mint fogyasztói termékként forgalmazza a Surface hardvert.

Az érintés ma és holnap?

Nem lehet alábecsülni – e technológiák mindegyike monumentális hatással volt a ma használt kütyükre. Az okostelefonjainktól kezdve a laptopok trackpadjain át a WACOM táblagépekig minden valamilyen módon kapcsolatba hozható az érintőképernyős technológia történetének számos találmányával, felfedezésével és szabadalmával. Az Android és iOS felhasználók E. A. Johnsonnak köszönhetik a kapacitív érintésre képes okostelefonokat, míg az éttermek Dr. G. Samuel Hurstnek küldhetik üdvözletüket a POS-rendszerek rezisztív érintőképernyőjéért.

Sorozatunk következő részében mélyebben elmerülünk napjaink eszközeiben. (Egyáltalán, milyen hatással volt a FingerWorks munkája ezekre az iKészülékekre?) De a történelem nem ért véget 2011-ben sem. Arról is beszélni fogunk, hogy a jelenlegi nagy szereplők – mint például az Apple és a Samsung – hogyan járulnak hozzá továbbra is az érintőképernyős készülékek fejlődéséhez. Ne görgesse az ujját, maradjon velünk!

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.