Nehéz elhinni, hogy néhány évtizeddel ezelőtt az érintőképernyős technológia csak a sci-fi könyvekben és filmekben volt megtalálható. Manapság már szinte felfoghatatlan, hogyan tudtuk egykor a napi teendőinket elvégezni anélkül, hogy egy megbízható tablet vagy okostelefon ne lett volna a közelünkben, de ez nem áll meg itt. Az érintőképernyők tényleg mindenhol jelen vannak. Otthonokban, autókban, éttermekben, üzletekben, repülőgépeken, bárhol – ezek töltik ki az életünket a nyilvános és a magánterekben.
Az érintőképernyők ilyen mértékű jelenlétéhez generációkra és több jelentős technológiai fejlődésre volt szükség. Bár az érintőképernyők mögött meghúzódó technológia az 1940-es évekre vezethető vissza, számos bizonyíték utal arra, hogy az érintőképernyők legalább 1965-ig nem voltak megvalósíthatóak. Az olyan népszerű sci-fi tévéműsorok, mint a Star Trek, nem is utaltak erre a technológiára egészen a Star Trek: The Next Generation 1987-es bemutatójáig, azaz majdnem két évtizeddel azután, hogy az érintőképernyős technológiát egyáltalán lehetségesnek tartották. A sorozatban való megjelenésük azonban párhuzamosan haladt a technológiai világ fejlődésével, és az 1980-as évek végére az érintőképernyők végre elég reálisnak tűntek ahhoz, hogy a fogyasztók valóban alkalmazhassák a technológiát saját otthonukban.
Ez a cikk egy háromrészes sorozat első része, amely az érintőképernyős technológia útját mutatja be a fikcióból a valóságba. Az érintés első három évtizedét fontos átgondolni ahhoz, hogy igazán értékelni tudjuk a ma már megszokott többérintéses technológiát. Ma megnézzük, hogy mikor jelentek meg először ezek a technológiák, és kik vezették be őket, emellett számos más úttörőről is szó lesz, akik nagy szerepet játszottak az érintés fejlődésében. A sorozat jövőbeli bejegyzései azt vizsgálják majd, hogy az érintőkijelzők változásai hogyan vezettek a mai életünkben nélkülözhetetlen eszközökhöz, és hová vezethet minket ez a technológia a jövőben. De előbb tegyük az ujjunkat a képernyőre, és utazzunk az 1960-as évekbe.
- 1960-as évek: Az első érintőképernyő
- 1970-es évek: Az ellenállásos érintőképernyők feltalálása
- 1980-as évek: Az érintés évtizede
- 1990-es évek: Érintőképernyők mindenkinek!
- 2000-es évek és utána
- 2001: Alias|Wavefront gesztusalapú PortfolioWall
- 2002: Kölcsönös kapacitív érzékelés a Sony SmartSkinben
- 2002-2004: Sikertelen táblagépek és a Microsoft Research TouchLight
- 2006: Multitouch-érzékelés “frusztrált teljes belső visszaverődéssel”
- 2008: A Microsoft Surface
- Az érintés ma és holnap?
1960-as évek: Az első érintőképernyő
A történészek általában úgy tartják, hogy az első ujjal vezérelt érintőképernyőt E. A. Johnson találta fel 1965-ben a Royal Radar Establishmentben, Malvernben, az Egyesült Királyságban. Johnson eredetileg az Electronics Letters című szaklapban megjelent “Touch display-a novel input/output device for computers” című cikkében írta le munkáját. A cikk egy ábrát tartalmazott, amely egy olyan típusú érintőképernyő-mechanizmust ismertetett, amelyet ma sok okostelefon használ – amit ma kapacitív érintésként ismerünk. Két évvel később Johnson tovább fejtette ki a technológiát fényképekkel és ábrákkal a “Touch Displays” (Érintéses kijelzők) című könyvében: A Programmed Man-Machine Interface” című, 1967-ben az Ergonomics című szaklapban megjelent cikkében.
A kapacitív érintőképernyős panel egy olyan szigetelőt használ, mint az üveg, amelyet egy átlátszó vezetővel, például indium-ón-oxiddal (ITO) vonnak be. A “vezető” rész általában az emberi ujj, amely finom elektromos vezetőt képez. Johnson kezdeti technológiája egyszerre csak egy érintést tudott feldolgozni, és az, amit ma “multitouch”-nak neveznénk, még kissé messze volt. A találmány az érintés értelmezésében is bináris volt – az interfész vagy regisztrálta az érintést, vagy nem regisztrálta az érintést. A nyomásérzékenység csak jóval később jelent meg.
A korai érintőképernyő-ötletnek még az extra funkciók nélkül is voltak követői. Johnson felfedezését végül az Egyesült Királyságban a légiforgalmi irányítók is átvették, és egészen az 1990-es évek végéig használták.
1970-es évek: Az ellenállásos érintőképernyők feltalálása
Bár először kapacitív érintőképernyőket terveztek, az érintés korai éveiben ezeket háttérbe szorították az ellenállásos érintőképernyők. Dr. G. Samuel Hurst amerikai feltaláló szinte véletlenül fejlesztette ki a rezisztív érintőképernyőket. A Berea College öregdiákoknak szóló magazinja így írta le:
Az atomfizika tanulmányozásához a kutatócsoport egy túlterhelt Van de Graff gyorsítót használt, amely csak éjszaka volt elérhető. A fárasztó elemzések lelassították a kutatásukat. Sam kitalálta, hogyan oldhatná meg ezt a problémát. Ő, Parks és Thurman Stewart, egy másik doktorandusz, elektromosan vezető papírt használtak egy x- és y-koordinátapár leolvasására. Ez az ötlet vezetett az első számítógépes érintőképernyőhöz. Ezzel a prototípussal a diákjai néhány óra alatt ki tudták számítani azt, ami egyébként napokig tartott volna.
Hurst és a kutatócsoport a Kentucky Egyetemen dolgozott. Az egyetem megpróbált szabadalmat benyújtani a nevében, hogy megvédje ezt a véletlen találmányt a másolástól, de tudományos eredete miatt úgy tűnt, hogy a laboratóriumon kívül nem annyira alkalmazható.
Hurstnak azonban más elképzelései voltak. “Úgy gondoltam, hogy más dolgokban is hasznos lehet” – mondta a cikkben. 1970-ben, miután visszatért az Oak Ridge Nemzeti Laboratóriumba (ORNL) dolgozni, Hurst egy munkaidő utáni kísérletbe kezdett. A pincéjében Hurst és kilenc, különböző más szakterületekről érkező barátja nekilátott, hogy finomítsa a véletlenül feltalált dolgot. A csoport “Elographics”-nak nevezte el újonc vállalkozását, és a csapat felfedezte, hogy a számítógép-monitor érintőképernyője kiváló interakciós módszer. A képernyőnek csupán egy vezető fedőlapra volt szüksége, amely érintkezik az X- és Y-tengelyt tartalmazó lapokkal. A fedőlapra gyakorolt nyomás lehetővé tette, hogy feszültség áramoljon az X- és az Y-vezetékek között, ami mérhetővé tette a koordináták kijelzését. Ez a felfedezés segített megalapozni azt, amit ma rezisztív érintéstechnológiának nevezünk (mivel pusztán a nyomásra és nem az elektromos vezetőképességre reagál, és mind tollal, mind ujjal működik).
A technológia osztályaként a rezisztív érintőképernyők előállítása általában nagyon megfizethető. A legtöbb ilyen érintésérzékeny technológiát használó eszköz és gép éttermekben, gyárakban és kórházakban található, mivel elég tartósak ezekhez a környezetekhez. Az okostelefon-gyártók a múltban is használtak rezisztív érintőképernyőket, bár a mobil térben való jelenlétük ma már inkább az alsóbb kategóriás telefonokra korlátozódik.
Az EloTouch azonban nem csak a rezisztív érintésre szorítkozott. A csoport végül szabadalmaztatta az első hajlított üveg érintkezési felületet. A szabadalom a “síkbeli koordináták elektromos érzékelője” címet viselte, és részleteket közölt “egy olcsó síkbeli koordináták elektromos érzékelőjéről”, amely “egymás mellé helyezett, elektromos ekvipotenciális vonalakkal rendelkező vezető anyaglapokat” alkalmazott. E találmány után az Elographicsot eladták a “jó kaliforniaiaknak”, és EloTouch Systems lett belőle.
1971-re számos különböző érintésérzékeny gépet mutattak be, bár egyik sem volt nyomásérzékeny. Az egyik legszélesebb körben használt érintésérzékeny eszköz akkoriban az Illinois-i Egyetem PLATO IV terminálja volt – az egyik első általánosan elterjedt számítógépes oktatórendszer. A PLATO IV elkerülte a kapacitív vagy rezisztív érintést egy infravörös rendszer javára (ezt rövidesen elmagyarázzuk). A PLATO IV volt az első olyan érintőképernyős számítógép, amelyet tanteremben használtak, és amely lehetővé tette, hogy a diákok a kérdések megválaszolásához megérintsék a képernyőt.
1980-as évek: Az érintés évtizede
1982-ben a Torontói Egyetemen Nimish Mehta kifejlesztette az első ember által vezérelt multitouch eszközt. Ez nem is annyira érintőképernyő, mint inkább érintős táblagép volt. Az egyetem Input Research Groupja kitalálta, hogy egy matt üveglap, amely mögött egy kamera van, képes érzékelni a cselekvést, mivel felismeri a képernyőn megjelenő különböző “fekete foltokat”. Bill Buxton óriási szerepet játszott a multitouch-technológia fejlesztésében (leginkább a PortfolioWall-lal, amelyről kicsit később lesz szó), és Mehta találmányát elég fontosnak tartotta ahhoz, hogy felvegye a számítógépes beviteli eszközök nem hivatalos idővonalába:
Az érintőfelület egy átlátszó műanyag szűrő volt, amelyet egy üveglap fölé szereltek, oldalról megvilágítva egy fénycsővel. Az érintőfelület alá egy videokamerát szereltek, amely optikailag rögzítette az áttetsző szűrőn megjelenő árnyékokat. (A házban lévő tükröt használtak az optikai út meghosszabbítására.) A kamera kimenetét digitalizálták, és egy jelfeldolgozóba táplálták elemzésre.
Röviddel ezután Myron Krueger, egy amerikai számítógépes művész vezette be a gesztuális interakciót, aki olyan optikai rendszert fejlesztett ki, amely képes volt követni a kézmozdulatokat. Krueger 1983-ban mutatta be a Video Place-t (későbbi nevén Video Desk), bár már az 1970-es évek vége óta dolgozott a rendszeren. A rendszer kivetítők és videokamerák segítségével követte a kezeket, ujjakat és a hozzájuk tartozó személyeket. A multitouch rendszerrel ellentétben nem volt teljesen tudatában annak, hogy ki vagy mihez nyúl, bár a szoftver képes volt reagálni a különböző pózokra. A kijelző árnyéknak látszó dolgokat ábrázolt egy szimulált térben.
Bár technikailag nem volt érintésalapú – a “tartózkodási időre” támaszkodott, mielőtt végrehajtott volna egy műveletet – Buxton úgy tekint rá, mint az egyik olyan technológiára, amely “‘megírta a könyvet’ a tehermentes… gazdag gesztusinterakció tekintetében. A munka több mint egy évtizeddel megelőzte korát, és óriási befolyással bírt, mégsem ismerik el annyira, mint kellene”. Krueger pályafutása későbbi szakaszában a virtuális valóság és az interaktív művészet úttörője is volt.
Az érintőképernyőket az 1980-as évek elején kezdték erősen kereskedelmi forgalomba hozni. A HP (akkor még hivatalosan Hewlett-Packard néven) 1983 szeptemberében dobta be a kalapját a HP-150-es modellel. A számítógép MS-DOS-t használt, és egy 9 hüvelykes Sony CRT-t tartalmazott, amelyet infravörös (IR) sugárzók és érzékelők vettek körül, amelyek érzékelték, hogy a felhasználó ujja hová ér a képernyőn. A rendszer körülbelül 2795 dollárba került, de nem fogadták el azonnal, mert volt néhány használhatósági problémája. Például a képernyőre bökdösés blokkolta a többi IR-sugarat, amelyek meg tudták volna mondani a számítógépnek, hogy hová mutat az ujj. Ez azt eredményezte, amit egyesek “Gorilla-karnak” neveztek, utalva az izomfáradtságra, amely abból adódott, hogy a felhasználó sokáig nyújtogatta a kezét.
Egy évvel később a multitouch technológia egy lépést tett előre, amikor Bob Boie, a Bell Labs munkatársa kifejlesztette az első átlátszó multitouch képernyőfelületet. Ahogy az Ars tavaly írta:
…az első multitouch képernyőt 1984-ben fejlesztették ki a Bell Labs-ben. beszámol arról, hogy a Bob Boie által készített képernyő “egy CRT-re helyezett, áttetsző, kapacitív érintésérzékelőkből álló tömböt használt”. Ez lehetővé tette, hogy a felhasználó “kiváló válaszidővel manipuláljon grafikus objektumokat az ujjaival.”
A felfedezés segített megteremteni a multitouch technológiát, amelyet ma a táblagépekben és okostelefonokban használunk.
1990-es évek: Érintőképernyők mindenkinek!
1993-ban az IBM és a BellSouth összefogott a Simon Personal Communicator, az egyik első érintőképernyős technológiával ellátott mobiltelefon piacra dobásához. A készülék személyhívó funkcióval, e-mail- és naptáralkalmazással, határidőnaplóval, címjegyzékkel, számológéppel és tollas vázlatfüzettel rendelkezett. Emellett rezisztív érintőképernyővel is rendelkezett, amely a menükben való navigáláshoz és az adatok beviteléhez tollat igényelt.
Az Apple még abban az évben piacra dobott egy érintőképernyős PDA-készüléket is: a Newton PDA-t. Bár a Newton platformot már 1987-ben elkezdték használni, a MessagePad volt az első az Apple készüléksorozatában, amely ezt a platformot használta. Mint a Time megjegyzi, az Apple akkori vezérigazgatója, John Sculley találta ki a “PDA” (vagy “személyi digitális asszisztens”) kifejezést. Az IBM Simon Personal Communicatorhoz hasonlóan a MessagePad 100 is rendelkezett kézírás-felismerő szoftverrel, és tollal vezérelhető volt.
A MessagePad 100 korai értékelései a hasznos funkcióira összpontosítottak. Amint azonban a fogyasztók kezébe került, egyre nyilvánvalóbbá váltak a hiányosságai. A kézírásfelismerő szoftver nem működött túl jól, és a Newtonból nem adtak el túl sok darabot. Ez azonban nem állította meg az Apple-t. A vállalat még hat évig gyártotta a Newtont, majd az MP2000-es modellel fejezte be.
Három évvel később a Palm Computing követte a példáját a saját PDA-jával, amelyet Pilotnak neveztek el. Ez volt az első a cég sok generációs személyi digitális asszisztensei közül. A Palm 1000 és a Pilot 5000 az előtte lévő érintőképernyős kütyükhöz hasonlóan toll használatát igényelte.
A Palm PDA kütyüje valamivel nagyobb sikert aratott, mint az IBM és az Apple ajánlatai. Neve hamarosan az “üzleti” szó szinonimájává vált, amihez részben az is hozzájárult, hogy kézírás-felismerő szoftvere nagyon jól működött. A felhasználók a Palm által “Graffiti” néven emlegetett szöveg, számok és egyéb karakterek bevitelére használták. A program egyszerűen megtanulható volt, és azt utánozta, ahogyan egy ember ír egy darab papírra. Ezt végül átültették az Apple Newton platformjára.
A PDA típusú készülékek nem feltétlenül rendelkeztek a ma megszokott ujjal a képernyőhöz érintőképernyővel, de a fogyasztói elfogadottság meggyőzte a vállalatokat, hogy elegendő érdeklődés van az ilyen típusú készülékek iránt.
Az évtized vége felé Wayne Westerman, a Delaware Egyetem végzős hallgatója “Hand Tracking, Finger Identification, and Chordic Manipulation on a Multi-Touch Surface” címmel publikálta doktori disszertációját. A dolgozat részletesen bemutatta a ma már többérintéses kapacitív technológiaként ismert mechanizmusokat, amelyek a modern érintőképernyővel felszerelt eszközök alapfunkciójává váltak.
Westerman és kari tanácsadója, John Elias végül megalapították a FingerWorks nevű céget. A csoport elkezdte gyártani a multitouch gesztusalapú termékek sorát, köztük a TouchStream nevű gesztusalapú billentyűzetet. Ez segített azoknak, akik olyan fogyatékosságokban szenvedtek, mint az ismétlődő megterheléses sérülések és más egészségügyi állapotok. Ebben az évben jelent meg az iGesture Pad is, amely lehetővé tette a képernyő egykezes gesztikulálását és manőverezését. A FingerWorks-et végül 2005-ben felvásárolta az Apple, és sokan ennek a felvásárlásnak tulajdonítják az olyan technológiákat, mint a többérintéses Trackpad vagy az iPhone érintőképernyője.
2000-es évek és utána
Mivel annyi különböző technológia halmozódott fel az előző évtizedekben, a 2000-es évek voltak az érintőképernyős technológiák igazi virágzásának ideje. Itt nem fogunk túl sok konkrét eszközzel foglalkozni (ezekről az érintőképernyős sorozat folytatásakor még többet fogunk írni), de voltak olyan fejlesztések ebben az évtizedben, amelyek segítettek abban, hogy a multitouch és a gesztusalapú technológia tömegek számára elérhetővé váljon. A 2000-es évek volt az a korszak is, amikor az érintőképernyők a tervezési együttműködés kedvenc eszközévé váltak.
2001: Alias|Wavefront gesztusalapú PortfolioWall
Az új évezred közeledtével a vállalatok egyre több erőforrást fordítottak az érintőképernyős technológia integrálására a napi folyamatokba. A PortfolioWall megjelenésével különösen a 3D animátorokat és a tervezőket célozták meg. Ez egy nagyméretű érintőképernyő volt, amely a tervezőstúdiók által a projektek nyomon követésére használt táblák dinamikus változatának készült. Bár a fejlesztés 1999-ben kezdődött, a PortfolioWallt 2001-ben mutatták be a SIGGRAPH-on, és részben a General Motors és az Alias|Wavefront csapatának közös együttműködésével készült. Buxton, aki jelenleg a Microsoft Research vezető kutatója, volt a projekt vezető tudósa. “Lebontjuk a falat, és megváltoztatjuk az emberek hatékony kommunikációját a munkahelyen és az üzleti életben” – mondta akkoriban. “A PortfolioWall gesztusos felülete lehetővé teszi a felhasználók számára, hogy teljes mértékben interakcióba lépjenek egy digitális eszközzel. A képek nézegetése mostantól könnyedén a mindennapi munkafolyamat részévé válik.”
A PortfolioWall egyszerű, könnyen használható, gesztusalapú felületet használt. Lehetővé tette a felhasználók számára, hogy a képeket, animációkat és 3D-s fájlokat csupán az ujjukkal vizsgálják és manőverezzék. A képek méretezése, a 3D modellek lehívása és a videók lejátszása is egyszerű volt. Egy későbbi verzió hozzáadta a vázlat- és szöveges megjegyzéseket, a harmadik féltől származó alkalmazások indításának lehetőségét, valamint egy Maya-alapú 3D-megjelenítő eszközt a pásztázás, forgatás, nagyítás és a 3D-modellek megtekintésének használatához. A terméket többnyire digitális parafatáblának tekintették a tervezőközpontú szakmák számára. Az egész berendezés telepítése is borsos, 38 000 dollárba került – 3000 dollárba maga a prezenter és 35 000 dollárba a szerver.
A PortfolioWall azzal a ténnyel is foglalkozott, hogy bár az olyan hagyományos médiumok, mint az agyagmodellek és a teljes méretű rajzok még mindig fontosak voltak a tervezési folyamatban, ezeket lassan kiegészítették a digitális eszközök. Az eszköz olyan kiegészítőket tartalmazott, amelyek virtuálisan utánozták ezeket a kézzelfogható médiumokat, és prezentációs eszközként szolgáltak a tervezők számára, hogy bemutathassák folyamatban lévő munkájukat.
A PortfolioWall másik fő vonzereje a “tudatossági szerver” volt, amely elősegítette a hálózaton keresztüli együttműködést, így a csapatoknak nem kellett egy helyiségben tartózkodniuk egy projekt áttekintéséhez. A csapatoknak több fala is lehetett különböző helyiségekben, és mégis távolról dolgozhattak együtt.
A PortfolioWall végül 2008-ban véget ért, de kiváló példája volt annak, hogy az érintőképernyővel kölcsönhatásba lépő gesztusok hogyan segíthetnek egy egész operációs rendszer irányításában.
2002: Kölcsönös kapacitív érzékelés a Sony SmartSkinben
2002-ben a Sony olyan lapos beviteli felületet mutatott be, amely egyszerre több kéztartást és érintési pontot tudott felismerni. A vállalat a SmartSkin nevet adta neki. A technológia úgy működött, hogy kapacitív érzékeléssel és egy háló alakú antennával kiszámította a kéz és a felület közötti távolságot. A más technológiákban alkalmazott kameraalapú gesztusfelismerő rendszerrel ellentétben az érzékelő elemek mindegyike az érintőfelületbe volt integrálva. Ez azt is jelentette, hogy rossz fényviszonyok mellett sem fog hibásan működni. A projekt végső célja az volt, hogy a mindennap használt felületeket, például egy átlagos asztalt vagy falat interaktívvá alakítson át a közelben lévő PC segítségével. A technológia azonban a tervezettnél többet tett a kapacitív érintéstechnológiáért, többek között több érintkezési pontot vezetett be.
Jun Rekimoto, a Sony Computer Science Laboratories interakciós laboratóriumának munkatársa egy whitepaperben jegyezte fel a technológia előnyeit. Szerinte a SmartSkinhez hasonló technológiák “természetes támogatást nyújtanak a többkezes, többfelhasználós műveletekhez”. Egyszerre több mint két felhasználó is megérintheti a felületet egyszerre, mindenféle interferencia nélkül. Két prototípust fejlesztettek ki a SmartSkin interaktív asztalként és gesztusfelismerő padként való használatára. A második prototípus az előbbihez képest finomabb hálót használt, hogy pontosabban fel tudja térképezni az ujjak koordinátáit. Összességében a technológia célja az volt, hogy a virtuális tárgyak valóságos érzetét nyújtsa, lényegében megismételve azt, ahogyan az emberek az ujjaikat használják a tárgyak felvételére és manipulálására.
2002-2004: Sikertelen táblagépek és a Microsoft Research TouchLight
A multitouch technológia küzdött a mainstreamben, speciális eszközökben jelent meg, de soha nem tudott igazán nagy áttörést elérni. Az egyik majdnem bekövetkezett 2002-ben, amikor a kanadai székhelyű DSI Datotech kifejlesztette a HandGear + GRT eszközt (a “GRT” rövidítés az eszköz gesztusfelismerő technológiájára utalt). Az eszköz többpontos érintőpadja kicsit úgy működött, mint a fent említett iGesture pad, mivel képes volt felismerni a különböző gesztusokat, és lehetővé tette a felhasználók számára, hogy beviteli eszközként használják a számítógépük vezérlésére. “Egészen biztosak akartunk lenni abban, hogy a HandGear könnyen használható legyen” – mondta Tim Heaney marketing alelnök a sajtóközleményben. “Ezért a technológiát úgy terveztük, hogy olyan kéz- és ujjmozdulatokat ismerjen fel, amelyek teljesen természetesek, vagyis intuitívak a felhasználó számára, legyen az bal- vagy jobbkezes. Egy rövid tanulási időszak után szó szerint az adott munkára tudnak koncentrálni, nem pedig arra, hogy mit csinálnak az ujjak.”
A HandGear azt is lehetővé tette a felhasználók számára, hogy valós időben “megragadjanak” háromdimenziós tárgyakat, tovább bővítve a szabadság és a termelékenység gondolatát a tervezési folyamatban. A vállalat még az API-t is elérhetővé tette a fejlesztők számára az AutoDesk-en keresztül. Sajnos, ahogy Buxton a multitouchról szóló áttekintésében említi, a cégnek elfogyott a pénze, mielőtt a termékük kiszállításra került volna, és a DSI bezárta kapuit.
Két évvel később Andrew D. Wilson, a Microsoft Research munkatársa kifejlesztett egy gesztusalapú képalkotó érintőképernyőt és 3D kijelzőt. A TouchLight egy hátrafelé vetített kijelzőt használt, hogy egy akril műanyag lapot interaktív felületté alakítson át. A kijelző több felhasználó több ujját és kezét is érzékelte, és 3D képességei miatt rögtönzött tükörként is használható volt.
A TouchLight ügyes technológiai bemutató volt, és végül az Eon Realitynek adtak licencet a gyártásra, mielőtt a technológia túl drágának bizonyult ahhoz, hogy fogyasztói eszközbe csomagolják. A Microsoftnak azonban nem ez lett volna az egyetlen kitérője a divatos multitouch kijelzőtechnológiára.
2006: Multitouch-érzékelés “frusztrált teljes belső visszaverődéssel”
2006-ban Jeff Han a kaliforniai Montereyben tartott TED-konferencián mutatta be először nyilvánosan intuitív, interfész nélküli, érintésvezérelt számítógépes képernyőjét. Előadásában Han egy óriási fénydobozon fényképeket mozgatott és manipulált, csupán az ujjbegyeit használva. Fényképeket pattintgatott, kinyújtotta és elcsípte őket, mindezt magával ragadóan természetes könnyedséggel. “Ez olyasmi, amit a Google-nek az előcsarnokában kellene elhelyeznie” – viccelődött. A bemutató megmutatta, hogy nagy felbontású, skálázható érintőképernyőt lehet építeni anélkül, hogy túl sok pénzt kellene költeni.”
Han felfedezte, hogy a “robusztus” multitouch-érzékelés a “frusztrált teljes belső reflexió” (FTIR) segítségével lehetséges, amely az ujjlenyomat-képalkotáshoz használt, a biometrikus közösségből származó technika. Az FTIR úgy működik, hogy egy akril- vagy plexiüvegdarabon keresztül fényt világítanak át. A fény (általában infravörös fényt használnak) előre-hátra pattog az akril felső és alsó része között. Amikor egy ujj hozzáér a felülethez, a sugarak az ujj helyére eső perem körül szóródnak, innen ered a “frusztrált” kifejezés. A keletkező képek fehér pacáknak tűnnek, és egy infravörös kamera veszi fel őket. A számítógép elemzi, hogy hol érintkezik az ujj, hogy megjelölje a helyét, és hozzárendeljen egy koordinátát. A szoftver ezután képes elemezni a koordinátákat, hogy elvégezzen egy bizonyos feladatot, például átméretezze vagy elforgassa az objektumokat.