Dai display touch al Surface: Una breve storia della tecnologia touchscreen

Aurich Lawson / Thinkstock

È difficile credere che solo pochi decenni fa la tecnologia touchscreen si trovasse solo nei libri e nei film di fantascienza. Al giorno d’oggi, è quasi imperscrutabile come una volta riuscissimo a svolgere le nostre attività quotidiane senza un fidato tablet o smartphone nelle vicinanze, ma non finisce qui. I touchscreen sono davvero ovunque. Case, auto, ristoranti, negozi, aerei, ovunque – riempiono le nostre vite in spazi pubblici e privati.

Ci sono volute generazioni e diversi grandi progressi tecnologici per raggiungere questo tipo di presenza. Anche se la tecnologia alla base dei touchscreen può essere fatta risalire agli anni ’40, ci sono molte prove che suggeriscono che i touchscreen non erano fattibili almeno fino al 1965. I programmi televisivi di fantascienza popolare come Star Trek non facevano nemmeno riferimento a questa tecnologia fino al debutto di Star Trek: The Next Generation nel 1987, quasi due decenni dopo che la tecnologia touchscreen era considerata possibile. Ma la loro inclusione nella serie era parallela ai progressi nel mondo della tecnologia, e alla fine degli anni ’80, i touchscreen sembravano finalmente essere abbastanza realistici che i consumatori potevano effettivamente impiegare la tecnologia nelle loro case.

Vedi di più

Questo articolo è il primo di una serie in tre parti sul viaggio della tecnologia touchscreen dalla finzione alla realtà. I primi tre decenni del touch sono importanti per riflettere per apprezzare davvero la tecnologia multitouch a cui siamo così abituati oggi. Oggi guarderemo quando queste tecnologie sono sorte per la prima volta e chi le ha introdotte, oltre a discutere di molti altri pionieri che hanno avuto un ruolo importante nel far progredire il touch. Le voci future di questa serie studieranno come i cambiamenti nei display touch hanno portato a dispositivi essenziali per la nostra vita di oggi e dove la tecnologia potrebbe portarci in futuro. Ma prima, mettiamo il dito sullo schermo e viaggiamo fino agli anni ’60.

1960: Il primo touchscreen

Johnson, 1967

Gli storici considerano generalmente che il primo touchscreen azionato dal dito sia stato inventato da E.A. Johnson nel 1965 al Royal Radar Establishment di Malvern, Regno Unito. Johnson ha originariamente descritto il suo lavoro in un articolo intitolato “Touch display – un nuovo dispositivo di input/output per computer” pubblicato su Electronics Letters. Il pezzo presentava un diagramma che descriveva un tipo di meccanismo touchscreen che molti smartphone usano oggi, quello che ora conosciamo come touch capacitivo. Due anni dopo, Johnson ha approfondito ulteriormente la tecnologia con fotografie e diagrammi in “Touch Displays: A Programmed Man-Machine Interface”, pubblicato su Ergonomics nel 1967.

Come funzionano i touchscreen capacitivi.

Un pannello touchscreen capacitivo utilizza un isolante, come il vetro, che è rivestito con un conduttore trasparente come l’ossido di indio-stagno (ITO). La parte “conduttiva” è di solito un dito umano, che fa da sottile conduttore elettrico. La tecnologia iniziale di Johnson poteva elaborare solo un tocco alla volta, e quello che oggi descriveremmo come “multitouch” era ancora un po’ lontano. L’invenzione era anche binaria nella sua interpretazione del tocco: l’interfaccia registrava il contatto o non lo registrava. La sensibilità alla pressione sarebbe arrivata molto più tardi.

Anche senza le caratteristiche extra, la prima idea dell’interfaccia tattile aveva alcuni acquirenti. La scoperta di Johnson fu infine adottata dai controllori del traffico aereo nel Regno Unito e rimase in uso fino alla fine degli anni ’90.

1970: Vengono inventati i touchscreen resistivi

Anche se i touchscreen capacitivi furono progettati per primi, furono eclissati nei primi anni del touch dai touchscreen resistivi. L’inventore americano Dr. G. Samuel Hurst sviluppò i touchscreen resistivi quasi accidentalmente. Il Berea College Magazine for alumni lo descrisse così:

Per studiare la fisica atomica il team di ricerca usava un acceleratore Van de Graff sovraccarico di lavoro che era disponibile solo di notte. Analisi noiose rallentavano la loro ricerca. Sam pensò a un modo per risolvere il problema. Lui, Parks e Thurman Stewart, un altro studente di dottorato, usarono carta elettricamente conduttiva per leggere una coppia di coordinate x e y. Quell’idea portò al primo touch screen per un computer. Con questo prototipo, i suoi studenti potevano calcolare in poche ore ciò che altrimenti avrebbe richiesto giorni di lavoro.

Hurst e il team di ricerca avevano lavorato all’Università del Kentucky. L’università cercò di depositare un brevetto a suo nome per proteggere questa invenzione accidentale dalla duplicazione, ma le sue origini scientifiche facevano sembrare che non fosse così applicabile al di fuori del laboratorio.

Hurst, tuttavia, aveva altre idee. “Ho pensato che potesse essere utile per altre cose”, ha detto nell’articolo. Nel 1970, dopo essere tornato a lavorare all’Oak Ridge National Laboratory (ORNL), Hurst iniziò un esperimento fuori orario. Nel suo seminterrato, Hurst e nove amici provenienti da varie altre aree di competenza si misero a perfezionare ciò che era stato accidentalmente inventato. Il gruppo chiamò la sua impresa nascente “Elographics”, e il team scoprì che un touchscreen su un monitor di computer era un eccellente metodo di interazione. Tutto ciò di cui lo schermo aveva bisogno era un foglio di copertura conduttivo per entrare in contatto con il foglio che conteneva gli assi X e Y. La pressione sul foglio di copertura permetteva il flusso di tensione tra i fili X e Y, che poteva essere misurato per indicare le coordinate. Questa scoperta ha contribuito a fondare quella che oggi chiamiamo tecnologia touch resistiva (perché risponde puramente alla pressione piuttosto che alla conduttività elettrica, funzionando sia con uno stilo che con un dito).

Pubblicità

Come classe di tecnologia, i touchscreen resistivi tendono ad essere molto accessibili da produrre. La maggior parte dei dispositivi e delle macchine che utilizzano questa tecnologia touch si trovano in ristoranti, fabbriche e ospedali perché sono abbastanza durevoli per questi ambienti. I produttori di smartphone hanno anche usato touchscreen resistivi in passato, anche se la loro presenza nello spazio mobile oggi tende ad essere limitata ai telefoni di fascia bassa.

Un touchscreen curvo AccuTouch di seconda generazione di EloTouch.

Elographics non si è limitata solo al touch resistivo, però. Il gruppo alla fine ha brevettato la prima interfaccia touch in vetro curvo. Il brevetto era intitolato “sensore elettrico di coordinate piane” e forniva dettagli su “un sensore elettrico economico di coordinate piane” che impiegava “fogli giustapposti di materiale conduttore con linee elettriche equipotenziali”. Dopo questa invenzione, Elographics fu venduta a “brava gente in California” e divenne EloTouch Systems.

Entro il 1971, erano state introdotte diverse macchine touch-capable, sebbene nessuna fosse sensibile alla pressione. Uno dei dispositivi touch-capable più usati all’epoca era il terminale PLATO IV dell’Università dell’Illinois, uno dei primi sistemi generalizzati di istruzione assistita dal computer. Il PLATO IV evitava il tocco capacitivo o resistivo in favore di un sistema a infrarossi (lo spiegheremo tra poco). Il PLATO IV fu il primo computer touchscreen ad essere usato in una classe che permetteva agli studenti di toccare lo schermo per rispondere alle domande.

Il terminale touchscreen PLATO IV.

anni ’80: Il decennio del touch

Uno dei primi diagrammi che rappresentano l’input multitouch.
Bill Buxton

Nel 1982, il primo dispositivo multitouch controllato dall’uomo fu sviluppato all’Università di Toronto da Nimish Mehta. Non era tanto un touchscreen quanto un touch-tablet. L’Input Research Group dell’università scoprì che un pannello di vetro smerigliato con una telecamera dietro di esso poteva rilevare l’azione riconoscendo i diversi “punti neri” che apparivano sullo schermo. Bill Buxton ha giocato un ruolo enorme nello sviluppo della tecnologia multitouch (in particolare con il PortfolioWall, di cui si parlerà più avanti), e ha ritenuto l’invenzione di Mehta abbastanza importante da includerla nella sua cronologia informale dei dispositivi di input del computer:

La superficie touch era un filtro di plastica traslucida montato su una lastra di vetro, illuminata lateralmente da una lampada fluorescente. Una videocamera era montata sotto la superficie tattile e catturava otticamente le ombre che apparivano sul filtro traslucido. (L’uscita della videocamera era digitalizzata e alimentata in un processore di segnali per l’analisi.

Poco dopo, l’interazione gestuale fu introdotta da Myron Krueger, un artista informatico americano che sviluppò un sistema ottico che poteva tracciare i movimenti della mano. Krueger introdusse Video Place (poi chiamato Video Desk) nel 1983, anche se stava lavorando al sistema dalla fine degli anni ’70. Utilizzava proiettori e videocamere per tracciare mani, dita e le persone a cui appartenevano. A differenza del multitouch, non era completamente consapevole di chi o cosa stava toccando, anche se il software poteva reagire a pose diverse. Il display rappresentava quelle che sembravano ombre in uno spazio simulato.

Bill Buxton presenta il PortfolioWall e dettaglia alcune delle sue capacità.

Anche se non era tecnicamente basato sul tocco – si basava sul “tempo di permanenza” prima di eseguire un’azione – Buxton lo considera come una delle tecnologie che “‘ha scritto il libro’ in termini di interazione gestuale ricca e non vincolata. Il lavoro era più di un decennio avanti rispetto al suo tempo ed è stato enormemente influente, eppure non è stato riconosciuto come dovrebbe”. Krueger fu anche il pioniere della realtà virtuale e dell’arte interattiva più tardi nella sua carriera.

Un diagramma (in spagnolo!) che descrive in dettaglio il funzionamento del Video Place.

I touchscreen iniziarono ad essere pesantemente commercializzati all’inizio degli anni ’80. HP (allora ancora formalmente conosciuta come Hewlett-Packard) si lanciò con l’HP-150 nel settembre del 1983. Il computer usava MS-DOS e presentava un Sony CRT da 9 pollici circondato da emettitori e rilevatori di infrarossi (IR) che potevano sentire dove il dito dell’utente scendeva sullo schermo. Il sistema costava circa 2.795 dollari, ma non fu immediatamente abbracciato perché aveva alcuni problemi di usabilità. Per esempio, puntare lo schermo avrebbe a sua volta bloccato altri raggi IR che potevano dire al computer dove il dito era puntato. Questo portava a quello che alcuni chiamavano “Gorilla Arm”, riferendosi all’affaticamento muscolare che derivava dal fatto che l’utente allungava la mano così a lungo.

Ingrandisci / L’HP-150 aveva MS-DOS e un touchscreen Sony CRT da 9 pollici.
Wikimedia Commons

Un anno dopo, la tecnologia multitouch fece un passo avanti quando Bob Boie dei Bell Labs sviluppò il primo schermo multitouch trasparente. Come Ars ha scritto l’anno scorso:

…il primo schermo multitouch è stato sviluppato ai Bell Labs nel 1984. riporta che lo schermo, creato da Bob Boie, “utilizzava un array capacitivo trasparente di sensori tattili sovrapposto a un CRT.” Permetteva all’utente di “manipolare oggetti grafici con le dita con un eccellente tempo di risposta.”

La scoperta ha contribuito a creare la tecnologia multitouch che usiamo oggi in tablet e smartphone.

anni ’90: Touchscreen per tutti!

Il Simon Personal Communicator di IBM: grande telefono, grande schermo e uno stilo per l’input tattile.
Android Authority

Nel 1993, IBM e BellSouth si unirono per lanciare il Simon Personal Communicator, uno dei primi cellulari con tecnologia touchscreen. Aveva capacità di paging, un’applicazione di e-mail e calendario, un’agenda di appuntamenti, una rubrica, una calcolatrice e un blocco da disegno a penna. Aveva anche un touchscreen resistivo che richiedeva l’uso di uno stilo per navigare attraverso i menu e per inserire i dati.

L’originale MessagePad 100.

Apple lanciò anche un dispositivo PDA touchscreen quell’anno: il Newton PDA. Anche se la piattaforma Newton era iniziata nel 1987, il MessagePad fu il primo della serie di dispositivi di Apple ad utilizzare la piattaforma. Come nota il Time, il CEO di Apple all’epoca, John Sculley, ha effettivamente coniato il termine “PDA” (o “personal digital assistant”). Come il Simon Personal Communicator di IBM, il MessagePad 100 aveva un software di riconoscimento della scrittura ed era controllato con uno stilo.

Le prime recensioni del MessagePad si concentrarono sulle sue utili caratteristiche. Una volta che è arrivato nelle mani dei consumatori, tuttavia, i suoi difetti sono diventati più evidenti. Il software di riconoscimento della scrittura non funzionava troppo bene, e il Newton non ha venduto molte unità. Questo non fermò Apple, però; l’azienda produsse il Newton per altri sei anni, finendo con l’MP2000.

Il primo Palm Pilot.
Wikimedia Commons

Tre anni dopo, Palm Computing seguì con il proprio PDA, soprannominato Pilot. Fu la prima delle molte generazioni di assistenti digitali personali dell’azienda. Come gli altri gadget touchscreen che lo hanno preceduto, il Palm 1000 e il Pilot 5000 richiedevano l’uso di uno stilo.

Il gadget PDA di Palm ebbe un po’ più successo delle offerte di IBM e Apple. Il suo nome divenne presto sinonimo della parola “business”, aiutato in parte dal fatto che il suo software di riconoscimento della scrittura funzionava molto bene. Gli utenti usavano quello che Palm chiamava “Graffiti” per inserire testo, numeri e altri caratteri. Era semplice da imparare e imitava il modo in cui una persona scrive su un pezzo di carta. Alla fine fu implementato sulla piattaforma Apple Newton.

Pubblicità

I dispositivi di tipo PDA non erano necessariamente dotati di touchscreen del tipo da dito a schermo a cui siamo abituati oggi, ma l’adozione da parte dei consumatori convinse le aziende che c’era abbastanza interesse a possedere questo tipo di dispositivo.

Verso la fine del decennio, lo studente laureato dell’Università del Delaware Wayne Westerman ha pubblicato una tesi di dottorato intitolata “Hand Tracking, Finger Identification, and Chordic Manipulation on a Multi-Touch Surface”. L’articolo descriveva in dettaglio i meccanismi alla base di quella che oggi conosciamo come tecnologia capacitiva multitouch, che è diventata una caratteristica fondamentale dei moderni dispositivi dotati di touchscreen.

Il pad iGesture prodotto da FingerWorks.

Westerman e il suo consulente di facoltà, John Elias, hanno infine formato una società chiamata FingerWorks. Il gruppo iniziò a produrre una linea di prodotti basati sui gesti multitouch, compresa una tastiera basata sui gesti chiamata TouchStream. Questo ha aiutato coloro che soffrivano di disabilità come lesioni da sforzo ripetitivo e altre condizioni mediche. Quell’anno fu rilasciato anche l’iGesture Pad, che permetteva di controllare lo schermo gesticolando e manovrando con una sola mano. FingerWorks fu infine acquisita da Apple nel 2005, e molti attribuiscono tecnologie come il Trackpad multitouch o il touchscreen dell’iPhone a questa acquisizione.

Gli anni 2000 e oltre

Con così tante tecnologie diverse accumulate nei decenni precedenti, gli anni 2000 furono il momento in cui le tecnologie touchscreen fiorirono davvero. Non copriremo troppi dispositivi specifici qui (ne parleremo meglio quando questa serie di touchscreen continuerà), ma ci sono stati progressi durante questo decennio che hanno aiutato a portare il multitouch e la tecnologia basata sui gesti alle masse. Gli anni 2000 sono stati anche l’era in cui i touchscreen sono diventati lo strumento preferito per la collaborazione nel design.

2001: Alias|Wavefront’s gesture-based PortfolioWall

Con l’avvicinarsi del nuovo millennio, le aziende versavano più risorse per integrare la tecnologia touchscreen nei loro processi quotidiani. Gli animatori e i designer 3D erano particolarmente presi di mira con l’avvento del PortfolioWall. Si trattava di un touchscreen di grande formato destinato ad essere una versione dinamica delle lavagne che gli studi di design usano per tenere traccia dei progetti. Anche se lo sviluppo è iniziato nel 1999, il PortfolioWall è stato presentato al SIGGRAPH nel 2001 ed è stato prodotto in parte da una collaborazione congiunta tra General Motors e il team di Alias|Wavefront. Buxton, che ora serve come ricercatore principale alla Microsoft Research, era il capo scienziato del progetto. “Stiamo abbattendo il muro e cambiando il modo in cui le persone comunicano efficacemente sul posto di lavoro e fanno affari”, ha detto allora. “L’interfaccia gestuale di PortfolioWall permette agli utenti di interagire completamente con un asset digitale. Guardare le immagini ora diventa facilmente parte di un flusso di lavoro quotidiano.”

Bill Buxton presenta il PortfolioWall e dettaglia alcune delle sue capacità.

Il PortfolioWall usava un’interfaccia semplice, facile da usare, basata sui gesti. Permetteva agli utenti di ispezionare e manovrare immagini, animazioni e file 3D solo con le dita. Era anche facile scalare le immagini, recuperare modelli 3D e riprodurre video. Una versione successiva ha aggiunto l’annotazione di schizzi e testo, la capacità di lanciare applicazioni di terze parti, e uno strumento di visualizzazione 3D basato su Maya per usare la panoramica, la rotazione, lo zoom e la visualizzazione per i modelli 3D. Per la maggior parte, il prodotto era considerato una lavagna digitale per professioni incentrate sul design. Costava anche 38.000 dollari per installare l’intero set – 3.000 dollari per il presentatore stesso e 35.000 dollari per il server.

Il PortfolioWall permetteva ai designer di visualizzare modelli 3D in scala reale.

Il PortfolioWall affrontava anche il fatto che mentre i mezzi tradizionali come i modelli in argilla e i disegni a grandezza naturale erano ancora importanti per il processo di progettazione, essi venivano lentamente aumentati dagli strumenti digitali. Il dispositivo includeva componenti aggiuntivi che emulavano virtualmente quei mezzi tangibili e serviva come strumento di presentazione per i designer per mostrare il loro lavoro in corso.

Un’altra attrazione principale del PortfolioWall era il suo “server di consapevolezza”, che aiutava a facilitare la collaborazione attraverso una rete in modo che i team non dovessero essere nella stessa stanza per rivedere un progetto. Le squadre potevano avere più pareti in spazi diversi e ancora collaborare a distanza.

Pubblicità

Il PortfolioWall è stato infine messo a riposo nel 2008, ma era un primo esempio di come i gesti che interagiscono con il touchscreen potrebbero aiutare a controllare un intero sistema operativo.

2002: Mutual capacitive sensing in Sony’s SmartSkin

Utilizzando il Sony SmartSkin.

Nel 2002, Sony introdusse una superficie di input piatta che poteva riconoscere più posizioni della mano e punti di contatto allo stesso tempo. L’azienda la chiamò SmartSkin. La tecnologia funzionava calcolando la distanza tra la mano e la superficie con il rilevamento capacitivo e un’antenna a forma di maglia. A differenza del sistema di riconoscimento dei gesti basato su telecamera in altre tecnologie, gli elementi di rilevamento erano tutti integrati nella superficie di contatto. Questo significava anche che non avrebbe funzionato male in condizioni di scarsa illuminazione. L’obiettivo finale del progetto era quello di trasformare le superfici che vengono utilizzate ogni giorno, come il vostro tavolo medio o un muro, in una superficie interattiva con l’uso di un PC nelle vicinanze. Tuttavia, la tecnologia ha fatto di più per la tecnologia touch capacitiva di quanto non fosse previsto, compresa l’introduzione di più punti di contatto.

Come la SmartSkin ha rilevato i gesti.
Sony Computer Science Laboratories, Inc.

Jun Rekimoto dell’Interaction Laboratory nei Computer Science Laboratories di Sony ha notato i vantaggi di questa tecnologia in un whitepaper. Ha detto che le tecnologie come SmartSkin offrono “un supporto naturale per operazioni con più mani e più utenti”. Più di due utenti possono toccare contemporaneamente la superficie senza alcuna interferenza. Sono stati sviluppati due prototipi per mostrare la SmartSkin usata come un tavolo interattivo e un pad per il riconoscimento dei gesti. Il secondo prototipo ha usato una maglia più fine rispetto al primo, in modo da poter mappare le coordinate più precise delle dita. Nel complesso, la tecnologia aveva lo scopo di offrire una sensazione del mondo reale di oggetti virtuali, ricreando essenzialmente il modo in cui gli esseri umani usano le dita per prendere gli oggetti e manipolarli.

2002-2004: Tablet falliti e Microsoft Research’s TouchLight

Un dispositivo di input per tablet multitouch chiamato HandGear.
Bill Buxton

La tecnologia multitouch ha lottato nel mainstream, apparendo in dispositivi speciali ma senza mai ottenere un grande successo. Una quasi arrivata nel 2002, quando la canadese DSI Datotech sviluppò il dispositivo HandGear + GRT (l’acronimo “GRT” si riferiva alla tecnologia di riconoscimento dei gesti del dispositivo). Il touchpad multipoint del dispositivo funzionava un po’ come il già citato iGesture pad, in quanto poteva riconoscere vari gesti e permettere agli utenti di usarlo come dispositivo di input per controllare i loro computer. “Volevamo essere sicuri che HandGear fosse facile da usare”, ha detto il vicepresidente del marketing Tim Heaney in un comunicato stampa. “Così la tecnologia è stata progettata per riconoscere i movimenti della mano e delle dita che sono completamente naturali, o intuitivi, per l’utente, sia che sia mancino o destro. Dopo un breve periodo di apprendimento, sono letteralmente in grado di concentrarsi sul lavoro a portata di mano, piuttosto che su ciò che le dita stanno facendo.”

HandGear ha anche permesso agli utenti di “afferrare” oggetti tridimensionali in tempo reale, estendendo ulteriormente questa idea di libertà e produttività nel processo di progettazione. L’azienda ha anche reso l’API disponibile per gli sviluppatori tramite AutoDesk. Sfortunatamente, come Buxton menziona nella sua panoramica sul multitouch, l’azienda finì i soldi prima che il loro prodotto fosse spedito e DSI chiuse i battenti.

Andy Wilson spiega la tecnologia dietro il TouchLight.

Due anni dopo, Andrew D. Wilson, un dipendente della Microsoft Research, ha sviluppato un touchscreen e un display 3D basato sui gesti. Il TouchLight usava un display a retroproiezione per trasformare un foglio di plastica acrilica in una superficie interattiva. Il display poteva percepire più dita e mani di più di un utente, e a causa delle sue capacità 3D, poteva anche essere usato come uno specchio improvvisato.

Il TouchLight è stato una dimostrazione di tecnologia pulita, e alla fine è stato dato in licenza per la produzione a Eon Reality prima che la tecnologia si rivelasse troppo costosa per essere confezionata in un dispositivo di consumo. Tuttavia, questa non sarebbe stata l’unica incursione di Microsoft nella tecnologia di visualizzazione multitouch di fantasia.

2006: Multitouch sensing through “frustrated total internal reflection”

Jeff Han

Nel 2006, Jeff Han ha dato la prima dimostrazione pubblica del suo schermo intuitivo, senza interfaccia, guidato dal tocco del computer ad una conferenza TED a Monterey, CA. Nella sua presentazione, Han ha spostato e manipolato delle foto su una scatola luminosa gigante usando solo la punta delle dita. Ha sfogliato le foto, le ha allungate e le ha pizzicate, il tutto con una facilità naturale accattivante. “Questo è qualcosa che Google dovrebbe avere nella sua lobby”, ha scherzato. La demo ha mostrato che un touchscreen ad alta risoluzione e scalabile era possibile da costruire senza spendere troppi soldi.

Un diagramma del rilevamento multitouch di Jeff Han usato FTIR.
Jeff Han

Han aveva scoperto che il “robusto” rilevamento multitouch era possibile usando la “riflessione interna totale frustrata” (FTIR), una tecnica della comunità biometrica usata per l’imaging delle impronte digitali. La FTIR funziona facendo brillare la luce attraverso un pezzo di acrilico o plexiglass. La luce (l’infrarosso è comunemente usato) rimbalza avanti e indietro tra la parte superiore e inferiore dell’acrilico mentre viaggia. Quando un dito tocca la superficie, i raggi si disperdono intorno al bordo dove il dito è posizionato, da qui il termine “frustrato”. Le immagini che si generano hanno l’aspetto di macchie bianche e sono riprese da una telecamera a infrarossi. Il computer analizza dove il dito sta toccando per segnare il suo posizionamento e assegnare una coordinata. Il software può poi analizzare le coordinate per eseguire un certo compito, come ridimensionare o ruotare gli oggetti.

Jeff Han dimostra il suo nuovo schermo touch-driven “senza interfaccia”.

Dopo che la conferenza TED è diventata un successo su YouTube, Han ha lanciato una startup chiamata Perceptive Pixel. Un anno dopo il discorso, ha detto a Wired che il suo prodotto multitouch non aveva ancora un nome. E anche se ha avuto alcuni clienti interessati, Han ha detto che erano tutti “clienti di fascia alta. Per lo più la difesa.”

L’anno scorso, Hann ha venduto la sua azienda a Microsoft nel tentativo di rendere la tecnologia più mainstream e accessibile ai consumatori. “La nostra azienda ha sempre riguardato i casi d’uso della produttività”, ha detto Han a AllThingsD. “Ecco perché ci siamo sempre concentrati su questi display più grandi. Office è ciò a cui la gente pensa quando pensa alla produttività.

2008: Microsoft Surface

Prima che ci fosse un tablet da 10 pollici, il nome “Surface” si riferiva al touchscreen grafico di fascia alta di Microsoft, originariamente costruito all’interno di un vero tavolo IKEA con un buco nella parte superiore. Anche se è stato dimostrato al pubblico nel 2007, l’idea è nata nel 2001. I ricercatori di Redmond hanno immaginato una superficie di lavoro interattiva che i colleghi potessero usare per manipolare gli oggetti avanti e indietro. Per molti anni, il lavoro è stato nascosto dietro un accordo di non divulgazione. Ci sono voluti 85 prototipi prima che Surface 1.0 fosse pronto a partire.

Come ha scritto Ars nel 2007, il Microsoft Surface era essenzialmente un computer incorporato in un tavolo di medie dimensioni, con un grande display piatto in cima. L’immagine dello schermo era retroproiettata sulla superficie del display dall’interno del tavolo, e il sistema rilevava dove l’utente toccava lo schermo attraverso telecamere montate all’interno del tavolo che guardavano in alto verso l’utente. Mentre le dita e le mani interagivano con ciò che era sullo schermo, il software del Surface tracciava i punti di contatto e attivava le azioni corrette. Il Surface poteva riconoscere diversi punti di contatto alla volta, così come oggetti con piccoli adesivi “domino” attaccati su di essi. Più tardi nel suo ciclo di sviluppo, il Surface acquisì anche la capacità di identificare i dispositivi tramite RFID.

Bill Gates dimostra il Microsoft Surface.

Il Surface originale fu presentato alla conferenza All Things D nel 2007. Anche se molti dei suoi concetti di design non erano nuovi, ha illustrato molto efficacemente il caso d’uso del mondo reale per i touchscreen integrati in qualcosa delle dimensioni di un tavolino. Microsoft ha poi portato il Surface da 30 pollici per dimostrarlo al CES 2008, ma l’azienda ha detto esplicitamente che si rivolgeva allo “spazio di intrattenimento al dettaglio”. Surface è stato progettato principalmente per l’uso da parte dei clienti commerciali di Microsoft per dare ai consumatori un assaggio dell’hardware. L’azienda ha collaborato con diversi grandi nomi di hotel, come Starwood e Harrah’s Casino, per mostrare la tecnologia nelle loro lobby. Aziende come AT&T hanno usato il Surface per mostrare gli ultimi telefoni ai consumatori che entrano nei loro punti vendita in mattoni e malta.

Surface al CES 2008.

Piuttosto che riferirsi ad esso come un’interfaccia grafica utente (GUI), Microsoft ha denotato l’interfaccia del Surface come interfaccia utente naturale, o “NUI”. La frase suggeriva che la tecnologia si sarebbe sentita quasi istintiva per l’utente finale umano, naturale come interagire con qualsiasi tipo di oggetto tangibile nel mondo reale. La frase si riferiva anche al fatto che l’interfaccia era guidata principalmente dal tocco dell’utente piuttosto che dai dispositivi di input. (Inoltre, NUI-“new-ey”- ha reso l’acronimo scattante e adatto al marketing.)

Microsoft presenta il Samsung SUR40.

Nel 2011, Microsoft si è associata con produttori come Samsung per produrre un hardware Surface più elegante e più recente. Per esempio, il Samsung SUR40 ha un LED da 40 pollici 1080p, e ha ridotto drasticamente la quantità di spazio interno richiesto per i meccanismi di rilevamento del tocco. A 22 pollici di spessore, era più sottile dei suoi predecessori, e la riduzione delle dimensioni ha reso possibile montare il display su una parete piuttosto che richiedere un tavolo per ospitare la fotocamera e i sensori. Costava circa 8.400 dollari al momento del lancio ed eseguiva Windows 7 e il software Surface 2.0.

Microsoft

L’anno scorso, la società ha ribattezzato la tecnologia come PixelSense una volta che Microsoft ha introdotto il suo tablet Surface non collegato ai consumatori. Il nome “PixelSense” si riferisce al modo in cui la tecnologia funziona: un vetro di protezione sensibile al tocco è posto sopra una retroilluminazione a infrarossi. Quando colpisce il vetro, la luce viene riflessa ai sensori integrati, che convertono quella luce in un segnale elettrico. Quel segnale viene chiamato “valore”, e quei valori creano un’immagine di ciò che è sul display. L’immagine viene poi analizzata utilizzando tecniche di elaborazione delle immagini, e l’output viene inviato al computer a cui è collegato.

PixelSense ha quattro componenti principali che costituiscono la sua tecnologia: non richiede un mouse e una tastiera per funzionare, più di un utente può interagire con esso in una sola volta, può riconoscere alcuni oggetti posti sul vetro, e dispone di più punti di contatto. Il nome PixelSense potrebbe anche essere attribuito a quest’ultima parte in particolare – ogni pixel può effettivamente percepire se c’è stato o meno un contatto tattile.

Pubblicità

Anche se sarebbe un fantastico complemento da salotto, Microsoft continua a commercializzare l’hardware Surface come uno strumento di lavoro piuttosto che un prodotto di consumo.

Touch oggi e domani?

Non si può sottovalutare: ciascuna di queste tecnologie ha avuto un impatto monumentale sui gadget che usiamo oggi. Tutto, dai nostri smartphone ai trackpad dei laptop e ai tablet WACOM, può essere in qualche modo collegato alle molte invenzioni, scoperte e brevetti nella storia della tecnologia touchscreen. Gli utenti Android e iOS dovrebbero ringraziare E.A. Johnson per gli smartphone con capacità tattile capacitiva, mentre i ristoranti potrebbero mandare i loro saluti al Dr. G. Samuel Hurst per il touchscreen resistivo sul loro sistema POS (Point of Sale).

Nella prossima parte della nostra serie, ci immergeremo più a fondo sui dispositivi di oggi. (In che modo il lavoro di FingerWorks ha influenzato questi iDevices?) Ma la storia non è finita nemmeno con il 2011. Discuteremo anche di come alcuni degli attuali attori principali, come Apple e Samsung, continuano a contribuire all’evoluzione dei gadget touchscreen. Non fate scorrere il dito, rimanete sintonizzati!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.