Il est difficile de croire qu’il y a seulement quelques décennies, la technologie des écrans tactiles ne pouvait être trouvée que dans les livres et les films de science-fiction. De nos jours, il est presque insondable de penser que nous avons pu accomplir nos tâches quotidiennes sans avoir une tablette ou un smartphone à portée de main, mais cela ne s’arrête pas là. Les écrans tactiles sont vraiment partout. Maisons, voitures, restaurants, magasins, avions, partout – ils remplissent nos vies dans les espaces publics et privés.
Il a fallu des générations et plusieurs avancées technologiques majeures pour que les écrans tactiles atteignent ce type de présence. Bien que la technologie sous-jacente aux écrans tactiles remonte aux années 1940, de nombreuses preuves suggèrent que les écrans tactiles n’étaient pas réalisables avant au moins 1965. Les émissions de science-fiction populaires comme Star Trek n’ont même pas fait référence à cette technologie avant le lancement de Star Trek : The Next Generation en 1987, soit près de deux décennies après que la technologie des écrans tactiles ait été jugée possible. Mais leur inclusion dans la série a été parallèle aux avancées dans le monde de la technologie, et à la fin des années 1980, les écrans tactiles sont finalement apparus suffisamment réalistes pour que les consommateurs puissent réellement employer la technologie dans leurs propres maisons.
Cet article est le premier d’une série en trois parties sur le parcours de la technologie tactile entre réalité et fiction. Il est important de réfléchir aux trois premières décennies du tactile afin de vraiment apprécier la technologie multitouch à laquelle nous sommes si habitués aujourd’hui. Aujourd’hui, nous examinerons la date à laquelle ces technologies sont apparues et qui les a introduites, et nous évoquerons plusieurs autres pionniers qui ont joué un rôle important dans l’évolution du tactile. Les prochains articles de cette série étudieront comment les évolutions des écrans tactiles ont abouti à des dispositifs essentiels pour notre vie actuelle et où cette technologie pourrait nous mener à l’avenir. Mais d’abord, mettons le doigt sur l’écran et voyageons dans les années 1960.
- Années 1960 : Le premier écran tactile
- Années 1970 : Les écrans tactiles résistifs sont inventés
- 1980s : La décennie du tactile
- Années 1990 : Des écrans tactiles pour tous !
- Les années 2000 et au-delà
- 2001 : Alias|Wavefront’s gesture-based PortfolioWall
- 2002 : Détection capacitive mutuelle dans le SmartSkin de Sony
- 2002-2004 : Échec des tablettes et du TouchLight de Microsoft Research
- 2006 : Détection multitouch par « réflexion interne totale frustrée »
- 2008 : Microsoft Surface
- Le toucher aujourd’hui-et demain?
Années 1960 : Le premier écran tactile
Les historiens considèrent généralement que le premier écran tactile commandé par le doigt a été inventé par E.A. Johnson en 1965 au Royal Radar Establishment de Malvern, au Royaume-Uni. Johnson a initialement décrit son travail dans un article intitulé « Touch display-a novel input/output device for computers » publié dans Electronics Letters. L’article présentait un diagramme décrivant un type de mécanisme d’écran tactile que de nombreux smartphones utilisent aujourd’hui – ce que nous connaissons maintenant sous le nom d’écran tactile capacitif. Deux ans plus tard, Johnson a approfondi cette technologie à l’aide de photographies et de diagrammes dans « Touch Displays : A Programmed Man-Machine Interface », publié dans Ergonomics en 1967.
Un panneau tactile capacitif utilise un isolant, comme le verre, qui est recouvert d’un conducteur transparent comme l’oxyde d’étain et d’indium (ITO). La partie « conductrice » est généralement un doigt humain, qui constitue un conducteur électrique fin. La technologie initiale de Johnson ne pouvait traiter qu’un seul toucher à la fois, et ce que nous décririons aujourd’hui comme le « multitouch » était encore loin. L’invention était également binaire dans son interprétation du toucher – l’interface enregistrait le contact ou ne l’enregistrait pas. La sensibilité à la pression arriverait bien plus tard.
Même sans les fonctionnalités supplémentaires, l’idée de l’interface tactile précoce avait quelques preneurs. La découverte de Johnson a finalement été adoptée par les contrôleurs aériens au Royaume-Uni et est restée en usage jusqu’à la fin des années 1990.
Années 1970 : Les écrans tactiles résistifs sont inventés
Bien que les écrans tactiles capacitifs aient été conçus en premier, ils ont été éclipsés dans les premières années du tactile par les écrans tactiles résistifs. L’inventeur américain Dr G. Samuel Hurst a développé les écrans tactiles résistifs presque accidentellement. Le magazine du Berea College destiné aux anciens élèves l’a décrit ainsi :
Pour étudier la physique atomique, l’équipe de recherche utilisait un accélérateur Van de Graff surchargé qui n’était disponible que la nuit. Des analyses fastidieuses ralentissaient leurs recherches. Sam a pensé à un moyen de résoudre ce problème. Lui, Parks et Thurman Stewart, un autre doctorant, ont utilisé du papier conducteur d’électricité pour lire une paire de coordonnées x- et y-. Cette idée a donné naissance au premier écran tactile pour ordinateur. Avec ce prototype, ses étudiants pouvaient calculer en quelques heures ce qui aurait autrement pris des jours à accomplir.
Hurst et l’équipe de recherche avaient travaillé à l’Université du Kentucky. L’université a essayé de déposer un brevet en son nom pour protéger cette invention accidentelle de la duplication, mais ses origines scientifiques laissaient penser qu’elle n’était pas tellement applicable en dehors du laboratoire.
Hurst, cependant, avait d’autres idées. « Je pensais que cela pourrait être utile pour d’autres choses », a-t-il déclaré dans l’article. En 1970, après avoir repris son travail au Oak Ridge National Laboratory (ORNL), Hurst a commencé une expérience après les heures de travail. Dans son sous-sol, Hurst et neuf amis issus de divers domaines d’expertise ont entrepris de perfectionner ce qui avait été accidentellement inventé. Le groupe a baptisé son entreprise naissante « Elographics » et a découvert qu’un écran tactile sur un moniteur d’ordinateur constituait une excellente méthode d’interaction. Tout ce dont l’écran avait besoin, c’était d’une feuille de couverture conductrice pour entrer en contact avec la feuille qui contenait les axes X et Y. La pression exercée sur la feuille de couverture permettait à une tension d’entrer en contact avec l’écran. La pression exercée sur la feuille de couverture permettait de faire circuler une tension entre les fils X et Y, qui pouvait être mesurée pour indiquer les coordonnées. Cette découverte a contribué à fonder ce que nous appelons aujourd’hui la technologie tactile résistive (car elle répond purement à la pression plutôt qu’à la conductivité électrique, fonctionnant à la fois avec un stylet et un doigt).
En tant que classe de technologie, les écrans tactiles résistifs ont tendance à être très abordables à produire. La plupart des appareils et des machines utilisant cette technologie tactile peuvent être trouvés dans les restaurants, les usines et les hôpitaux, car ils sont assez durables pour ces environnements. Les fabricants de smartphones ont également utilisé des écrans tactiles résistifs dans le passé, bien que leur présence dans l’espace mobile aujourd’hui tende à se limiter aux téléphones bas de gamme.
Elographics ne s’est pas cantonné au tactile résistif, cependant. Le groupe a fini par breveter la première interface tactile en verre incurvé. Le brevet était intitulé « capteur électrique de coordonnées planes » et fournissait des détails sur « un capteur électrique peu coûteux de coordonnées planes » qui utilisait « des feuilles juxtaposées de matériau conducteur ayant des lignes équipotentielles électriques ». Après cette invention, Elographics a été vendu à « de bonnes gens en Californie » et est devenu EloTouch Systems.
En 1971, un certain nombre de différentes machines tactiles avaient été introduites, bien qu’aucune ne soit sensible à la pression. L’un des appareils tactiles les plus utilisés à l’époque était le terminal PLATO IV de l’Université de l’Illinois – l’un des premiers systèmes généralisés d’enseignement assisté par ordinateur. Le PLATO IV a renoncé à la technologie tactile capacitive ou résistive au profit d’un système infrarouge (nous l’expliquerons plus loin). Le PLATO IV a été le premier ordinateur à écran tactile à être utilisé dans une salle de classe qui permettait aux élèves de toucher l’écran pour répondre aux questions.
1980s : La décennie du tactile
En 1982, le premier dispositif multitouch contrôlé par l’homme a été développé à l’Université de Toronto par Nimish Mehta. Il ne s’agissait pas tant d’un écran tactile que d’une tablette tactile. Le groupe de recherche sur les entrées (Input Research Group) de l’université a découvert qu’un panneau en verre dépoli avec une caméra derrière lui pouvait détecter une action en reconnaissant les différents « points noirs » apparaissant à l’écran. Bill Buxton a joué un rôle énorme dans le développement de la technologie multitouch (notamment avec le PortfolioWall, dont nous parlerons un peu plus tard), et il a jugé l’invention de Mehta suffisamment importante pour l’inclure dans sa chronologie informelle des périphériques d’entrée des ordinateurs :
La surface tactile était un filtre en plastique translucide monté sur une feuille de verre, éclairé latéralement par une lampe fluorescente. Une caméra vidéo était montée sous la surface tactile, et capturait optiquement les ombres qui apparaissaient sur le filtre translucide. (Un miroir dans le boîtier était utilisé pour étendre le chemin optique.) La sortie de la caméra était numérisée et introduite dans un processeur de signaux pour analyse.
Peu après, l’interaction gestuelle a été introduite par Myron Krueger, un artiste informatique américain qui a développé un système optique capable de suivre les mouvements de la main. Krueger a présenté Video Place (appelé plus tard Video Desk) en 1983, bien qu’il ait travaillé sur ce système depuis la fin des années 1970. Il utilisait des projecteurs et des caméras vidéo pour suivre les mains, les doigts et les personnes auxquelles ils appartenaient. Contrairement au multitouch, il n’était pas entièrement conscient de qui ou de ce qui était touché, mais le logiciel pouvait réagir à différentes poses. L’écran représentait ce qui ressemblait à des ombres dans un espace simulé.
Bien qu’il ne soit pas techniquement tactile – il s’appuyait sur le « temps d’arrêt » avant d’exécuter une action – Buxton le considère comme l’une des technologies qui « ‘a écrit le livre’ en termes d’interaction gestuelle… riche et non encombrée ». Ce travail, en avance de plus d’une décennie sur son temps, a eu une influence considérable, mais n’est pas reconnu comme il le devrait. » Krueger a également été un pionnier de la réalité virtuelle et de l’art interactif plus tard dans sa carrière.
Les écrans tactiles ont commencé à être fortement commercialisés au début des années 1980. HP (alors encore officiellement connu sous le nom de Hewlett-Packard) a jeté son chapeau avec le HP-150 en septembre 1983. L’ordinateur utilisait MS-DOS et comportait un tube cathodique Sony de 9 pouces entouré d’émetteurs et de détecteurs infrarouges (IR) capables de détecter l’endroit où le doigt de l’utilisateur se posait sur l’écran. Le système coûtait environ 2 795 dollars, mais il n’a pas été immédiatement adopté en raison de certains problèmes d’utilisation. Par exemple, le fait de pointer l’écran bloquait à son tour d’autres rayons infrarouges qui pouvaient indiquer à l’ordinateur l’endroit où le doigt était pointé. Cela entraînait ce que certains appelaient le « Gorilla Arm », en référence à la fatigue musculaire qui provenait du fait que l’utilisateur tendait sa main pendant si longtemps.
Un an plus tard, la technologie multitouch a fait un pas en avant lorsque Bob Boie, des Bell Labs, a développé la première superposition d’écran multitouch transparente. Comme l’écrivait Ars l’année dernière :
…le premier écran multitouch a été développé aux Bell Labs en 1984. rapporte que l’écran, créé par Bob Boie, « utilisait un réseau capacitif transparent de capteurs tactiles superposé à un tube cathodique. » Il permettait à l’utilisateur de « manipuler des objets graphiques avec les doigts avec un excellent temps de réponse. »
Cette découverte a contribué à créer la technologie multitouch que nous utilisons aujourd’hui dans les tablettes et les smartphones.
Années 1990 : Des écrans tactiles pour tous !
En 1993, IBM et BellSouth se sont associés pour lancer le Simon Personal Communicator, l’un des premiers téléphones cellulaires dotés d’un écran tactile. Il était doté de fonctions de radiomessagerie, d’une application de courrier électronique et de calendrier, d’un agenda, d’un carnet d’adresses, d’une calculatrice et d’un carnet de croquis à base de stylo. Il possédait également un écran tactile résistif qui nécessitait l’utilisation d’un stylet pour naviguer dans les menus et saisir des données.
Apple a également lancé cette année-là un appareil PDA à écran tactile : le Newton PDA. Bien que la plate-forme Newton ait débuté en 1987, le MessagePad était le premier de la série d’appareils d’Apple à utiliser cette plate-forme. Comme le souligne le Time, c’est le PDG d’Apple de l’époque, John Sculley, qui a inventé le terme « PDA » (ou « assistant numérique personnel »). Comme le Simon Personal Communicator d’IBM, le MessagePad 100 était doté d’un logiciel de reconnaissance de l’écriture manuscrite et se contrôlait à l’aide d’un stylet.
Les premières critiques du MessagePad se concentraient sur ses fonctions utiles. Cependant, une fois qu’il est arrivé dans les mains des consommateurs, ses défauts sont devenus plus apparents. Le logiciel de reconnaissance de l’écriture manuscrite ne fonctionnait pas très bien, et le Newton ne s’est pas vendu à beaucoup d’exemplaires. Cela n’a pas arrêté Apple, cependant ; la société a fabriqué le Newton pendant six années supplémentaires, pour finir avec le MP2000.
Trois ans plus tard, Palm Computing a suivi le mouvement avec son propre PDA, surnommé le Pilot. Il s’agissait de la première des nombreuses générations d’assistants numériques personnels de la société. Comme les autres gadgets à écran tactile qui l’ont précédé, le Palm 1000 et le Pilot 5000 nécessitaient l’utilisation d’un stylet.
Le gadget PDA de Palm a eu un peu plus de succès que les offres d’IBM et d’Apple. Son nom est rapidement devenu synonyme du mot « affaires », aidé en partie par le fait que son logiciel de reconnaissance de l’écriture manuscrite fonctionnait très bien. Les utilisateurs utilisaient ce que Palm appelait « Graffiti » pour saisir du texte, des chiffres et d’autres caractères. Ce logiciel était simple à apprendre et imitait la façon dont une personne écrit sur une feuille de papier. Il a finalement été implémenté sur la plateforme Apple Newton.
Les appareils de type PDA ne comportaient pas nécessairement les écrans tactiles de type doigt-écran auxquels nous sommes habitués aujourd’hui, mais l’adoption par les consommateurs a convaincu les entreprises qu’il y avait suffisamment d’intérêt à posséder ce type d’appareil.
Vers la fin de la décennie, Wayne Westerman, étudiant diplômé de l’Université du Delaware, a publié une thèse de doctorat intitulée « Hand Tracking, Finger Identification, and Chordic Manipulation on a Multi-Touch Surface. » L’article détaillait les mécanismes derrière ce que nous connaissons aujourd’hui comme la technologie capacitive multitouch, qui est devenue une caractéristique de base des appareils modernes équipés d’écrans tactiles.
Westerman et le conseiller de sa faculté, John Elias, ont finalement formé une société appelée FingerWorks. Le groupe a commencé à produire une gamme de produits multitouch basés sur les gestes, notamment un clavier basé sur les gestes appelé TouchStream. Ces produits ont aidé les personnes souffrant de handicaps tels que les microtraumatismes répétés et d’autres problèmes médicaux. Le iGesture Pad est également sorti cette année-là, qui permet de contrôler l’écran par des gestes et des manœuvres d’une seule main. FingerWorks a finalement été racheté par Apple en 2005, et beaucoup attribuent des technologies comme le Trackpad multitouch ou l’écran tactile de l’iPhone à cette acquisition.
Les années 2000 et au-delà
Avec tant de technologies différentes accumulées au cours des décennies précédentes, les années 2000 ont été le moment où les technologies d’écran tactile ont vraiment prospéré. Nous ne couvrirons pas trop de dispositifs spécifiques ici (nous en reparlerons au fur et à mesure que cette série sur les écrans tactiles se poursuivra), mais il y a eu des avancées au cours de cette décennie qui ont contribué à apporter la technologie multitouch et gestuelle aux masses. Les années 2000 ont également été l’ère où les écrans tactiles sont devenus l’outil préféré pour la collaboration de conception.
2001 : Alias|Wavefront’s gesture-based PortfolioWall
À l’approche du nouveau millénaire, les entreprises versaient plus de ressources dans l’intégration de la technologie des écrans tactiles dans leurs processus quotidiens. Les animateurs et les concepteurs 3D ont été particulièrement ciblés avec l’arrivée du PortfolioWall. Il s’agit d’un écran tactile grand format qui se veut une version dynamique des tableaux que les studios de design utilisent pour suivre les projets. Bien que le développement ait commencé en 1999, le PortfolioWall a été dévoilé au SIGGRAPH en 2001 et a été produit en partie par une collaboration entre General Motors et l’équipe d’Alias|Wavefront. Buxton, qui occupe aujourd’hui le poste de chercheur principal chez Microsoft Research, était le scientifique en chef du projet. « Nous sommes en train d’abattre le mur et de changer la façon dont les gens communiquent efficacement sur le lieu de travail et dans les affaires », a-t-il déclaré à l’époque. « L’interface gestuelle de PortfolioWall permet aux utilisateurs d’interagir complètement avec un actif numérique. Regarder des images fait maintenant facilement partie d’un flux de travail quotidien. »
Le PortfolioWall utilisait une interface gestuelle simple et facile à utiliser. Elle permettait aux utilisateurs d’inspecter et de manœuvrer les images, les animations et les fichiers 3D avec leurs seuls doigts. Il était également facile de mettre les images à l’échelle, d’extraire des modèles 3D et de lire des vidéos. Une version ultérieure a ajouté l’annotation de croquis et de texte, la possibilité de lancer des applications tierces et un outil de visualisation 3D basé sur Maya permettant d’effectuer des panoramiques, des rotations, des zooms et des visualisations de modèles 3D. Pour l’essentiel, le produit était considéré comme un tableau de bord numérique pour les professions centrées sur le design. Il a également coûté la somme faramineuse de 38 000 $ pour faire installer l’ensemble – 3 000 $ pour le présentateur lui-même et 35 000 $ pour le serveur.
Le PortfolioWall abordait également le fait que si les supports traditionnels comme les modèles en argile et les dessins en taille réelle étaient toujours importants pour le processus de conception, ils étaient lentement augmentés par les outils numériques. Le dispositif comprenait des modules complémentaires qui émulaient virtuellement ces supports tangibles et servaient d’outil de présentation aux concepteurs pour montrer leur travail en cours.
Un autre attrait principal du PortfolioWall était son » serveur de sensibilisation « , qui permettait de faciliter la collaboration sur un réseau afin que les équipes n’aient pas à se trouver dans la même pièce pour examiner un projet. Les équipes pouvaient avoir plusieurs murs dans différents espaces et continuer à collaborer à distance.
Le PortfolioWall a finalement été enterré en 2008, mais il était un excellent exemple de la façon dont les gestes interagissant avec l’écran tactile pouvaient aider à contrôler un système d’exploitation entier.
2002 : Détection capacitive mutuelle dans le SmartSkin de Sony
En 2002, Sony a présenté une surface de saisie plate capable de reconnaître plusieurs positions de la main et plusieurs points de contact en même temps. La société l’a appelée SmartSkin. La technologie fonctionne en calculant la distance entre la main et la surface grâce à une détection capacitive et une antenne en forme de maille. Contrairement au système de reconnaissance des gestes par caméra des autres technologies, les éléments de détection étaient tous intégrés à la surface tactile. Cela signifie également qu’il n’y aura pas de dysfonctionnement dans des conditions de faible éclairage. L’objectif ultime du projet était de transformer des surfaces utilisées quotidiennement, comme une table ou un mur, en surfaces interactives à l’aide d’un PC situé à proximité. Cependant, la technologie a fait plus pour la technologie tactile capacitive que ce qui était peut-être prévu, notamment en introduisant de multiples points de contact.
Jun Rekimoto du laboratoire d’interaction des laboratoires informatiques de Sony a noté les avantages de cette technologie dans un livre blanc. Selon lui, les technologies comme SmartSkin offrent « un support naturel pour les opérations à plusieurs mains et à plusieurs utilisateurs ». Plus de deux utilisateurs peuvent toucher simultanément la surface sans aucune interférence. Deux prototypes ont été développés pour montrer la SmartSkin utilisée comme une table interactive et un pavé de reconnaissance des gestes. Le second prototype utilise un maillage plus fin que le premier afin de pouvoir cartographier plus précisément les coordonnées des doigts. Dans l’ensemble, la technologie était censée offrir une sensation réelle d’objets virtuels, recréant essentiellement la façon dont les humains utilisent leurs doigts pour saisir des objets et les manipuler.
2002-2004 : Échec des tablettes et du TouchLight de Microsoft Research
La technologie multitouch a lutté dans le grand public, apparaissant dans des appareils spécialisés, mais n’a jamais vraiment réussi à percer. Elle a failli le faire en 2002, lorsque la société canadienne DSI Datotech a mis au point le dispositif HandGear + GRT (l’acronyme « GRT » faisant référence à la technologie de reconnaissance des gestes du dispositif). Le pavé tactile multipoint du dispositif fonctionnait un peu comme le pavé iGesture susmentionné, en ce sens qu’il pouvait reconnaître divers gestes et permettre aux utilisateurs de l’utiliser comme périphérique d’entrée pour contrôler leurs ordinateurs. « Nous voulions nous assurer que HandGear serait facile à utiliser », a déclaré Tim Heaney, vice-président du marketing, dans un communiqué de presse. « La technologie a donc été conçue pour reconnaître les mouvements de la main et des doigts qui sont complètement naturels, ou intuitifs, pour l’utilisateur, qu’il soit gaucher ou droitier. Après une courte période d’apprentissage, ils sont littéralement capables de se concentrer sur le travail à faire, plutôt que sur ce que font les doigts. »
HandGear a également permis aux utilisateurs de « saisir » des objets tridimensionnels en temps réel, étendant encore cette idée de liberté et de productivité dans le processus de conception. La société a même mis l’API à la disposition des développeurs via AutoDesk. Malheureusement, comme Buxton le mentionne dans son aperçu du multitouch, la société a manqué d’argent avant que leur produit ne soit expédié et DSI a fermé ses portes.
Deux ans plus tard, Andrew D. Wilson, un employé de Microsoft Research, a développé un écran tactile d’imagerie basé sur le geste et un affichage 3D. Le TouchLight utilisait un écran de rétroprojection pour transformer une feuille de plastique acrylique en une surface interactive. L’écran pouvait détecter plusieurs doigts et mains de plus d’un utilisateur, et en raison de ses capacités 3D, il pouvait également être utilisé comme un miroir de fortune.
Le TouchLight était une démonstration technologique soignée, et il a finalement été concédé sous licence pour la production à Eon Reality avant que la technologie ne s’avère trop coûteuse pour être emballée dans un appareil grand public. Cependant, ce ne serait pas la seule incursion de Microsoft dans la technologie d’affichage multitouch fantaisiste.
2006 : Détection multitouch par « réflexion interne totale frustrée »
En 2006, Jeff Han a fait la première démonstration publique de son écran d’ordinateur tactile intuitif et sans interface lors d’une conférence TED à Monterey, CA. Dans sa présentation, Jeff Han a déplacé et manipulé des photos sur un caisson lumineux géant en utilisant uniquement le bout de ses doigts. Il a fait défiler des photos, les a allongées et les a pincées, le tout avec une aisance naturelle et captivante. « C’est quelque chose que Google devrait avoir dans son hall », a-t-il plaisanté. La démonstration a montré qu’il était possible de construire un écran tactile haute résolution et évolutif sans dépenser trop d’argent.
Han avait découvert que la détection multitouch « robuste » était possible en utilisant la « réflexion interne totale frustrée » (FTIR), une technique de la communauté biométrique utilisée pour l’imagerie des empreintes digitales. La FTIR consiste à envoyer de la lumière à travers un morceau d’acrylique ou de plexiglas. La lumière (l’infrarouge est couramment utilisée) rebondit entre le haut et le bas de l’acrylique pendant son trajet. Lorsqu’un doigt touche la surface, les faisceaux se dispersent autour du bord où le doigt est placé, d’où le terme « frustré ». Les images générées ressemblent à des taches blanches et sont captées par une caméra infrarouge. L’ordinateur analyse l’endroit où le doigt touche pour marquer son emplacement et lui attribuer une coordonnée. Le logiciel peut ensuite analyser les coordonnées pour effectuer une certaine tâche, comme redimensionner ou faire pivoter des objets.
Après que la conférence TED soit devenue un succès sur YouTube, Han a ensuite lancé une startup appelée Perceptive Pixel. Un an après la conférence, il a déclaré à Wired que son produit multitouch n’avait pas encore de nom. Et bien qu’il ait eu quelques clients intéressés, Han a déclaré qu’ils étaient tous « des clients vraiment haut de gamme. Surtout de la défense. »
L’année dernière, Hann a vendu sa société à Microsoft dans le but de rendre la technologie plus courante et plus abordable pour les consommateurs. « Notre entreprise a toujours été axée sur les cas d’utilisation de la productivité », a déclaré Han à AllThingsD. « C’est pourquoi nous nous sommes toujours concentrés sur ces écrans plus grands. Office est ce à quoi les gens pensent quand ils pensent à la productivité.
2008 : Microsoft Surface
Avant qu’il n’existe une tablette de 10 pouces, le nom « Surface » faisait référence à l’écran tactile graphique de table haut de gamme de Microsoft, construit à l’origine à l’intérieur d’une véritable table IKEA avec un trou découpé dans le haut. Bien qu’elle ait été présentée au public en 2007, l’idée est née en 2001. Des chercheurs de Redmond ont imaginé une surface de travail interactive que des collègues pourraient utiliser pour manipuler des objets dans les deux sens. Pendant de nombreuses années, les travaux ont été cachés derrière un accord de non-divulgation. Il a fallu 85 prototypes avant que Surface 1.0 ne soit prêt à fonctionner.
Comme Ars l’a écrit en 2007, le Microsoft Surface était essentiellement un ordinateur intégré dans une table de taille moyenne, avec un grand écran plat sur le dessus. L’image de l’écran était rétro-projetée sur la surface d’affichage depuis l’intérieur de la table, et le système détectait l’endroit où l’utilisateur touchait l’écran grâce à des caméras montées à l’intérieur de la table et regardant vers le haut en direction de l’utilisateur. Lorsque les doigts et les mains interagissaient avec ce qui était à l’écran, le logiciel du Surface suivait les points de contact et déclenchait les actions appropriées. Le Surface pouvait reconnaître plusieurs points de contact à la fois, ainsi que des objets sur lesquels étaient collés de petits autocollants « dominos ». Plus tard dans son cycle de développement, le Surface a également acquis la capacité d’identifier des appareils via RFID.
Le Surface original a été dévoilé lors de la conférence All Things D en 2007. Bien que beaucoup de ses concepts de conception n’étaient pas nouveaux, il illustrait très efficacement le cas d’utilisation réel des écrans tactiles intégrés dans quelque chose de la taille d’une table basse. Microsoft a ensuite apporté le Surface de 30 pouces pour en faire la démonstration au CES 2008, mais la société a explicitement indiqué qu’elle visait « l’espace de vente au détail de divertissement ». Surface a été conçu principalement pour être utilisé par les clients commerciaux de Microsoft afin de donner aux consommateurs un aperçu du matériel. La société s’est associée à plusieurs grands noms de l’hôtellerie, comme Starwood et Harrah’s Casino, pour présenter la technologie dans leurs halls d’entrée. Des entreprises comme AT&T ont utilisé la Surface pour présenter les derniers combinés aux consommateurs entrant dans leurs points de vente en brique et mortier.
Plutôt que de la désigner comme une interface utilisateur graphique (GUI), Microsoft a désigné l’interface de la Surface comme une interface utilisateur naturelle, ou « NUI ». Cette expression suggérait que la technologie serait presque instinctive pour l’utilisateur final humain, aussi naturelle que l’interaction avec n’importe quel objet tangible dans le monde réel. Cette expression faisait également référence au fait que l’interface était principalement pilotée par le toucher de l’utilisateur plutôt que par des dispositifs d’entrée. (De plus, NUI-« new-ey »-faisait un acronyme accrocheur et favorable au marketing.)
En 2011, Microsoft s’est associé à des fabricants comme Samsung pour produire du matériel Surface de table plus élégant et plus récent. Par exemple, le Samsung SUR40 a une LED 1080p de 40 pouces, et il a réduit de façon drastique l’espace interne nécessaire aux mécanismes de détection tactile. Avec ses 22 pouces d’épaisseur, il était plus fin que ses prédécesseurs, et la réduction de taille a permis de monter l’écran sur un mur plutôt que de nécessiter une table pour loger la caméra et les capteurs. Il coûtait environ 8 400 dollars au moment de son lancement et fonctionnait sous Windows 7 et le logiciel Surface 2.0.
L’année dernière, la société a rebaptisé la technologie PixelSense une fois que Microsoft a présenté sa tablette Surface non apparentée aux consommateurs. Le nom « PixelSense » fait référence à la manière dont la technologie fonctionne réellement : un verre de protection sensible au toucher est placé au-dessus d’un rétroéclairage infrarouge. Lorsqu’elle frappe le verre, la lumière est renvoyée vers des capteurs intégrés, qui convertissent cette lumière en un signal électrique. Ce signal est appelé « valeur », et ces valeurs créent une image de ce qui se trouve sur l’écran. L’image est ensuite analysée à l’aide de techniques de traitement de l’image, et cette sortie est envoyée à l’ordinateur auquel elle est connectée.
PixelSense présente quatre composants principaux qui constituent sa technologie : il ne nécessite pas de souris et de clavier pour fonctionner, plus d’un utilisateur peut interagir avec lui en même temps, il peut reconnaître certains objets placés sur le verre, et il présente plusieurs points de contact. Le nom de PixelSense pourrait également être attribué à ce dernier point en particulier – chaque pixel peut en fait détecter s’il y a eu ou non contact tactile.
Malgré le fait qu’il ferait un ajout génial au salon, Microsoft continue de commercialiser le matériel Surface comme un outil d’affaires plutôt qu’un produit de consommation.
Le toucher aujourd’hui-et demain?
On ne peut pas minimiser le fait que chacune de ces technologies a eu un impact monumental sur les gadgets que nous utilisons aujourd’hui. Tout, de nos smartphones aux trackpads des ordinateurs portables et aux tablettes WACOM, peut être relié d’une manière ou d’une autre aux nombreuses inventions, découvertes et brevets de l’histoire de la technologie tactile. Les utilisateurs d’Android et d’iOS doivent remercier E.A. Johnson pour les smartphones à écran tactile capacitif, tandis que les restaurants peuvent envoyer leurs salutations au Dr G. Samuel Hurst pour l’écran tactile résistif de leur système de point de vente (POS).
Dans la prochaine partie de notre série, nous plongerons plus profondément sur les appareils d’aujourd’hui. (Comment le travail de FingerWorks a-t-il eu un impact sur ces iDevices de toute façon ?) Mais l’histoire ne s’est pas non plus arrêtée en 2011. Nous verrons également comment certains des principaux acteurs actuels, comme Apple et Samsung, continuent de contribuer à l’évolution des gadgets à écran tactile. Ne faites pas défiler votre doigt, restez à l’écoute !