De las pantallas táctiles a la Surface: Una breve historia de la tecnología de las pantallas táctiles

Aurich Lawson / Thinkstock

Es difícil creer que hace apenas unas décadas la tecnología de las pantallas táctiles sólo se encontraba en los libros y películas de ciencia ficción. Hoy en día, es casi incomprensible cómo hemos podido realizar nuestras tareas diarias sin una tableta o un teléfono inteligente cerca, pero la cosa no acaba ahí. Las pantallas táctiles están por todas partes. Casas, coches, restaurantes, tiendas, aviones… llenan nuestras vidas en espacios públicos y privados.

Ha habido que esperar varias generaciones y varios avances tecnológicos importantes para que las pantallas táctiles alcancen este tipo de presencia. Aunque la tecnología subyacente a las pantallas táctiles se remonta a la década de 1940, hay muchas pruebas que sugieren que las pantallas táctiles no fueron viables hasta al menos 1965. Programas de televisión de ciencia ficción como Star Trek ni siquiera hicieron referencia a esta tecnología hasta que se estrenó Star Trek: The Next Generation en 1987, casi dos décadas después de que la tecnología de las pantallas táctiles se considerara posible. Pero su inclusión en la serie fue paralela a los avances en el mundo de la tecnología y, a finales de los años 80, las pantallas táctiles parecían por fin lo suficientemente realistas como para que los consumidores pudieran emplear la tecnología en sus propios hogares.

Ver más

Este artículo es el primero de una serie de tres partes sobre el viaje de la tecnología táctil desde la ficción a la realidad. Es importante reflexionar sobre las tres primeras décadas de la tecnología táctil para poder apreciar realmente la tecnología multitáctil a la que estamos tan acostumbrados hoy en día. Hoy veremos cuándo surgieron estas tecnologías y quiénes las introdujeron, además de hablar de otros pioneros que desempeñaron un papel importante en el avance de la tecnología táctil. En futuras entradas de esta serie estudiaremos cómo los cambios en las pantallas táctiles han dado lugar a dispositivos esenciales para nuestra vida actual y hacia dónde podría llevarnos la tecnología en el futuro. Pero primero, pongamos el dedo en la pantalla y viajemos a la década de 1960.

1960: La primera pantalla táctil

Johnson, 1967

Los historiadores suelen considerar que la primera pantalla táctil accionada con el dedo fue inventada por E.A. Johnson en 1965 en el Royal Radar Establishment de Malvern (Reino Unido). Johnson describió originalmente su trabajo en un artículo titulado «Touch display-a novel input/output device for computers», publicado en Electronics Letters. El artículo incluía un diagrama que describía un tipo de mecanismo de pantalla táctil que muchos smartphones utilizan hoy en día, lo que ahora conocemos como tacto capacitivo. Dos años más tarde, Johnson profundizó en la tecnología con fotografías y diagramas en «Touch Displays: A Programmed Man-Machine Interface», publicado en Ergonomics en 1967.

Cómo funcionan las pantallas táctiles capacitivas.

Un panel de pantalla táctil capacitiva utiliza un aislante, como el vidrio, que se recubre con un conductor transparente como el óxido de indio y estaño (ITO). La parte «conductora» suele ser un dedo humano, que constituye un fino conductor eléctrico. La tecnología inicial de Johnson sólo podía procesar un toque a la vez, y lo que hoy describiríamos como «multitáctil» estaba todavía algo lejos. El invento también era binario en su interpretación del tacto: la interfaz registraba el contacto o no lo registraba. La sensibilidad a la presión llegaría mucho más tarde.

Incluso sin las características adicionales, la primera idea de interfaz táctil tuvo algunos adeptos. El descubrimiento de Johnson acabó siendo adoptado por los controladores aéreos del Reino Unido y se mantuvo en uso hasta finales de la década de 1990.

Década de 1970: Se inventan las pantallas táctiles resistivas

Aunque las pantallas táctiles capacitivas se diseñaron primero, fueron eclipsadas en los primeros años del tacto por las pantallas táctiles resistivas. El inventor estadounidense Dr. G. Samuel Hurst desarrolló las pantallas táctiles resistivas casi por accidente. La revista para ex alumnos del Berea College lo describió así:

Para estudiar la física atómica, el equipo de investigación utilizó un acelerador Van de Graff sobrecargado de trabajo que sólo estaba disponible por la noche. Los tediosos análisis ralentizaban su investigación. Sam pensó en una forma de resolver ese problema. Él, Parks y Thurman Stewart, otro estudiante de doctorado, utilizaron papel conductor de la electricidad para leer un par de coordenadas x e y. Esa idea dio lugar a la primera pantalla táctil para un ordenador. Con este prototipo, sus estudiantes podían calcular en pocas horas lo que de otro modo habría llevado días.

Hurst y el equipo de investigación habían estado trabajando en la Universidad de Kentucky. La universidad intentó presentar una patente en su nombre para proteger este invento accidental de la duplicación, pero sus orígenes científicos hacían pensar que no era tan aplicable fuera del laboratorio.

Hurst, sin embargo, tenía otras ideas. «Pensé que podría ser útil para otras cosas», dijo en el artículo. En 1970, tras volver a trabajar en el Laboratorio Nacional de Oak Ridge (ORNL), Hurst comenzó un experimento fuera de horario. En su sótano, Hurst y nueve amigos de otras áreas de conocimiento se propusieron perfeccionar lo que se había inventado accidentalmente. El grupo llamó a su incipiente empresa «Elographics», y el equipo descubrió que una pantalla táctil en un monitor de ordenador constituía un excelente método de interacción. Lo único que necesitaba la pantalla era una lámina conductora que hiciera contacto con la hoja que contenía los ejes X e Y. La presión sobre la lámina permitía que fluyera un voltaje entre los cables X e Y, que podía medirse para indicar las coordenadas. Este descubrimiento ayudó a fundar lo que hoy denominamos tecnología táctil resistiva (porque responde puramente a la presión y no a la conductividad eléctrica, funcionando tanto con un lápiz como con un dedo).

Publicidad

Como clase de tecnología, las pantallas táctiles resistivas suelen ser muy asequibles de producir. La mayoría de los dispositivos y máquinas que utilizan esta tecnología táctil se pueden encontrar en los restaurantes, fábricas y hospitales, ya que son lo suficientemente duraderos para estos entornos. Los fabricantes de teléfonos inteligentes también han utilizado pantallas táctiles resistivas en el pasado, aunque su presencia en el espacio móvil hoy en día tiende a limitarse a los teléfonos de gama baja.

Una pantalla táctil curva AccuTouch de segunda generación de EloTouch.

Sin embargo, Elographics no se limitó sólo al toque resistivo. El grupo acabó patentando la primera interfaz táctil de cristal curvado. La patente se titulaba «sensor eléctrico de coordenadas planas» y ofrecía detalles sobre «un sensor eléctrico de coordenadas planas de bajo coste» que empleaba «láminas yuxtapuestas de material conductor con líneas eléctricas equipotenciales». Después de esta invención, Elographics se vendió a «buena gente de California» y se convirtió en EloTouch Systems.

Para 1971, se habían introducido varias máquinas táctiles diferentes, aunque ninguna era sensible a la presión. Uno de los dispositivos táctiles más utilizados en aquella época era el terminal PLATO IV de la Universidad de Illinois, uno de los primeros sistemas generalizados de instrucción asistida por ordenador. El PLATO IV renunció al toque capacitivo o resistivo en favor de un sistema de infrarrojos (lo explicaremos en breve). El PLATO IV fue el primer ordenador con pantalla táctil que se utilizó en un aula y que permitía a los alumnos tocar la pantalla para responder a las preguntas.

El terminal de pantalla táctil PLATO IV.

Década de 1980: La década del tacto

Uno de los primeros diagramas que representan la entrada multitáctil.
Bill Buxton

En 1982, el primer dispositivo multitáctil controlado por humanos fue desarrollado en la Universidad de Toronto por Nimish Mehta. No era tanto una pantalla táctil como una tableta táctil. El Input Research Group de la universidad descubrió que un panel de vidrio esmerilado con una cámara detrás podía detectar la acción al reconocer los diferentes «puntos negros» que aparecían en la pantalla. Bill Buxton ha desempeñado un papel muy importante en el desarrollo de la tecnología multitáctil (sobre todo con el PortfolioWall, del que hablaremos más adelante), y consideró que el invento de Mehta era lo suficientemente importante como para incluirlo en su cronología informal de los dispositivos de entrada del ordenador:

La superficie táctil era un filtro de plástico translúcido montado sobre una lámina de vidrio, iluminada lateralmente por una lámpara fluorescente. Debajo de la superficie táctil se montó una cámara de vídeo que captaba ópticamente las sombras que aparecían en el filtro translúcido. (La salida de la cámara se digitalizaba y se introducía en un procesador de señales para su análisis.

Poco después, la interacción gestual fue introducida por Myron Krueger, un artista informático estadounidense que desarrolló un sistema óptico que podía seguir los movimientos de la mano. Krueger presentó Video Place (más tarde llamado Video Desk) en 1983, aunque llevaba trabajando en el sistema desde finales de la década de 1970. Utilizaba proyectores y cámaras de vídeo para seguir las manos, los dedos y las personas a las que pertenecían. A diferencia del sistema multitáctil, no era totalmente consciente de quién o qué estaba tocando, aunque el software podía reaccionar a las diferentes posturas. La pantalla mostraba lo que parecían sombras en un espacio simulado.

Bill Buxton presenta el PortfolioWall y detalla algunas de sus capacidades.

Aunque no era técnicamente táctil -se basaba en el «tiempo de permanencia» antes de ejecutar una acción-, Buxton lo considera una de las tecnologías que «‘escribió el libro’ en términos de interacción gestual libre… rica». El trabajo se adelantó más de una década a su tiempo y fue enormemente influyente, aunque no fue tan reconocido como debería». Krueger también fue pionero en la realidad virtual y el arte interactivo más adelante en su carrera.

Un diagrama (¡en español!) que detalla cómo funcionaba el Video Place.

Las pantallas táctiles empezaron a comercializarse intensamente a principios de la década de 1980. HP (entonces todavía conocida formalmente como Hewlett-Packard) lanzó su sombrero con el HP-150 en septiembre de 1983. El ordenador utilizaba MS-DOS y contaba con un CRT Sony de 9 pulgadas rodeado de emisores y detectores de infrarrojos (IR) que podían detectar la posición del dedo del usuario en la pantalla. El sistema costaba unos 2.795 dólares, pero no tuvo una acogida inmediata porque presentaba algunos problemas de usabilidad. Por ejemplo, al pinchar la pantalla se bloqueaban otros rayos infrarrojos que podían indicar al ordenador hacia dónde apuntaba el dedo. Esto daba lugar a lo que algunos llamaban «brazo de gorila», en referencia a la fatiga muscular que se producía cuando el usuario sacaba la mano durante tanto tiempo.

Ampliar / La HP-150 contaba con MS-DOS y una pantalla táctil Sony CRT de 9 pulgadas.
Wikimedia Commons

Un año después, la tecnología multitáctil dio un paso adelante cuando Bob Boie, de los Laboratorios Bell, desarrolló la primera pantalla multitáctil transparente superpuesta. Como escribió Ars el año pasado:

…la primera pantalla multitáctil se desarrolló en los Laboratorios Bell en 1984. informa de que la pantalla, creada por Bob Boie, «utilizaba una matriz capacitiva transparente de sensores táctiles superpuesta a una CRT». Permitía al usuario «manipular objetos gráficos con los dedos con un excelente tiempo de respuesta».

El descubrimiento ayudó a crear la tecnología multitáctil que hoy utilizamos en tabletas y smartphones.

Década de 1990: Pantallas táctiles para todo el mundo.

El Comunicador Personal Simon de IBM: gran teléfono, gran pantalla y un lápiz óptico para la entrada táctil.
Android Authority

En 1993, IBM y BellSouth se asociaron para lanzar el Comunicador Personal Simon, uno de los primeros teléfonos móviles con tecnología de pantalla táctil. Contaba con funciones de localización de personas, una aplicación de correo electrónico y calendario, una agenda de citas, una calculadora y un bloc de dibujo con bolígrafo. También tenía una pantalla táctil resistiva que requería el uso de un lápiz óptico para navegar por los menús e introducir datos.

El MessagePad 100 original.

Apple también lanzó ese año un dispositivo PDA con pantalla táctil: el Newton PDA. Aunque la plataforma Newton había comenzado en 1987, el MessagePad fue el primero de la serie de dispositivos de Apple en utilizar la plataforma. Como señala Time, el consejero delegado de Apple en aquella época, John Sculley, acuñó el término «PDA» (o «asistente personal digital»). Al igual que el Simon Personal Communicator de IBM, el MessagePad 100 contaba con un software de reconocimiento de escritura y se controlaba con un lápiz óptico.

Las primeras críticas del MessagePad se centraron en sus útiles características. Sin embargo, una vez que llegó a manos de los consumidores, sus deficiencias se hicieron más evidentes. El software de reconocimiento de escritura no funcionaba demasiado bien y el Newton no vendió muchas unidades. Sin embargo, eso no detuvo a Apple; la empresa fabricó el Newton durante seis años más, que terminaron con el MP2000.

La primera Palm Pilot.
Wikimedia Commons

Tres años después, Palm Computing hizo lo propio con su propia PDA, apodada Pilot. Fue la primera de las muchas generaciones de asistentes personales digitales de la compañía. Al igual que los otros aparatos con pantalla táctil que le precedieron, el Palm 1000 y el Pilot 5000 requerían el uso de un lápiz óptico.

El aparato PDA de Palm tuvo un poco más de éxito que las ofertas de IBM y Apple. Su nombre pronto se convirtió en sinónimo de la palabra «negocio», ayudado en parte por el hecho de que su software de reconocimiento de escritura funcionaba muy bien. Los usuarios utilizaban lo que Palm llamaba «Graffiti» para introducir texto, números y otros caracteres. Era fácil de aprender e imitaba la forma en que una persona escribe en un papel. Con el tiempo se implementó en la plataforma Apple Newton.

Publicidad

Los dispositivos de tipo PDA no contaban necesariamente con las pantallas táctiles del tipo dedo-pantalla a las que estamos acostumbrados hoy en día, pero la adopción por parte de los consumidores convenció a las empresas de que había suficiente interés en poseer este tipo de dispositivos.

Cerca del final de la década, el estudiante de posgrado de la Universidad de Delaware Wayne Westerman publicó una tesis doctoral titulada «Hand Tracking, Finger Identification, and Chordic Manipulation on a Multi-Touch Surface». El trabajo detallaba los mecanismos de lo que hoy conocemos como tecnología capacitiva multitáctil, que se ha convertido en un elemento básico de los dispositivos modernos equipados con pantallas táctiles.

La almohadilla iGesture fabricada por FingerWorks.

Westerman y su asesor en la facultad, John Elias, acabaron formando una empresa llamada FingerWorks. El grupo empezó a producir una línea de productos multitáctiles basados en el gesto, incluido un teclado basado en el gesto llamado TouchStream. Esto ayudó a quienes sufrían discapacidades como lesiones por esfuerzo repetitivo y otras afecciones médicas. Ese año también se lanzó el iGesture Pad, que permitía gesticular y maniobrar con una sola mano para controlar la pantalla. FingerWorks fue finalmente adquirida por Apple en 2005, y muchos atribuyen a esta adquisición tecnologías como el Trackpad multitáctil o la pantalla táctil del iPhone.

La década de 2000 y más allá

Con tantas tecnologías diferentes acumuladas en las décadas anteriores, la década de 2000 fue el momento en que las tecnologías de pantalla táctil florecieron realmente. No cubriremos aquí demasiados dispositivos específicos (hablaremos de ellos cuando esta serie de pantallas táctiles continúe), pero hubo avances durante esta década que ayudaron a llevar la tecnología multitáctil y basada en gestos a las masas. La década del 2000 fue también la época en la que las pantallas táctiles se convirtieron en la herramienta favorita para la colaboración en el diseño.

2001: PortfolioWall de Alias|Wavefront basado en gestos

A medida que se acercaba el nuevo milenio, las empresas dedicaban más recursos a integrar la tecnología de las pantallas táctiles en sus procesos diarios. Los animadores y diseñadores 3D se vieron especialmente afectados por la llegada del PortfolioWall. Se trataba de una pantalla táctil de gran formato que pretendía ser una versión dinámica de las pizarras que utilizan los estudios de diseño para hacer un seguimiento de los proyectos. Aunque el desarrollo comenzó en 1999, el PortfolioWall se presentó en SIGGRAPH en 2001 y fue producido en parte por una colaboración conjunta entre General Motors y el equipo de Alias|Wavefront. Buxton, que ahora trabaja como investigador principal en Microsoft Research, fue el científico jefe del proyecto. «Estamos derribando el muro y cambiando la forma en que la gente se comunica eficazmente en el lugar de trabajo y hace negocios», dijo entonces. «La interfaz gestual de PortfolioWall permite a los usuarios interactuar completamente con un activo digital. Mirar las imágenes ahora se convierte fácilmente en parte de un flujo de trabajo cotidiano»

Bill Buxton presenta el PortfolioWall y detalla algunas de sus capacidades.

El PortfolioWall utilizaba una interfaz sencilla, fácil de usar y basada en gestos. Permitía a los usuarios inspeccionar y maniobrar imágenes, animaciones y archivos 3D con sólo sus dedos. También era fácil escalar imágenes, obtener modelos 3D y reproducir vídeos. Una versión posterior añadió la anotación de bocetos y texto, la posibilidad de lanzar aplicaciones de terceros y una herramienta de visualización 3D basada en Maya para utilizar la panorámica, la rotación, el zoom y la visualización de modelos 3D. En su mayor parte, el producto se consideraba una pizarra digital para las profesiones centradas en el diseño. Además, su instalación costó la friolera de 38.000 dólares: 3.000 dólares por el propio presentador y 35.000 por el servidor.

El PortfolioWall permitía a los diseñadores mostrar modelos 3D a escala real.

El PortfolioWall también abordaba el hecho de que, si bien los medios tradicionales, como los modelos de arcilla y los dibujos a tamaño real, seguían siendo importantes para el proceso de diseño, poco a poco estaban siendo aumentados por las herramientas digitales. El dispositivo incluía complementos que emulaban virtualmente esos medios tangibles y servían como herramienta de presentación para que los diseñadores mostraran su trabajo en curso.

Otro de los principales atractivos del PortfolioWall era su «servidor de concienciación», que ayudaba a facilitar la colaboración a través de una red para que los equipos no tuvieran que estar en la misma sala para revisar un proyecto. Los equipos podían tener varios muros en diferentes espacios y seguir colaborando de forma remota.

Publicidad

El PortfolioWall acabó desapareciendo en 2008, pero fue un excelente ejemplo de cómo los gestos que interactuaban con la pantalla táctil podían ayudar a controlar todo un sistema operativo.

2002: Detección capacitiva mutua en el SmartSkin de Sony

Usando el SmartSkin de Sony.

En 2002, Sony presentó una superficie de entrada plana que podía reconocer múltiples posiciones de la mano y puntos de contacto al mismo tiempo. La empresa la llamó SmartSkin. La tecnología funcionaba calculando la distancia entre la mano y la superficie con una detección capacitiva y una antena en forma de malla. A diferencia del sistema de reconocimiento de gestos basado en cámaras de otras tecnologías, los elementos de detección estaban todos integrados en la superficie táctil. Esto también significaba que no funcionaría mal en condiciones de poca luz. El objetivo final del proyecto era transformar superficies de uso cotidiano, como una mesa o una pared cualquiera, en otras interactivas con el uso de un PC cercano. Sin embargo, la tecnología hizo más por la tecnología táctil capacitiva de lo que se pretendía, incluyendo la introducción de múltiples puntos de contacto.

Cómo detectaba los gestos el SmartSkin.
Sony Computer Science Laboratories, Inc.

Jun Rekimoto, del Laboratorio de Interacción de los Laboratorios de Ciencias Informáticas de Sony, señaló las ventajas de esta tecnología en un libro blanco. Dijo que tecnologías como SmartSkin ofrecen «un soporte natural para las operaciones con varias manos y varios usuarios». Más de dos usuarios pueden tocar simultáneamente la superficie sin ninguna interferencia. Se desarrollaron dos prototipos para mostrar la SmartSkin utilizada como mesa interactiva y como almohadilla de reconocimiento de gestos. El segundo prototipo utilizó una malla más fina que el primero para poder trazar coordenadas más precisas de los dedos. En general, la tecnología pretendía ofrecer una sensación real de los objetos virtuales, recreando esencialmente la forma en que los humanos utilizan sus dedos para coger objetos y manipularlos.

2002-2004: El fracaso de las tabletas y el TouchLight de Microsoft Research

Un dispositivo de entrada multitáctil para tabletas llamado HandGear.
Bill Buxton

La tecnología multitáctil tuvo que luchar en la corriente principal, apareciendo en dispositivos especializados pero sin llegar a tener un gran éxito. Una de ellas estuvo a punto de llegar en 2002, cuando la empresa canadiense DSI Datotech desarrolló el dispositivo HandGear + GRT (el acrónimo «GRT» se refería a la tecnología de reconocimiento de gestos del dispositivo). El panel táctil multipunto del dispositivo funcionaba de forma parecida al mencionado panel iGesture, ya que podía reconocer varios gestos y permitir a los usuarios utilizarlo como dispositivo de entrada para controlar sus ordenadores. «Queríamos asegurarnos de que HandGear fuera fácil de usar», dijo el vicepresidente de marketing Tim Heaney en un comunicado de prensa. «Así que la tecnología se diseñó para reconocer los movimientos de la mano y los dedos que son completamente naturales, o intuitivos, para el usuario, ya sea zurdo o diestro. Tras un breve periodo de aprendizaje, son capaces de concentrarse literalmente en el trabajo que tienen entre manos, en lugar de en lo que hacen los dedos».

HandGear también permite a los usuarios «agarrar» objetos tridimensionales en tiempo real, ampliando aún más esa idea de libertad y productividad en el proceso de diseño. La empresa incluso puso la API a disposición de los desarrolladores a través de AutoDesk. Desgraciadamente, como menciona Buxton en su visión general de la multitáctil, la empresa se quedó sin dinero antes de que su producto saliera al mercado y DSI cerró sus puertas.

Andy Wilson explica la tecnología que hay detrás del TouchLight.

Dos años más tarde, Andrew D. Wilson, empleado de Microsoft Research, desarrolló una pantalla táctil de imagen basada en gestos y una visualización en 3D. La TouchLight utilizaba una pantalla de retroproyección para transformar una lámina de plástico acrílico en una superficie interactiva. La pantalla podía detectar los dedos y las manos de más de un usuario y, gracias a sus capacidades 3D, también podía utilizarse como un espejo improvisado.

La TouchLight fue una demostración tecnológica muy interesante y, finalmente, se concedió la licencia de producción a Eon Reality antes de que la tecnología resultara demasiado cara para ser empaquetada en un dispositivo de consumo. Sin embargo, ésta no sería la única incursión de Microsoft en la elegante tecnología de pantallas multitáctiles.

2006: Sensación multitáctil a través de la «reflexión interna total frustrada»

Jeff Han

En 2006, Jeff Han hizo la primera demostración pública de su pantalla de ordenador táctil intuitiva y sin interfaz en una conferencia TED en Monterey, California. En su presentación, Han movió y manipuló fotos en una caja de luz gigante utilizando sólo la punta de los dedos. Desplazó las fotos, las estiró y las pellizcó, todo ello con una facilidad natural cautivadora. «Esto es algo que Google debería tener en su vestíbulo», bromeó. La demostración demostró que era posible construir una pantalla táctil de alta resolución y escalable sin gastar demasiado dinero.

Un diagrama de la detección multitáctil de Jeff Han que utiliza FTIR.
Jeff Han

Han había descubierto que la detección multitáctil «robusta» era posible utilizando la «reflexión interna total frustrada» (FTIR), una técnica de la comunidad biométrica utilizada para la obtención de imágenes de huellas dactilares. La FTIR funciona haciendo brillar la luz a través de una pieza de acrílico o plexiglás. La luz (normalmente se utiliza la infrarroja) rebota entre la parte superior y la inferior del acrílico mientras se desplaza. Cuando un dedo toca la superficie, los haces se dispersan alrededor del borde donde se coloca el dedo, de ahí el término «frustrado». Las imágenes que se generan parecen manchas blancas y son recogidas por una cámara de infrarrojos. El ordenador analiza dónde toca el dedo para marcar su ubicación y asignarle una coordenada. A continuación, el software puede analizar las coordenadas para realizar una determinada tarea, como cambiar el tamaño o rotar los objetos.

Jeff Han demuestra su nueva pantalla táctil «sin interfaz».

Después de que la charla TED se convirtiera en un éxito en YouTube, Han lanzó una empresa llamada Perceptive Pixel. Un año después de la charla, declaró a Wired que su producto multitáctil aún no tenía nombre. Y aunque tenía algunos clientes interesados, Han dijo que todos eran «clientes de muy alto nivel. El año pasado, Hann vendió su empresa a Microsoft en un esfuerzo por hacer que la tecnología fuera más común y asequible para los consumidores. «Nuestra empresa siempre ha sido sobre los casos de uso de la productividad», dijo Han a AllThingsD. «Por eso siempre nos hemos centrado en estas pantallas más grandes. Office es lo que la gente piensa cuando piensa en productividad.

2008: Microsoft Surface

Antes de que existiera una tableta de 10 pulgadas, el nombre «Surface» se refería a la pantalla gráfica táctil de alta gama de Microsoft, construida originalmente dentro de una mesa real de IKEA con un agujero cortado en la parte superior. Aunque se presentó al público en 2007, la idea surgió en 2001. Los investigadores de Redmond imaginaron una superficie de trabajo interactiva que los compañeros pudieran utilizar para manipular objetos de un lado a otro. Durante muchos años, el trabajo se ocultó tras un acuerdo de confidencialidad. Hicieron falta 85 prototipos antes de que la Surface 1.0 estuviera lista para funcionar.

Como escribió Ars en 2007, la Microsoft Surface era esencialmente un ordenador incrustado en una mesa de tamaño medio, con una gran pantalla plana encima. La imagen de la pantalla se proyectaba por detrás en la superficie de la pantalla desde el interior de la mesa, y el sistema detectaba dónde tocaba el usuario la pantalla a través de cámaras montadas dentro de la mesa que miraban hacia el usuario. Cuando los dedos y las manos interactuaban con lo que aparecía en la pantalla, el software de la Surface rastreaba los puntos de contacto y activaba las acciones correctas. La Surface podía reconocer varios puntos táctiles a la vez, así como objetos con pequeñas pegatinas «dominó» adheridas a ellos. Más adelante en su ciclo de desarrollo, Surface también adquirió la capacidad de identificar dispositivos mediante RFID.

Bill Gates hace una demostración de la Microsoft Surface.

La Surface original se presentó en la conferencia All Things D de 2007. Aunque muchos de sus conceptos de diseño no eran nuevos, ilustraba de forma muy efectiva el caso de uso en el mundo real de las pantallas táctiles integradas en algo del tamaño de una mesa de café. Microsoft llevó entonces la Surface de 30 pulgadas para hacer una demostración en el CES 2008, pero la empresa dijo explícitamente que se dirigía al «espacio minorista de entretenimiento». Surface se diseñó principalmente para que los clientes comerciales de Microsoft pudieran probar el hardware. La empresa se asoció con varios hoteles de renombre, como Starwood y Harrah’s Casino, para mostrar la tecnología en sus vestíbulos. Empresas como AT&T utilizaron la Surface para mostrar los últimos teléfonos a los consumidores que entraban en sus establecimientos minoristas.

Surface en el CES 2008.

En lugar de referirse a ella como una interfaz gráfica de usuario (GUI), Microsoft calificó la interfaz de la Surface como una interfaz natural de usuario, o «NUI». La frase sugería que la tecnología sería casi instintiva para el usuario final humano, tan natural como interactuar con cualquier tipo de objeto tangible en el mundo real. La frase también se refería al hecho de que la interfaz se manejaba principalmente por el tacto del usuario y no por los dispositivos de entrada. (Además, NUI – «new-ey»- era un acrónimo ágil y fácil de comercializar.)

Microsoft presenta el Samsung SUR40.

En 2011, Microsoft se asoció con fabricantes como Samsung para producir un hardware Surface de sobremesa más elegante y nuevo. Por ejemplo, la Samsung SUR40 tiene un LED de 40 pulgadas 1080p, y redujo drásticamente la cantidad de espacio interno necesario para los mecanismos de detección táctil. Con 22 pulgadas de grosor, era más delgada que sus predecesoras, y la reducción de tamaño permitía montar la pantalla en una pared en lugar de necesitar una mesa para alojar la cámara y los sensores. En el momento de su lanzamiento costaba unos 8.400 dólares y funcionaba con Windows 7 y el software Surface 2.0.

Microsoft

El año pasado, la empresa cambió el nombre de la tecnología por el de PixelSense una vez que Microsoft presentó a los consumidores su tableta Surface, que no tiene nada que ver. El nombre «PixelSense» hace referencia a la forma en que la tecnología funciona realmente: un cristal de protección sensible al tacto se coloca encima de una luz de fondo infrarroja. Al incidir en el cristal, la luz se refleja en los sensores integrados, que convierten esa luz en una señal eléctrica. Esa señal se denomina «valor», y esos valores crean una imagen de lo que hay en la pantalla. A continuación, la imagen se analiza mediante técnicas de procesamiento de imágenes, y ese resultado se envía al ordenador al que está conectado.

PixelSense cuenta con cuatro componentes principales que conforman su tecnología: no requiere un ratón y un teclado para funcionar, más de un usuario puede interactuar con él a la vez, puede reconocer ciertos objetos colocados en el cristal y cuenta con múltiples puntos de contacto. El nombre de PixelSense también podría atribuirse a esta última parte especialmente: cada píxel puede detectar si hubo o no contacto táctil.

Publicidad

Aunque sería un complemento impresionante para el salón, Microsoft sigue comercializando el hardware de Surface como una herramienta empresarial más que como un producto de consumo.

¿Táctil hoy y mañana?

No hay que subestimar que cada una de estas tecnologías ha tenido un impacto monumental en los aparatos que usamos hoy. Todo, desde nuestros teléfonos inteligentes hasta los trackpads de los ordenadores portátiles y las tabletas WACOM, puede relacionarse de algún modo con los numerosos inventos, descubrimientos y patentes de la historia de la tecnología de las pantallas táctiles. Los usuarios de Android e iOS deben dar las gracias a E.A. Johnson por los smartphones con capacidad táctil, mientras que los restaurantes pueden enviar sus saludos al Dr. G. Samuel Hurst por la pantalla táctil resistiva de su sistema de punto de venta (TPV).

En la próxima parte de nuestra serie, profundizaremos en los dispositivos de hoy. (De todos modos, ¿cómo ha influido el trabajo de FingerWorks en esos iDevices?) Pero la historia tampoco terminó con 2011. También hablaremos de cómo algunos de los principales actores actuales -como Apple y Samsung- siguen contribuyendo a la evolución de los aparatos con pantalla táctil. No desplaces ese dedo, ¡estáte atento!

Deja una respuesta

Tu dirección de correo electrónico no será publicada.