>
>
É difícil acreditar que há apenas algumas décadas atrás, a tecnologia touchscreen só podia ser encontrada em livros e filmes de ficção científica. Hoje em dia, é quase insondável a forma como, em tempos, conseguimos realizar as nossas tarefas diárias sem um tablet ou smartphone de confiança nas proximidades, mas não se fica por aí. Os ecrãs tácteis estão mesmo em todo o lado. Casas, carros, restaurantes, lojas, aviões, onde quer que eles encham as nossas vidas em espaços públicos e privados.
Foram precisas gerações e vários grandes avanços tecnológicos para que os ecrãs tácteis conseguissem este tipo de presença. Embora a tecnologia por detrás dos ecrãs tácteis possa ser rastreada até aos anos 40, há muitas evidências que sugerem que os ecrãs tácteis não eram viáveis até pelo menos 1965. Programas populares de televisão de ficção científica como Star Trek nem sequer se referiam à tecnologia até o Star Trek: The Next Generation debuted em 1987, quase duas décadas depois que a tecnologia touchscreen foi até considerada possível. Mas a sua inclusão na série foi paralela aos avanços no mundo da tecnologia, e no final dos anos 80, os ecrãs tácteis pareciam finalmente ser suficientemente realistas para que os consumidores pudessem realmente empregar a tecnologia nas suas próprias casas.
Este artigo é o primeiro de uma série de três partes da viagem da tecnologia touchscreen à realidade a partir da ficção. As primeiras três décadas de toque são importantes para refletir a fim de realmente apreciar a tecnologia multitouch que estamos tão acostumados a ter hoje. Hoje, vamos olhar para quando estas tecnologias surgiram e quem as introduziu, além de discutirmos vários outros pioneiros que desempenharam um grande papel no avanço do toque. As futuras entradas desta série estudarão como as mudanças nos visores tácteis nos levaram a dispositivos essenciais para as nossas vidas hoje e para onde a tecnologia nos poderá levar no futuro. Mas primeiro, vamos colocar o dedo na tela e viajar até os anos 60.
- 1960s: O primeiro ecrã táctil
- 1970s: Telas tácteis resistivas são inventadas
- 1980s: A década do toque
- 1990s: Ecrãs tácteis para todos!
- 2000s e mais além
- 2001: Alias|Wavefront’s gesture-based PortfolioWall
- 2002: Sensoriamento capacitivo mútuo no SmartSkin da Sony
- 2002-2004: Tabletes falhados e TouchLight da Microsoft Research
- 2008: Microsoft Surface
- Tocar hoje e amanhã?
1960s: O primeiro ecrã táctil
>
>
Historians geralmente consideram que o primeiro ecrã táctil com dedos foi inventado por E.A. Johnson em 1965, no Royal Radar Establishment em Malvern, Reino Unido. Johnson descreveu originalmente seu trabalho em um artigo intitulado “Touch display – um novo dispositivo de entrada/saída para computadores” publicado em Electronics Letters. A peça apresentava um diagrama descrevendo um tipo de mecanismo de tela tátil que muitos smartphones usam hoje – o que hoje conhecemos como toque capacitivo. Dois anos depois, Johnson expôs ainda mais sobre a tecnologia com fotografias e diagramas em “Ecrã Táctil”: A Programmed Man-Machine Interface”, publicado em Ergonomia em 1967.
Um painel táctil capacitivo usa um isolador, como o vidro, que é revestido com um condutor transparente, como o óxido de estanho índio (ITO). A parte “condutiva” é geralmente um dedo humano, o que faz um fino condutor elétrico. A tecnologia inicial da Johnson só podia processar um toque de cada vez, e o que hoje descreveríamos como “multitouch” ainda estava um pouco distante. A invenção também era binária em sua interpretação do toque – o contato registrado na interface ou não registrava o contato. A sensibilidade à pressão chegaria muito mais tarde.
Even sem as características extras, a idéia inicial da interface táctil tinha alguns takers. A descoberta da Johnson foi eventualmente adotada pelos controladores de tráfego aéreo no Reino Unido e permaneceu em uso até o final dos anos 90.
1970s: Telas tácteis resistivas são inventadas
Embora as telas tácteis capacitivas tenham sido desenhadas primeiro, elas foram eclipsadas nos primeiros anos de tacto por telas tácteis resistivas. O inventor americano Dr. G. Samuel Hurst desenvolveu ecrãs tácteis resistivos quase acidentalmente. A Berea College Magazine para ex-alunos descreveu assim:
Para estudar a física atômica a equipe de pesquisa utilizou um acelerador Van de Graff, que só estava disponível à noite. Análises tediosas atrasaram as suas pesquisas. Sam pensou em uma maneira de resolver esse problema. Ele, Parks, e Thurman Stewart, outro estudante de doutorado, usaram papel condutor de eletricidade para ler um par de coordenadas x e y. Essa ideia levou ao primeiro ecrã táctil para um computador. Com esse protótipo, seus alunos puderam calcular em poucas horas o que de outra forma levaria dias para ser realizado.
Hurst e a equipe de pesquisa tinham estado trabalhando na Universidade do Kentucky. A universidade tentou registrar uma patente em seu nome para proteger esta invenção acidental de duplicação, mas suas origens científicas fizeram parecer que não era tão aplicável fora do laboratório.
Hurst, no entanto, tinha outras idéias. “Pensei que poderia ser útil para outras coisas”, disse ele no artigo. Em 1970, depois de retornar ao trabalho no Laboratório Nacional de Oak Ridge (ORNL), Hurst começou uma experiência fora do horário de expediente. Em seu porão, Hurst e nove amigos de várias outras áreas de especialização se propuseram a refinar o que tinha sido inventado acidentalmente. O grupo chamou a sua jovem aventura de “Elographics”, e a equipa descobriu que um ecrã táctil num monitor de computador era um excelente método de interacção. Tudo o que a tela precisava era uma folha de rosto condutiva para fazer contato com a folha que continha os eixos X e Y. A pressão sobre a folha de cobertura permitiu o fluxo de tensão entre os fios X e os fios Y, que podia ser medida para indicar coordenadas. Esta descoberta ajudou a descobrir o que hoje chamamos de tecnologia de toque resistivo (porque responde apenas à pressão e não à condutividade eléctrica, trabalhando com um estilete e um dedo).
Como uma classe de tecnologia, as telas de toque resistivas tendem a ser muito acessíveis de produzir. A maioria dos dispositivos e máquinas que utilizam esta tecnologia de toque podem ser encontrados em restaurantes, fábricas e hospitais porque são duráveis o suficiente para estes ambientes. Os fabricantes de smartphones também utilizaram telas sensíveis ao toque resistivas no passado, embora sua presença no espaço móvel hoje em dia tende a ser confinada aos telefones mais baixos.
Elógrafos não se confinaram apenas ao toque resistivo, no entanto. O grupo acabou por patentear a primeira interface táctil de vidro curvo. A patente foi intitulada “sensor elétrico de coordenadas planas” e forneceu detalhes sobre “um sensor elétrico de coordenadas planas barato” que empregava “folhas justapostas de material condutor com linhas equipotenciais elétricas”. Após esta invenção, a Elographics foi vendida para “boa gente na Califórnia” e tornou-se EloTouch Systems.
Até 1971, uma série de máquinas diferentes com capacidade táctil tinha sido introduzida, embora nenhuma fosse sensível à pressão. Um dos dispositivos com capacidade táctil mais utilizados na altura era o terminal PLATO IV da Universidade de Illinois – um dos primeiros sistemas generalizados de instrução assistida por computador. O PLATO IV escapou ao toque capacitivo ou resistivo em favor de um sistema infravermelho (explicaremos em breve). O PLATO IV foi o primeiro computador com ecrã táctil a ser utilizado numa sala de aula que permitiu aos alunos tocar no ecrã para responder a perguntas.
1980s: A década do toque
>
Em 1982, o primeiro dispositivo multitoque controlado pelo homem foi desenvolvido na Universidade de Toronto por Nimish Mehta. Não se tratava tanto de um ecrã táctil, mas sim de uma mesa táctil. O Input Research Group da universidade descobriu que um painel de vidro fosco com uma câmera atrás dele podia detectar a ação, pois reconhecia os diferentes “pontos negros” que apareciam na tela. Bill Buxton desempenhou um papel enorme no desenvolvimento da tecnologia multitouch (principalmente com o PortfolioWall, para ser discutido um pouco mais tarde), e considerou a invenção de Mehta suficientemente importante para incluir na sua linha temporal informal de dispositivos de entrada de computador:
A superfície de toque era um filtro plástico translúcido montado sobre uma folha de vidro, iluminado lateralmente por uma lâmpada fluorescente. Uma câmera de vídeo foi montada abaixo da superfície de toque, e captou opticamente as sombras que apareceram no filtro translúcido. A saída da câmera foi digitalizada e introduzida em um processador de sinais para análise.
Pouco depois, a interação gestual foi introduzida por Myron Krueger, um artista de computação americano que desenvolveu um sistema óptico que podia rastrear os movimentos das mãos. Krueger introduziu o Video Place (mais tarde chamado Video Desk) em 1983, embora ele estivesse trabalhando no sistema desde o final dos anos 70. Ele usava projetores e câmeras de vídeo para rastrear mãos, dedos e as pessoas a quem eles pertenciam. Ao contrário do multitouch, ele não estava totalmente ciente de quem ou o que estava tocando, embora o software pudesse reagir a diferentes poses. A tela mostrava o que parecia sombras em um espaço simulado.
Embora não fosse tecnicamente baseado no toque – ele confiava no “tempo de espera” antes de executar uma ação – Buxton o considera como uma das tecnologias que “‘escreveu o livro’ em termos de interação gestual livre… rica. A obra estava mais de uma década à frente do seu tempo e era extremamente influente, mas não tão reconhecida como deveria ser”. Krueger também foi pioneiro na realidade virtual e na arte interativa mais tarde em sua carreira.
Telas de toque começaram a ser fortemente comercializadas no início dos anos 80. A HP (então ainda formalmente conhecida como Hewlett-Packard) atirou seu chapéu com o HP-150 em setembro de 1983. O computador usava MS-DOS e apresentava um Sony CRT de 9 polegadas cercado por emissores infravermelhos (IR) e detectores que podiam sentir onde o dedo do usuário descia na tela. O sistema custou cerca de $2.795, mas não foi imediatamente abraçado porque tinha alguns problemas de usabilidade. Por exemplo, o poking na tela, por sua vez, bloqueia outros raios IR que poderiam dizer ao computador para onde o dedo estava apontando. Isto resultou no que alguns chamavam de “Braço de Gorila”, referindo-se à fadiga muscular que vinha de um usuário que esticava a mão por tanto tempo.
Um ano depois, a tecnologia multitouch deu um passo à frente quando Bob Boie da Bell Labs desenvolveu a primeira tela multitouch transparente sobreposta. Como Ars escreveu no ano passado:
…a primeira tela multitouch foi desenvolvida na Bell Labs em 1984. relata que a tela, criada por Bob Boie, “usava uma matriz capacitiva transparente de sensores de toque sobrepostos em um CRT”. Ela permitiu ao usuário “manipular objetos gráficos com os dedos com excelente tempo de resposta”
A descoberta ajudou a criar a tecnologia multitouch que usamos hoje em tablets e smartphones.
1990s: Ecrãs tácteis para todos!
>
Em 1993, a IBM e a BellSouth juntaram-se para lançar o Simon Personal Communicator, um dos primeiros telemóveis com tecnologia touchscreen. Ele apresentava recursos de paginação, uma aplicação de e-mail e calendário, uma agenda, um livro de endereços, uma calculadora e um sketchpad baseado em caneta. Ele também tinha uma tela sensível ao toque resistiva que exigia o uso de um stylus para navegar pelos menus e inserir dados.
>
A Apple também lançou um dispositivo PDA com tela sensível ao toque naquele ano: o PDA Newton. Embora a plataforma Newton tivesse começado em 1987, o MessagePad foi o primeiro da série de dispositivos da Apple a utilizar a plataforma. Como observa a Time, o CEO da Apple na época, John Sculley, na verdade cunhou o termo “PDA” (ou “assistente digital pessoal”). Como o Simon Personal Communicator da IBM, o MessagePad 100 apresentava um software de reconhecimento de caligrafia e era controlado com um stylus.
Early reviews of the MessagePad focava nas suas características úteis. Uma vez que chegou às mãos dos consumidores, porém, suas falhas se tornaram mais evidentes. O software de reconhecimento de caligrafia não funcionava muito bem, e o Newton não vendia tantas unidades. Mas isso não impediu a Apple; a empresa fez o Newton por mais seis anos, terminando com o MP2000.
>
Três anos depois, a Palm Computing seguiu o exemplo com seu próprio PDA, apelidado de Pilot. Foi a primeira das muitas gerações de assistentes digitais pessoais da empresa. Como os outros gadgets touchscreen que o precederam, o Palm 1000 e o Pilot 5000 exigiam o uso de um stylus.
O gadget do PDA da Palm teve um pouco mais de sucesso do que as ofertas da IBM e da Apple. Seu nome logo se tornou sinônimo da palavra “negócio”, ajudado em parte pelo fato de seu software de reconhecimento de caligrafia ter funcionado muito bem. Os usuários usavam o que o Palm chamava de “Graffiti” para inserir textos, números e outros caracteres. Era simples de aprender e imitava como uma pessoa escreve em um pedaço de papel. Foi eventualmente implementado na plataforma Apple Newton.
Os dispositivos do tipo PDA não apresentavam necessariamente o tipo de ecrã táctil dedo a dedo a que estamos habituados hoje em dia, mas a adopção pelo consumidor convenceu as empresas que havia interesse suficiente em possuir este tipo de dispositivo.
No final da década, Wayne Westerman, estudante de pós-graduação da Universidade de Delaware, publicou uma tese de doutorado intitulada “Rastreamento da mão, identificação do dedo e manipulação de cordas em uma superfície multi-toque”. O trabalho detalhou os mecanismos por trás do que conhecemos hoje como tecnologia capacitiva multi-toque, que se tornou uma característica básica nos dispositivos modernos equipados com tela tátil.
>
Westerman e seu conselheiro acadêmico, John Elias, eventualmente formaram uma empresa chamada FingerWorks. O grupo começou a produzir uma linha de produtos baseados em gestos multitouch, incluindo um teclado baseado em gestos chamado TouchStream. Isto ajudou aqueles que sofriam de deficiências como lesões por esforço repetitivo e outras condições médicas. O iGesture Pad também foi lançado naquele ano, o que permitiu a gesticulação e manobra de uma mão para controlar o ecrã. O FingerWorks foi eventualmente adquirido pela Apple em 2005, e muitas tecnologias de atributos como o Trackpad multitouch ou o touchscreen do iPhone para esta aquisição.
2000s e mais além
Com tantas tecnologias diferentes acumuladas nas décadas anteriores, os anos 2000 foram a época para as tecnologias touchscreen realmente florescerem. Não vamos cobrir aqui muitos dispositivos específicos (mais sobre aqueles como esta série touchscreen continua), mas houve avanços durante esta década que ajudaram a trazer tecnologia multi-toque e baseada em gestos para as massas. Os anos 2000 foram também a época em que as telas táteis se tornaram a ferramenta favorita para colaboração em design.
2001: Alias|Wavefront’s gesture-based PortfolioWall
Com a aproximação do novo milênio, as empresas estavam despejando mais recursos na integração da tecnologia touchscreen em seus processos diários. Animadores e designers 3D foram especialmente visados com o advento do PortfolioWall. Esta era uma tela touchscreen de grande formato destinada a ser uma versão dinâmica das placas que os estúdios de design utilizam para acompanhar os projetos. Embora o desenvolvimento tenha começado em 1999, o PortfolioWall foi revelado na SIGGRAPH em 2001 e foi produzido em parte por uma colaboração conjunta entre a General Motors e a equipe do Alias|Wavefront. Buxton, que agora atua como pesquisador principal na Microsoft Research, foi o cientista chefe do projeto. “Estamos derrubando a parede e mudando a maneira como as pessoas se comunicam efetivamente no local de trabalho e fazem negócios”, disse ele na época. “A interface gestual do PortfolioWall permite que os usuários interajam completamente com um ativo digital”. Olhar para imagens agora facilmente se torna parte de um fluxo de trabalho diário”
>
O PortfolioWall usava uma interface simples, fácil de usar e baseada em gestos. Ele permitiu aos usuários inspecionar e manobrar imagens, animações e arquivos 3D com apenas os dedos. Também era fácil de escalar imagens, buscar modelos 3D e reproduzir vídeos. Uma versão posterior adicionou esboço e anotação de texto, a capacidade de lançar aplicativos de terceiros e uma ferramenta de visualização 3D baseada no Maya para usar panning, rotação, zoom e visualização para modelos 3D. Na sua maioria, o produto foi considerado uma prancha de cortiça digital para profissões centradas no design. Também custou uns impressionantes 38.000 dólares para obter a instalação completa – 3.000 dólares para o próprio apresentador e 35.000 dólares para o servidor.>
O PortfolioWall também abordou o fato de que enquanto os meios tradicionais como modelos em argila e desenhos em tamanho real ainda eram importantes para o processo de design, eles estavam sendo lentamente aumentados por ferramentas digitais. O dispositivo incluiu add-ons que virtualmente emularam esses meios tangíveis e serviram como uma ferramenta de apresentação para os designers mostrarem seus trabalhos em andamento.
Outro desenho principal do PortfolioWall foi seu “servidor de conscientização”, o que ajudou a facilitar a colaboração através de uma rede para que as equipes não tivessem que estar na mesma sala para revisar um projeto. As equipas podiam ter várias paredes em espaços diferentes e ainda colaborar remotamente.
O PortfolioWall acabou por descansar em 2008, mas foi um excelente exemplo de como os gestos interagindo com o ecrã táctil podiam ajudar a controlar todo um sistema operativo.
2002: Sensoriamento capacitivo mútuo no SmartSkin da Sony
>
Em 2002, a Sony introduziu uma superfície de entrada plana que podia reconhecer múltiplas posições das mãos e pontos de toque ao mesmo tempo. A empresa chamou-lhe SmartSkin. A tecnologia funcionava calculando a distância entre a mão e a superfície com sensoriamento capacitivo e uma antena em forma de malha. Ao contrário do sistema de reconhecimento de gestos baseado em câmera em outras tecnologias, os elementos sensores foram todos integrados na superfície de toque. Isto também significava que não haveria mau funcionamento em más condições de iluminação. O objectivo final do projecto era transformar superfícies que são utilizadas todos os dias, como a sua mesa média ou uma parede, em superfícies interactivas com o uso de um PC nas proximidades. No entanto, a tecnologia fez mais pela tecnologia de toque capacitivo do que o pretendido, incluindo a introdução de múltiplos pontos de contacto.
Jun Rekimoto no Laboratório de Interação dos Laboratórios de Ciência da Computação da Sony observou as vantagens desta tecnologia em um whitepaper. Ele disse que tecnologias como a SmartSkin oferecem “suporte natural para operações de múltiplas mãos e múltiplos usuários”. Mais de dois utilizadores podem simultaneamente tocar na superfície de cada vez sem qualquer interferência. Dois protótipos foram desenvolvidos para mostrar o SmartSkin usado como uma mesa interativa e um bloco de reconhecimento de gestos. O segundo protótipo utilizava uma malha mais fina em comparação com o primeiro para que pudesse mapear coordenadas mais precisas dos dedos. No geral, a tecnologia foi concebida para oferecer uma sensação real de objectos virtuais, essencialmente recriando a forma como os humanos usam os dedos para apanhar objectos e manipulá-los.
2002-2004: Tabletes falhados e TouchLight da Microsoft Research
Tecnologia multitouch lutou no mainstream, aparecendo em dispositivos especializados, mas nunca conseguindo uma grande pausa. Um quase veio em 2002, quando a DSI Datotech, com sede no Canadá, desenvolveu o dispositivo HandGear + GRT (a sigla “GRT” referia-se à Tecnologia de Reconhecimento por Gestos do dispositivo). O touchpad multiponto do dispositivo funcionava um pouco como o pad iGesture acima mencionado, pois podia reconhecer vários gestos e permitir que os usuários o usassem como um dispositivo de entrada para controlar seus computadores. “Queríamos ter certeza de que o HandGear seria fácil de usar”, disse o vice-presidente de marketing Tim Heaney em um comunicado à imprensa. “Então a tecnologia foi projetada para reconhecer movimentos de mãos e dedos que são completamente naturais, ou intuitivos para o usuário, sejam eles canhotos ou destros”. Após um curto período de aprendizagem, eles são literalmente capazes de se concentrar no trabalho à mão, ao invés do que os dedos estão fazendo”
HandGear também permitiu aos usuários “agarrar” objetos tridimensionais em tempo real, ampliando ainda mais essa idéia de liberdade e produtividade no processo de design”. A empresa até disponibilizou a API para desenvolvedores através do AutoDesk. Infelizmente, como Buxton menciona em sua visão geral do multitouch, a empresa ficou sem dinheiro antes de seu produto ser enviado e a DSI fechou suas portas.
>
Dois anos mais tarde, Andrew D. Wilson, um funcionário da Microsoft Research, desenvolveu uma tela sensível ao toque baseada em gestos e uma tela 3D. O TouchLight usou uma tela de projeção traseira para transformar uma folha de plástico acrílico em uma superfície que fosse interativa. A tela podia sentir vários dedos e mãos de mais de um usuário e, devido às suas capacidades 3D, também podia ser usada como um espelho improvisado.
O TouchLight foi uma demonstração de tecnologia limpa e acabou sendo licenciado para produção para a Eon Reality antes que a tecnologia se mostrasse muito cara para ser embalada em um dispositivo de consumo. No entanto, esta não seria a única incursão da Microsoft na tecnologia de display multitouch: Sensoriamento multitoque através de “reflexão interna total frustrada”
Em 2006, Jeff Han deu a primeira demonstração pública da sua tela de computador intuitiva, sem interface e com toque, em uma Conferência TED em Monterey, CA. Em sua apresentação, Han moveu e manipulou fotos em uma caixa de luz gigante usando apenas a ponta de seus dedos. Ele folheou as fotos, esticou-as e beliscou-as, tudo com uma facilidade natural cativante. “Isto é algo que o Google deveria ter no lobby deles”, brincou ele. O demo mostrou que uma tela sensível ao toque de alta resolução e escalável era possível de construir sem gastar muito dinheiro.
Han tinha descoberto que o sensoriamento multitoque “robusto” era possível usando “reflexão interna total frustrada” (FTIR), uma técnica da comunidade biométrica usada para imagens de impressões digitais. FTIR funciona através do brilho da luz através de um pedaço de acrílico ou plexiglass. A luz (infravermelha é comumente usada) salta para frente e para trás entre a parte superior e inferior do acrílico enquanto ele viaja. Quando um dedo toca na superfície, os feixes se dispersam ao redor da borda onde o dedo é colocado, daí o termo “frustrado”. As imagens que são geradas parecem bolhas brancas e são captadas por uma câmera infra-vermelha. O computador analisa onde o dedo está tocando para marcar a sua colocação e atribuir uma coordenada. O software pode então analisar as coordenadas para realizar uma determinada tarefa, como redimensionar ou rodar objectos.
>
Após a palestra do TED ter se tornado um sucesso no YouTube, Han lançou uma inicialização chamada Perceptive Pixel. Um ano após a palestra, ele disse à Wired que seu produto multitouch ainda não tinha um nome. E embora ele tivesse alguns clientes interessados, Han disse que todos eles eram “clientes de alto nível”. Principalmente a defesa”
No ano passado, Hann vendeu a sua empresa à Microsoft, num esforço para tornar a tecnologia mais convencional e acessível para os consumidores. “Nossa empresa sempre foi sobre casos de uso de produtividade”, disse Han ao AllThingsD. “É por isso que sempre nos concentramos nestes expositores maiores. Office é o que as pessoas pensam quando pensam em produtividade.
2008: Microsoft Surface
Antes de existir um tablet de 10 polegadas, o nome “Surface” referia-se ao ecrã táctil gráfico de topo de gama da Microsoft, originalmente construído dentro de uma mesa IKEA real com um buraco no topo. Apesar de ter sido rebaixada para o público em 2007, a ideia teve origem em 2001. Os investigadores da Redmond visionaram uma superfície de trabalho interactiva que os colegas poderiam usar para manipular objectos para trás e para a frente. Durante muitos anos, o trabalho esteve escondido atrás de um acordo de não-divulgação. Foram necessários 85 protótipos antes que a Superfície 1.0 estivesse pronta.
Como Ars escreveu em 2007, a Superfície Microsoft era essencialmente um computador embutido em uma mesa de tamanho médio, com uma tela grande e plana no topo. A imagem da tela foi projetada para trás na superfície da tela de dentro da mesa, e o sistema detectou onde o usuário tocou a tela através de câmeras montadas dentro da mesa, olhando para cima, na direção do usuário. Como os dedos e as mãos interagiam com o que estava na tela, o software da Surface rastreou os pontos de toque e acionou as ações corretas. A Surface podia reconhecer vários pontos de toque de cada vez, bem como objectos com pequenos autocolantes “dominó” colados a eles. Mais tarde no seu ciclo de desenvolvimento, a Surface também ganhou a capacidade de identificar dispositivos via RFID.
A Surface original foi revelada na conferência All Things D em 2007. Embora muitos de seus conceitos de design não fossem novos, ele ilustrou muito eficazmente o caso de uso no mundo real para telas de toque integradas em algo do tamanho de uma mesa de café. A Microsoft então trouxe a Superfície de 30 polegadas para demonstrá-la no CES 2008, mas a empresa disse explicitamente que tinha como alvo o “espaço retalhista de entretenimento”. A Surface foi concebida principalmente para ser usada pelos clientes comerciais da Microsoft para dar aos consumidores um gostinho do hardware. A empresa fez parceria com vários hotéis de grande nome, como Starwood e Harrah’s Casino, para mostrar a tecnologia em seus lobbies. Empresas como a AT&T utilizaram a Surface para mostrar os últimos aparelhos aos consumidores que entram nos seus locais de venda de tijolos e argamassa.
>
Rather do que referir-se a ela como uma interface gráfica de usuário (GUI), a Microsoft denotou a interface da Surface como uma interface natural de usuário, ou “NUI”. A frase sugeria que a tecnologia se sentiria quase instintiva para o usuário final humano, tão natural quanto interagir com qualquer tipo de objeto tangível no mundo real. A frase também se referia ao fato de que a interface era impulsionada principalmente pelo toque do usuário, e não por dispositivos de entrada. (Além disso, NUI-“new-ey” – feito para um acrônimo rápido e de fácil marketing.)
>
Em 2011, a Microsoft fez uma parceria com fabricantes como a Samsung para produzir hardware de superfície de mesa mais elegante e novo. Por exemplo, o Samsung SUR40 tem um LED de 40 polegadas de 1080p, e reduziu drasticamente a quantidade de espaço interno necessário para os mecanismos de sensoriamento de toque. Com 22 polegadas de espessura, ele era mais fino que seus antecessores, e a redução de tamanho tornou possível montar o display em uma parede em vez de exigir uma mesa para abrigar a câmera e os sensores. Custou cerca de $8.400 no momento de seu lançamento e rodou Windows 7 e Surface 2.0 software.>
No ano passado, a empresa rebatizou a tecnologia como PixelSense uma vez que a Microsoft introduziu a sua tablete Surface não relacionada com o produto aos consumidores. O nome “PixelSense” refere-se à forma como a tecnologia realmente funciona: um vidro de proteção sensível ao toque é colocado em cima de uma luz de fundo infravermelha. Ao atingir o vidro, a luz é refletida de volta para sensores integrados, que convertem essa luz em um sinal elétrico. Esse sinal é referido como um “valor”, e esses valores criam uma imagem do que está no visor. A imagem é então analisada usando técnicas de processamento de imagem, e essa saída é enviada para o computador ao qual está conectada.
PixelSense possui quatro componentes principais que compõem sua tecnologia: não requer mouse e teclado para funcionar, mais de um usuário pode interagir com ele ao mesmo tempo, ele pode reconhecer certos objetos colocados no vidro, e possui múltiplos pontos de contato. O nome PixelSense também pode ser atribuído a esse último bit especialmente – cada pixel pode realmente sentir se houve ou não contato por toque.
Embora fosse uma adição fantástica à sala de estar, a Microsoft continua a comercializar o hardware Surface como uma ferramenta de negócios em vez de um produto de consumo.
Tocar hoje e amanhã?
Não pode ser subestimado – cada uma destas tecnologias teve um impacto monumental nos gadgets que usamos hoje. Tudo, desde nossos smartphones a trackpads para laptop e tablets WACOM, pode ser de alguma forma conectado às muitas invenções, descobertas e patentes na história da tecnologia touchscreen. Os usuários de Android e iOS devem agradecer a E.A. Johnson pelos smartphones capacitivos com capacidade de toque, enquanto os restaurantes podem enviar seus cumprimentos ao Dr. G. Samuel Hurst pela tela sensível ao toque resistiva em seu sistema de Ponto de Venda (POS).
Na próxima parte da nossa série, vamos mergulhar mais fundo nos dispositivos de hoje. (Como é que o trabalho da FingerWorks teve impacto nesses dispositivos iDevices?) Mas a história também não acabou com 2011. Também vamos discutir como alguns dos principais jogadores actuais – como a Apple e a Samsung – continuam a contribuir para a evolução dos gadgets touchscreen. Não role esse dedo, fique atento!