Fra touch-skærme til Surface: En kort historie om touchscreen-teknologi

Aurich Lawson / Thinkstock

Det er svært at tro, at touchscreen-teknologi for blot et par årtier siden kun fandtes i science fiction-bøger og film. I dag er det næsten ubegribeligt, hvordan vi engang kunne klare vores daglige opgaver uden en trofast tablet eller smartphone i nærheden, men det stopper ikke her. Touchskærme findes virkelig overalt. Hjem, biler, restauranter, butikker, fly, hvor som helst – de fylder vores liv i offentlige og private rum.

Det tog generationer og flere store teknologiske fremskridt, før touchscreens opnåede denne form for tilstedeværelse. Selv om den underliggende teknologi bag touchscreens kan spores tilbage til 1940’erne, er der masser af beviser, der tyder på, at touchscreens ikke var gennemførlige før mindst 1965. Populære science fiction-tv-serier som Star Trek refererede ikke engang til teknologien, før Star Trek: The Next Generation havde premiere i 1987, næsten to årtier efter at touchscreen-teknologien overhovedet blev anset for mulig. Men deres medtagelse i serien fulgte udviklingen i den teknologiske verden, og i slutningen af 1980’erne syntes touchscreens endelig at være realistiske nok til, at forbrugerne rent faktisk kunne anvende teknologien i deres egne hjem.

Se mere

Denne artikel er den første i en serie i tre dele om touchscreen-teknologiens rejse fra fiktion til virkelighed. De første tre årtier med berøring er vigtige at reflektere over for virkelig at kunne sætte pris på den multitouch-teknologi, som vi er så vant til at have i dag. I dag vil vi se på, hvornår disse teknologier først opstod, og hvem der introducerede dem, og vi vil desuden diskutere flere andre pionerer, som spillede en stor rolle i udviklingen af touch. Fremtidige indlæg i denne serie vil undersøge, hvordan ændringerne i berøringsskærme har ført til vigtige enheder for vores liv i dag, og hvor teknologien kan føre os hen i fremtiden. Men først skal vi sætte fingeren på skærmen og rejse til 1960’erne.

1960’erne: Den første touchscreen

Johnson, 1967

Historikere mener generelt, at den første fingerdrevne touchscreen blev opfundet af E.A. Johnson i 1965 på Royal Radar Establishment i Malvern i Det Forenede Kongerige. Johnson beskrev oprindeligt sit arbejde i en artikel med titlen “Touch display-a novel input/output device for computers”, der blev offentliggjort i Electronics Letters. Artiklen indeholdt et diagram, der beskrev en type berøringsskærmsmekanisme, som mange smartphones bruger i dag – det, vi nu kender som kapacitiv berøring. To år senere uddybede Johnson teknologien yderligere med fotografier og diagrammer i artiklen “Touch Displays: A Programmed Man-Machine Interface”, der blev offentliggjort i Ergonomics i 1967.

Sådan fungerer kapacitive berøringsskærme.

Et kapacitivt berøringsskærmpanel bruger en isolator, som f.eks. glas, der er belagt med en gennemsigtig leder som f.eks. indiumtinoxid (ITO). Den “ledende” del er normalt en menneskelig finger, som giver en fin elektrisk leder. Johnsons oprindelige teknologi kunne kun behandle én berøring ad gangen, og det, vi i dag ville beskrive som “multitouch”, var stadig et stykke vej væk. Opfindelsen var også binær i sin fortolkning af berøring – grænsefladen registrerede enten kontakt eller ikke kontakt. Trykfølsomhed kom først langt senere.

Selv uden de ekstra funktioner havde den tidlige idé med berøringsgrænsefladen nogle interesserede. Johnsons opdagelse blev i sidste ende indført af flyveledere i Storbritannien og forblev i brug indtil slutningen af 1990’erne.

1970’erne: Selvom kapacitive berøringsskærme blev udviklet først, blev de i de første år af berøringen overskygget af resistive berøringsskærme. Den amerikanske opfinder Dr. G. Samuel Hurst udviklede næsten tilfældigt resistive touchscreens. Berea College Magazine for alumni beskrev det således:

For at studere atomfysik brugte forskerholdet en overbelastet Van de Graff-accelerator, der kun var tilgængelig om natten. Besværlige analyser bremsede deres forskning. Sam fandt på en måde at løse dette problem på. Han, Parks og Thurman Stewart, en anden ph.d.-studerende, brugte elektrisk ledende papir til at aflæse et par x- og y-koordinater. Denne idé førte til den første berøringsskærm til en computer. Med denne prototype kunne hans studerende på få timer beregne det, som ellers havde taget dage at udføre.

Hurst og forskerholdet havde arbejdet på University of Kentucky. Universitetet forsøgte at indgive patent på hans vegne for at beskytte denne tilfældige opfindelse mod kopiering, men dens videnskabelige oprindelse fik den til at virke som om, at den ikke var så anvendelig uden for laboratoriet.

Hurst havde dog andre idéer. “Jeg tænkte, at den kunne være nyttig til andre ting,” sagde han i artiklen. I 1970, efter at han var vendt tilbage til sit arbejde på Oak Ridge National Laboratory (ORNL), begyndte Hurst et eksperiment efter lukketid. I sin kælder gik Hurst og ni venner fra forskellige andre fagområder i gang med at forfine det, der tilfældigvis var blevet opfundet. Gruppen kaldte sit spæde projekt for “Elographics”, og holdet opdagede, at en berøringsskærm på en computerskærm var en fremragende interaktionsmetode. Alt, hvad skærmen behøvede, var en ledende dækplade, der kunne skabe kontakt med den plade, der indeholdt X- og Y-aksen. Ved at trykke på dækpladen kunne der flyde spænding mellem X-ledningerne og Y-ledningerne, som kunne måles for at angive koordinater. Denne opdagelse var med til at grundlægge det, vi i dag kalder resistiv berøringsteknologi (fordi den udelukkende reagerer på tryk frem for elektrisk ledningsevne og fungerer både med en stylus og en finger).

Annonce

Som en klasse af teknologi har resistive berøringsskærme en tendens til at være meget overkommelige at producere. De fleste enheder og maskiner, der anvender denne berøringsteknologi, kan findes i restauranter, fabrikker og hospitaler, fordi de er holdbare nok til disse miljøer. Smartphone-producenter har også tidligere anvendt resistive berøringsskærme, selv om deres tilstedeværelse på mobilområdet i dag er begrænset til telefoner i den lavere ende.

En AccuTouch-berøringsskærm af anden generation med buet touchscreen fra EloTouch.

Elographics begrænsede sig dog ikke kun til resistiv berøring. Koncernen patenterede til sidst den første buede glasberøringsgrænseflade. Patentet havde titlen “elektrisk sensor af plane koordinater” og indeholdt oplysninger om “en billig elektrisk sensor af plane koordinater”, der anvendte “sidestillede ark af ledende materiale med elektriske equipotentiallinjer”. Efter denne opfindelse blev Elographics solgt til “gode folk i Californien” og blev til EloTouch Systems.

I 1971 var der blevet introduceret en række forskellige maskiner med berøringsfunktion, men ingen af dem var trykfølsomme. En af de mest udbredte berøringsfølsomme enheder på det tidspunkt var PLATO IV-terminalen fra University of Illinois – en af de første generaliserede computerstøttede instruktionssystemer. PLATO IV undgik kapacitiv eller resistiv berøring til fordel for et infrarødt system (vi vil forklare det om lidt). PLATO IV var den første computer med berøringsskærm, der blev brugt i et klasseværelse, hvor eleverne kunne røre skærmen for at besvare spørgsmål.

Plato-IV-terminalen med berøringsskærm.

1980’erne:

Et af de første diagrammer, der viser multitouch-input.
Bill Buxton

I 1982 blev den første menneskeligt styrede multitouch-enhed udviklet på University of Toronto af Nimish Mehta. Det var ikke så meget en touchscreen som en touch-tablet. Input Research Group på universitetet fandt ud af, at et panel af matteret glas med et kamera bagved kunne registrere handling, da det genkendte de forskellige “sorte pletter”, der dukkede op på skærmen. Bill Buxton har spillet en stor rolle i udviklingen af multitouch-teknologien (især med PortfolioWall, som vil blive omtalt lidt senere), og han anså Mehtas opfindelse for vigtig nok til at blive medtaget i sin uformelle tidslinje over computerens input-enheder:

Touch-overfladen var et gennemsigtigt plastfilter monteret over en glasplade, der var sidebelyst af en lysstofrør. Et videokamera var monteret under berøringsfladen og optisk optog de skygger, der opstod på det gennemsigtige filter. (Et spejl i huset blev brugt til at forlænge den optiske vej.) Kameraets output blev digitaliseret og ført ind i en signalprocessor til analyse.

Kort tid efter blev gestisk interaktion introduceret af Myron Krueger, en amerikansk computerkunstner, som udviklede et optisk system, der kunne spore håndbevægelser. Krueger introducerede Video Place (senere kaldet Video Desk) i 1983, selv om han havde arbejdet på systemet siden slutningen af 1970’erne. Det brugte projektorer og videokameraer til at spore hænder, fingre og de personer, som de tilhørte. I modsætning til multitouch var det ikke helt bevidst om, hvem eller hvad der blev rørt ved, selv om softwaren kunne reagere på forskellige positurer. Displayet afbildede, hvad der lignede skygger i et simuleret rum.

Bill Buxton præsenterer PortfolioWall og beskriver nogle af dens evner.

Og selv om den ikke teknisk set var berøringsbaseret – den var afhængig af “opholdstid”, før den kunne udføre en handling – betragter Buxton den som en af de teknologier, der “‘skrev bogen’ med hensyn til uhindret … rig gestural interaktion. Arbejdet var mere end et årti forud for sin tid og havde stor indflydelse, men er ikke så anerkendt, som det burde være.” Krueger var også pioner inden for virtual reality og interaktiv kunst senere i sin karriere.

Et diagram (på spansk!), der detaljeret beskriver, hvordan Video Place fungerede.

Touchscreens begyndte at blive kraftigt kommercialiseret i begyndelsen af 1980’erne. HP (dengang stadig formelt kendt som Hewlett-Packard) kastede sin hat ind med HP-150 i september 1983. Computeren brugte MS-DOS og var udstyret med en 9-tommer Sony CRT-skærm omgivet af infrarøde (IR) sendere og detektorer, der kunne registrere, hvor brugerens finger kom ned på skærmen. Systemet kostede omkring 2.795 dollars, men det blev ikke straks taget til sig, fordi det havde nogle problemer med brugervenligheden. Hvis man f.eks. pegede på skærmen, ville man til gengæld blokere andre IR-stråler, som kunne fortælle computeren, hvor fingeren pegede hen. Dette resulterede i det, som nogle kaldte “Gorilla Arm” med henvisning til den muskeltræthed, der opstod, når brugeren stak hånden ud i så lang tid.

Forstør / HP-150 var udstyret med MS-DOS og en 9-tommers Sony CRT-skærm med berøringsfølsom skærm.
Wikimedia Commons

Et år senere tog multitouch-teknologien et skridt fremad, da Bob Boie fra Bell Labs udviklede det første gennemsigtige multitouch-skærmoverlay. Som Ars skrev sidste år:

…den første multitouch-skærm blev udviklet på Bell Labs i 1984. rapporterer, at skærmen, der blev skabt af Bob Boie, “brugte et gennemsigtigt kapacitivt array af berøringssensorer overlejret på en CRT-skærm”. Den gjorde det muligt for brugeren at “manipulere grafiske objekter med fingrene med en fremragende responstid.”

Denne opdagelse var med til at skabe den multitouch-teknologi, som vi i dag bruger i tablets og smartphones.

1990’erne: Touchscreens til alle!

IBM’s Simon Personal Communicator: stort håndsæt, stor skærm og en stylus til touch-input.
Android Authority

I 1993 gik IBM og BellSouth sammen om at lancere Simon Personal Communicator, en af de første mobiltelefoner med touchscreen-teknologi. Den var udstyret med personsøgningsfunktioner, en e-mail- og kalenderapplikation, en aftaleskema, en adressebog, en lommeregner og en penbaseret skitseblok. Den havde også en resistiv berøringsskærm, som krævede brug af en stylus til at navigere i menuer og indtaste data.

Den originale MessagePad 100.

Apple lancerede også en PDA-enhed med berøringsskærm samme år: Newton PDA’en. Selv om Newton-platformen var begyndt i 1987, var MessagePad den første i rækken af enheder fra Apple til at bruge platformen. Som Time bemærker, var det faktisk Apples daværende administrerende direktør på det tidspunkt, John Sculley, der opfandt udtrykket “PDA” (eller “personlig digital assistent”). Ligesom IBM’s Simon Personal Communicator havde MessagePad 100 software til håndskriftgenkendelse og blev styret med en stylus.

De tidlige anmeldelser af MessagePad fokuserede på de nyttige funktioner. Da den først kom i forbrugernes hænder, blev dens mangler imidlertid mere tydelige. Håndskriftgenkendelsessoftwaren fungerede ikke særlig godt, og Newton’en solgte ikke så mange enheder. Det stoppede dog ikke Apple; firmaet lavede Newton’en i yderligere seks år og sluttede med MP2000.

Den første Palm Pilot.
Wikimedia Commons

Tre år senere fulgte Palm Computing efter med sin egen PDA, som fik navnet Pilot. Det var den første af virksomhedens mange generationer af personlige digitale assistenter. Ligesom de andre gadgets med touchscreen, der gik forud for den, krævede Palm 1000 og Pilot 5000 brug af en stylus.

Palms PDA-gadget havde lidt mere succes end IBM’s og Apples tilbud. Dens navn blev hurtigt synonymt med ordet “business”, hvilket bl.a. blev hjulpet på vej af, at dens håndskriftgenkendelsessoftware fungerede meget godt. Brugerne brugte det, som Palm kaldte “Graffiti” til at indtaste tekst, tal og andre tegn. Det var nemt at lære og efterlignede den måde, som en person skriver på et stykke papir. Det blev til sidst implementeret over på Apple Newton-platformen.

Annonce

Enheder af PDA-typen var ikke nødvendigvis udstyret med touchscreens af den finger-til-skærm-type, som vi er vant til i dag, men forbrugernes udbredelse overbeviste virksomhederne om, at der var interesse nok for at eje denne type enheder.

Nær slutningen af dette årti offentliggjorde Wayne Westerman, kandidatstuderende ved University of Delaware, en doktorafhandling med titlen “Hand Tracking, Finger Identification, and Chordic Manipulation on a Multi-Touch Surface” (håndsporing, fingeridentifikation og akkordisk manipulation på en multiberøringsflade). Afhandlingen beskrev mekanismerne bag det, vi i dag kender som kapacitiv multitouch-teknologi, som er blevet en fast bestanddel af moderne enheder med berøringsskærme.

Den iGesture-pad, der er fremstillet af FingerWorks.

Westerman og hans fakultetsvejleder, John Elias, dannede i sidste ende et firma ved navn FingerWorks. Gruppen begyndte at producere en serie af multitouch-gestikbaserede produkter, herunder et gestikbaseret tastatur kaldet TouchStream. Dette hjalp dem, der led af handicaps som repetitive belastningsskader og andre medicinske tilstande. Det samme år blev iGesture Pad også lanceret, som gjorde det muligt at styre skærmen med én hånd ved at gestikulere og manøvrere. FingerWorks blev til sidst opkøbt af Apple i 2005, og mange tilskriver dette opkøb teknologier som multitouch Trackpad eller iPhonens berøringsskærm.

2000’erne og fremefter

Med så mange forskellige teknologier, der blev opbygget i de foregående årtier, var 2000’erne det tidspunkt, hvor berøringsskærmsteknologierne for alvor blomstrede. Vi vil ikke dække for mange specifikke enheder her (mere om dem, når denne serie om berøringsskærme fortsætter), men der var fremskridt i løbet af dette årti, som var med til at bringe multitouch- og gesturbaseret teknologi ud til masserne. 2000’erne var også den æra, hvor berøringsskærme blev det foretrukne værktøj til designsamarbejde.

2001: Alias|Wavefronts gesturbaserede PortfolioWall

Da det nye årtusind nærmede sig, brugte virksomhederne flere ressourcer på at integrere berøringsskærmsteknologi i deres daglige processer. 3D-animatorer og -designere blev særligt målrettet med fremkomsten af PortfolioWall. Der var tale om en touchscreen i stort format, der skulle være en dynamisk udgave af de tavler, som designstudier bruger til at følge projekterne. Selv om udviklingen startede i 1999, blev PortfolioWall afsløret på SIGGRAPH i 2001 og blev delvist produceret i et samarbejde mellem General Motors og teamet hos Alias|Wavefront. Buxton, der nu er forskningsleder hos Microsoft Research, var den ledende videnskabsmand på projektet. “Vi er ved at rive muren ned og ændre den måde, folk effektivt kommunikerer på på arbejdspladsen og gør forretninger på,” sagde han dengang. “PortfolioWall’s gestiske grænseflade giver brugerne mulighed for at interagere fuldstændigt med et digitalt aktiv. At se på billeder bliver nu nemt en del af en dagligdags arbejdsgang.”

Bill Buxton præsenterer PortfolioWall og beskriver nogle af dens evner.

PortfolioWall brugte en enkel, brugervenlig, gestuelbaseret grænseflade. Det gjorde det muligt for brugerne at inspicere og manøvrere billeder, animationer og 3D-filer med blot deres fingre. Det var også nemt at skalere billeder, hente 3D-modeller og afspille video. En senere version tilføjede skitse- og tekstannotationer, mulighed for at starte tredjepartsprogrammer og et Maya-baseret 3D-visningsværktøj til brug for panorering, rotation, zoom og visning af 3D-modeller. For det meste blev produktet betragtet som en digital korktavle for designorienterede erhverv. Det kostede også hele 38.000 dollars for at få hele opsætningen installeret – 3.000 dollars for selve præsentationsenheden og 35.000 dollars for serveren.

Med PortfolioWall kunne designere vise 3D-modeller i fuld skala.

The PortfolioWall tog også højde for det faktum, at selv om traditionelle medier som lermodeller og tegninger i fuld størrelse stadig var vigtige for designprocessen, blev de langsomt suppleret af digitale værktøjer. Enheden indeholdt tilføjelser, der virtuelt efterlignede disse håndgribelige medier og fungerede som et præsentationsværktøj, hvor designere kunne vise deres igangværende arbejde frem.

Et andet vigtigt trækplaster ved PortfolioWall var dens “awareness-server”, der bidrog til at lette samarbejdet på tværs af et netværk, så teams ikke behøvede at være i samme rum for at gennemgå et projekt. Teams kunne have flere vægge i forskellige rum og stadig samarbejde på afstand.

Annonce

PortfolioWall blev i sidste ende lagt i graven i 2008, men den var et godt eksempel på, hvordan bevægelser i samspil med touchskærmen kunne være med til at styre et helt styresystem.

2002: I 2002 introducerede Sony en flad indtastningsflade, der kunne genkende flere håndpositioner og berøringspunkter på samme tid. Virksomheden kaldte den SmartSkin. Teknologien fungerede ved at beregne afstanden mellem hånden og overfladen ved hjælp af kapacitiv aftastning og en mesh-formet antenne. I modsætning til det kamerabaserede system til genkendelse af bevægelser i andre teknologier var alle sensorelementerne integreret i berøringsfladen. Det betød også, at det ikke ville fungere dårligt under dårlige lysforhold. Det endelige mål med projektet var at omdanne overflader, der bruges hver dag, som f.eks. et almindeligt bord eller en væg, til interaktive overflader ved hjælp af en pc i nærheden. Teknologien gjorde dog mere for den kapacitive berøringsteknologi, end det måske var hensigten, bl.a. ved at indføre flere kontaktpunkter.

Hvordan SmartSkin registrerede gestus.
Sony Computer Science Laboratories, Inc.

Jun Rekimoto fra Interaction Laboratory i Sony’s Computer Science Laboratories bemærkede fordelene ved denne teknologi i et whitepaper. Han sagde, at teknologier som SmartSkin giver “naturlig støtte til operationer med flere hænder og flere brugere”. Mere end to brugere kan berøre overfladen samtidigt på samme tid uden nogen form for interferens. Der blev udviklet to prototyper for at vise SmartSkin anvendt som et interaktivt bord og som en pad med gestegenkendelse. Den anden prototype anvendte finere net i forhold til den første prototype, så den kan kortlægge fingrenes koordinater mere præcist. Overordnet set var det meningen, at teknologien skulle give en virkelighedsnær fornemmelse af virtuelle objekter og i det væsentlige genskabe, hvordan mennesker bruger deres fingre til at samle objekter op og manipulere dem.

2002-2004:

En multitouch-tablet-input-enhed ved navn HandGear.
Bill Buxton

Multitouch-teknologien kæmpede med at vinde indpas i den almindelige befolkning og dukkede op i specialudstyr, men fik aldrig rigtig et stort gennembrud. Det lykkedes næsten i 2002, da det canadiske firma DSI Datotech udviklede HandGear + GRT-enheden (akronymet “GRT” henviser til enhedens gestusgenkendelsesteknologi). Enhedens multipoint touchpad fungerede lidt ligesom den førnævnte iGesture-pad, idet den kunne genkende forskellige bevægelser og give brugerne mulighed for at bruge den som en indtastningsenhed til at styre deres computere. “Vi ville være helt sikre på, at HandGear ville være let at bruge”, sagde VP of Marketing Tim Heaney i en pressemeddelelse. “Så teknologien blev designet til at genkende hånd- og fingerbevægelser, som er helt naturlige, eller intuitive, for brugeren, uanset om de er venstre- eller højrehåndede. Efter en kort indlæringsperiode er de bogstaveligt talt i stand til at koncentrere sig om arbejdet i stedet for om, hvad fingrene gør.”

HandGear gjorde det også muligt for brugerne at “gribe” fat i tredimensionelle objekter i realtid, hvilket udvidede ideen om frihed og produktivitet i designprocessen yderligere. Virksomheden har endda gjort API’et tilgængeligt for udviklere via AutoDesk. Desværre, som Buxton nævner i sin oversigt over multitouch, løb firmaet tør for penge, inden deres produkt blev sendt ud, og DSI lukkede sine døre.

Andy Wilson forklarer teknologien bag TouchLight.

To år senere udviklede Andrew D. Wilson, der var ansat hos Microsoft Research, en gestusbaseret billedberøringsskærm og en 3D-skærm. TouchLight brugte en bagprojektionsskærm til at omdanne en akrylplastplade til en overflade, der var interaktiv. Skærmen kunne registrere flere fingre og hænder fra mere end én bruger, og på grund af dens 3D-funktioner kunne den også bruges som et improviseret spejl.

TouchLight var en flot teknologidemonstration, og den blev til sidst udliciteret til produktion til Eon Reality, inden teknologien viste sig at være for dyr til at blive pakket ind i en forbrugerenhed. Dette skulle dog ikke blive Microsofts eneste udflugt i den smarte multitouch-skærmteknologi.

2006:

Jeff Han

I 2006 gav Jeff Han den første offentlige demonstration af sin intuitive, grænsefladefrie, berøringsdrevne computerskærm på en TED-konference i Monterey, Californien, den første offentlige demonstration af sin intuitive, grænsefladefrie, berøringsdrevne computerskærm på en TED-konference i Monterey, Californien. I sin præsentation flyttede og manipulerede Han billeder på en gigantisk lysboks udelukkende ved hjælp af sine fingerspidser. Han viftede med fotos, strækkede dem ud og klemte dem væk, alt sammen med en fængslende naturlig lethed. “Det er noget, som Google burde have i deres lobby”, spøgte han. Demonstrationen viste, at det var muligt at bygge en højopløselig, skalerbar berøringsskærm uden at bruge for mange penge.

Et diagram over Jeff Hans multitouch-sensering ved hjælp af FTIR.
Jeff Han

Han havde opdaget, at den “robuste” multitouch-sensorering var mulig ved hjælp af “frustreret total intern refleksion” (FTIR), en teknik fra biometri-fællesskabet, der bruges til fingeraftryksafbildning. FTIR fungerer ved at lade lys skinne gennem et stykke akryl eller plexiglas. Lyset (normalt anvendes infrarødt lys) preller frem og tilbage mellem toppen og bunden af akrylglasset, mens det bevæger sig frem og tilbage. Når en finger rører ved overfladen, spredes strålerne omkring den kant, hvor fingeren er placeret, deraf udtrykket “frustreret”. De billeder, der genereres, ligner hvide klatter og opfanges af et infrarødt kamera. Computeren analyserer, hvor fingeren berører, for at markere dens placering og tildele en koordinat. Softwaren kan derefter analysere koordinaterne for at udføre en bestemt opgave, f.eks. ændre størrelsen eller rotere objekter.

Jeff Han demonstrerer sin nye “interface-fri” berøringsdrevne skærm.

Efter TED-foredraget blev et YouTube-hit, gik Han videre med at lancere en startup ved navn Perceptive Pixel. Et år efter foredraget fortalte han til Wired, at hans multitouch-produkt endnu ikke havde et navn. Og selv om han havde nogle interesserede kunder, sagde Han, at de alle var “virkelig high-end kunder”. Mostly defense.”

Sidste år solgte Hann sit firma til Microsoft i et forsøg på at gøre teknologien mere mainstream og overkommelig for forbrugerne. “Vores virksomhed har altid handlet om produktivitetsbrugstilfælde,” fortalte Han til AllThingsD. “Det er derfor, vi altid har fokuseret på disse større skærme. Office er det, folk tænker på, når de tænker på produktivitet.

2008: Microsoft Surface

Hvor der fandtes en 10-tommers tablet, henviste navnet “Surface” til Microsofts grafiske touchscreen til bordplade af høj kvalitet, der oprindeligt blev bygget inde i et rigtigt IKEA-bord med et hul skåret i toppen. Selv om den blev demonstreret for offentligheden i 2007, stammer idéen tilbage fra 2001. Forskere i Redmond forestillede sig en interaktiv arbejdsflade, som kolleger kunne bruge til at manipulere objekter frem og tilbage. I mange år blev arbejdet skjult bag en hemmeligholdelsesaftale. Der skulle 85 prototyper til, før Surface 1.0 var klar til brug.

Som Ars skrev i 2007, var Microsoft Surface i bund og grund en computer indlejret i et mellemstort bord med en stor, flad skærm ovenpå. Skærmens billede blev bagprojiceret på skærmfladen inde fra bordet, og systemet registrerede, hvor brugeren rørte skærmen via kameraer, der var monteret inde i bordet og kiggede opad mod brugeren. Når fingre og hænder interagerede med det, der var på skærmen, registrerede Surface-softwaren berøringspunkterne og udløste de korrekte handlinger. Surface kunne genkende flere berøringspunkter ad gangen samt genstande med små “domino”-klistermærker, der var hæftet på dem. Senere i udviklingscyklussen fik Surface også mulighed for at identificere enheder via RFID.

Bill Gates demonstrerer Microsoft Surface.

Den oprindelige Surface blev præsenteret på All Things D-konferencen i 2007. Selv om mange af dens designkoncepter ikke var nye, illustrerede den meget effektivt den virkelige brugssituation for touchscreens integreret i noget på størrelse med et sofabord. Microsoft medbragte derefter 30-tommers Surface for at demonstrere den på CES 2008, men virksomheden sagde udtrykkeligt, at den var rettet mod “underholdningsdetaljeområdet”. Surface blev primært designet til brug for Microsofts erhvervskunder for at give forbrugerne en smagsprøve på hardwaren. Virksomheden indgik et samarbejde med flere store hotelresorts, som Starwood og Harrah’s Casino, for at vise teknologien frem i deres lobbyer. Virksomheder som AT&T brugte Surface til at vise de nyeste mobiltelefoner frem for forbrugere, der kom ind i deres fysiske butikker.

Surface på CES 2008.

I stedet for at kalde det en grafisk brugergrænseflade (GUI) betegnede Microsoft Surface’s grænseflade som en naturlig brugergrænseflade eller “NUI”. Udtrykket antydede, at teknologien ville føles næsten instinktiv for den menneskelige slutbruger, lige så naturlig som at interagere med enhver form for håndgribelig genstand i den virkelige verden. Udtrykket henviste også til det faktum, at grænsefladen primært blev styret af brugerens berøring snarere end af input-enheder. (Desuden gav NUI – “new-ey” – et hurtigt og markedsføringsvenligt akronym.)

Microsoft introducerer Samsung SUR40.

I 2011 indgik Microsoft et samarbejde med producenter som Samsung om at producere slankere og nyere Surface-hardware til tablet-pc’er. Samsung SUR40 har f.eks. en 40″ 1080p LED-diode på 40 tommer, og det reducerede drastisk den interne plads, der kræves til berøringsfølelsesmekanismerne. Med en tykkelse på 22 tommer var den tyndere end sine forgængere, og størrelsesreduktionen gjorde det muligt at montere skærmen på en væg i stedet for at kræve et bord til at huse kameraet og sensorerne. Den kostede omkring 8.400 dollars ved lanceringen og kørte Windows 7 og Surface 2.0-software.

Microsoft

Sidste år omdøbte virksomheden teknologien til PixelSense, da Microsoft introducerede sin ubeslægtede Surface-tablet til forbrugerne. Navnet “PixelSense” henviser til den måde, som teknologien faktisk fungerer på: Et berøringsfølsomt beskyttelsesglas er placeret oven på et infrarødt baggrundslys. Når det rammer glasset, reflekteres lyset tilbage til integrerede sensorer, som omdanner lyset til et elektrisk signal. Dette signal betegnes som en “værdi”, og disse værdier skaber et billede af det, der står på skærmen. Billedet analyseres derefter ved hjælp af billedbehandlingsteknikker, og dette output sendes til den computer, som den er tilsluttet.

PixelSense har fire hovedkomponenter, der udgør dens teknologi: Den kræver ikke mus og tastatur for at fungere, mere end én bruger kan interagere med den på én gang, den kan genkende visse genstande, der er placeret på glasset, og den har flere kontaktpunkter. Navnet PixelSense kan også tilskrives især den sidste del – hver enkelt pixel kan faktisk mærke, om der har været berøringskontakt eller ej.

Annonce

Michrosoft fortsætter med at markedsføre Surface-hardwaren som et forretningsværktøj snarere end et forbrugerprodukt.

Touch i dag – og i morgen?

Det kan ikke undervurderes – hver af disse teknologier har haft en monumental indflydelse på de gadgets, vi bruger i dag. Alt fra vores smartphones til trackpads på bærbare computere og WACOM-tablets kan på en eller anden måde forbindes med de mange opfindelser, opdagelser og patenter i berøringsskærmsteknologiens historie. Android- og iOS-brugere bør takke E.A. Johnson for smartphones med kapacitiv berøringsfunktion, mens restauranter kan sende deres hilsner til Dr. G. Samuel Hurst for den resistive berøringsskærm på deres POS-system (Point of Sale).

I næste del af vores serie dykker vi dybere ned i nutidens enheder. (Hvordan har FingerWorks’ arbejde egentlig påvirket disse iDevices?) Men historien sluttede heller ikke med 2011. Vi vil også diskutere, hvordan nogle af de nuværende store spillere – som Apple og Samsung – fortsat bidrager til udviklingen af gadgets med berøringsskærm. Lad være med at rulle med fingeren, bliv hængende!

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.