From touch displays to the Surface: タッチスクリーン・テクノロジーの簡単な歴史

Aurich Lawson / Thinkstock

ほんの数十年前まで、タッチスクリーン・テクノロジーは SF の本や映画でしか見られなかったとは信じ難いことです。 このような状況において、携帯電話やスマートフォンなどのモバイル端末を活用することは、非常に有効な手段です。 タッチスクリーンは本当に至る所にあります。 家、車、レストラン、店舗、飛行機、あらゆる場所で、公私ともに私たちの生活を満たしています。

タッチ スクリーンがこのような存在になるまでには、何世代にもわたって、いくつかの大きな技術的進歩がありました。 タッチ スクリーンの背後にある基本的なテクノロジーは 1940 年代までさかのぼることができますが、タッチ スクリーンが少なくとも 1965 年までは実現可能ではなかったことを示す証拠がたくさんあります。 スタートレック」などの人気SFテレビ番組がこの技術に言及したのは、「スタートレック:ザ・ネクスト・ジェネレーション」が放映された1987年以降で、タッチスクリーン技術が可能だと考えられてから20年近くが経過しています。 しかし、この番組でのタッチスクリーンの採用は、テクノロジーの世界における進歩と並行して行われ、1980年代後半には、消費者が実際にこの技術を家庭に導入できるほど現実的なものとなっていました。

View more

この記事は、タッチスクリーン・テクノロジーのフィクションから事実への道のりについての3部構成のシリーズの第1部です。 タッチの最初の 30 年間は、今日私たちが慣れ親しんでいるマルチタッチ テクノロジーを本当に理解するために、振り返る上で重要なものです。 本日は、これらの技術がいつ生まれ、誰が導入したのか、さらにタッチの進歩に大きな役割を果たした他のパイオニアたちについてもご紹介します。 今後は、タッチディスプレイがどのように変化し、現在の私たちの生活に欠かせないデバイスになったのか、また、この技術が将来どのような方向に進んでいくのかを考えていきたいと思います。

1960 年代。 最初のタッチスクリーン

Johnson, 1967

歴史家は、最初の指駆動タッチスクリーンは、1965 年にイギリスのマルバーンの Royal Radar Establishment で E.A. Johnson によって発明されたと一般に考えています。 Johnson は当初、Electronics Letters 誌に掲載された「Touch display-a novel input/output device for computers」という論文で自身の研究成果を紹介しました。 この論文では、現在多くのスマートフォンで採用されているタッチスクリーンのメカニズム(現在では静電容量式タッチとして知られている)を説明する図が掲載されています。 その2年後、ジョンソンは「Touch Displays」で、写真と図を使ってこの技術をさらに詳しく説明しました。 7156>

How Capacitive Touchscreens work.

A capacitive touchscreen panel uses a insulator like glass, which is coated with a transparent conductor such as Indium Tin Oxide (ITO). 導電体」は、通常、人間の指であり、微細な電気伝導体となります。 ジョンソンの初期技術は、一度に1つのタッチしか処理できず、今日でいうところの「マルチタッチ」はまだ少し先の話だったのです。 また、この発明はタッチの解釈も二元的で、インターフェイスが接触を認識するかしないかのどちらかでした。

余分な機能がなくても、初期のタッチ インターフェイスのアイデアには賛同者がいました。 Johnson の発見は、最終的にイギリスの航空管制官によって採用され、1990 年代後半まで使用されました。 抵抗膜式タッチスクリーンが発明される

静電容量式タッチスクリーンが最初に設計されましたが、タッチの初期には抵抗膜式タッチスクリーンに押され気味になりました。 アメリカの発明家 G. Samuel Hurst 博士は、ほとんど偶然に抵抗膜式タッチパネルを開発しました。 Berea College Magazine for alumni(ベリア大学卒業生向け雑誌)には、このように書かれています。

原子物理学を研究するために、研究チームは夜間にしか利用できない過労のヴァン・デ・グラーフ加速器を使っていました。 退屈な分析が彼らの研究を鈍らせた。 サムはその問題を解決する方法を考えた。 彼とパークス、そしてもう一人の博士課程学生であるサーマン・スチュアートは、導電性の紙を使って、XとYの座標を読み取ることに成功したのである。 このアイデアが、最初のコンピュータ用タッチスクリーンにつながった。 このプロトタイプにより、彼の学生たちは、従来なら何日もかかっていた計算を数時間でできるようになった。 大学は、この偶然の発明を複製から守るために、彼に代わって特許を申請しようとしましたが、その科学的な起源から、研究室の外ではそれほど適用できないように思われました。 しかし、ハーストには別の考えがありました。「他のことにも使えるかもしれないと思ったのです」と、彼は記事の中で述べています。 1970年、オークリッジ国立研究所(ORNL)に復職したハーストは、勤務時間外の実験を開始した。 自宅の地下室で、ハーストは様々な専門分野の友人9人とともに、偶然に発明されたものを改良することに着手した。 そして、コンピュータのモニターにタッチスクリーンを装着すれば、優れたインタラクションが可能になることを発見した。 X軸とY軸を含むシートと接触する導電性のカバーシートがあればよいのだ。 カバーシートを押すと、X線とY線の間に電圧が流れ、その電圧を測定することで座標を表すことができる。 この発見により、今日、抵抗膜方式タッチ技術が確立されました(電気伝導度ではなく、純粋に圧力に反応するため、スタイラスと指の両方で動作する)。 このタッチ技術を使用するほとんどのデバイスや機械は、レストラン、工場、病院などの環境で十分な耐久性があるため、見かけることができます。 スマートフォン・メーカーも過去に抵抗膜式タッチスクリーンを使用していましたが、今日のモバイル空間におけるその存在は、低価格帯の携帯電話に限定される傾向があります。

EloTouch は、抵抗膜方式タッチだけにとどまりませんでした。 このグループは最終的に、最初の曲面ガラス タッチ インターフェースの特許を取得しました。 この特許は「平面座標の電気センサー」というタイトルで、「電気的等電位線を持つ導電材料の並置されたシート」を用いた「平面座標の安価な電気センサー」の詳細が記載されています。 この発明の後、エログラフィックス社は「カリフォルニアの良き人々」に売却され、エロタッチ・システムズ社となった。 当時、最も広く使われていたタッチ対応機器の1つが、イリノイ大学のPLATO IV端末で、最初の一般的なコンピュータ支援命令システムの1つであった。 PLATO IVは静電容量方式や抵抗膜方式を採用せず、赤外線方式を採用した(詳細は後述)。

PLATO IV タッチスクリーン端末

1980 年代。 タッチの 10 年」

マルチタッチ入力を描いた最初の図の 1 つ。
Bill Buxton

1982 年に、トロント大学で Nimish Mehta が最初の人間制御のマルチタッチ デバイスを開発しました。 それは、タッチスクリーンというよりも、タッチタブレットでした。 同大学のInput Research Groupは、曇りガラスのパネルの後ろにカメラを設置し、画面上に現れるさまざまな「黒い点」を認識することで、動作を検出できることを突き止めたのです。 Bill Buxton はマルチタッチ技術の開発で大きな役割を果たしましたが (特に後述する PortfolioWall)、Mehta の発明はコンピューター入力デバイスの非公式年表に掲載するほど重要であると判断しました。 タッチ面の下にビデオカメラを設置し、半透明フィルターに映る影を光学的にとらえた。 (カメラの出力はデジタル化され、信号処理装置で解析された。

その後まもなく、アメリカのコンピュータアーティストMyron Kruegerが手の動きを追跡する光学システムを開発し、ジェスチャー・インタラクションが登場した。 クルーガーは、1970年代後半からこのシステムに取り組んでいましたが、1983年にビデオ・プレイス (後にビデオ・デスクと呼ばれる) を発表しました。 プロジェクターとビデオカメラを使って、手や指、そしてそれらが所属する人物を追跡するシステムである。 マルチタッチとは異なり、誰が、何に触れているかを完全に把握することはできませんが、さまざまなポーズにソフトウェアが反応することが可能です。 7156>

Bill Buxton が PortfolioWall を紹介し、その能力のいくつかを詳細に説明しています。

Video Place がどのように機能するかを詳細に説明した図 (スペイン語!)。 HP (当時はまだ正式にはヒューレット・パッカード) は 1983 年 9 月に HP-150 を発表し、その性能に脱帽しました。 このコンピュータはMS-DOSを使い、9インチのソニー製CRTの周囲に赤外線(IR)エミッターとディテクターを配置し、ユーザーの指が画面上のどこに来たかを感知できるようになっていた。 値段は2,795ドルだったが、使い勝手に問題があったため、すぐには受け入れられなかった。 例えば、画面をつつくと、その指がどこを指しているのかがわかる他の赤外線が遮断されてしまう。

拡大写真 / HP-150はMS-DOSと9インチのタッチスクリーン式ソニーCRTを搭載していた。
Wikimedia Commons

1 年後、Bell Labs の Bob Boie が初の透明なマルチタッチ スクリーン オーバーレイを開発し、マルチタッチ テクノロジーはさらに一歩前進しました。 Ars が昨年書いたように、

…The first multitouch screen was developed at Bell Labs in 1984. は、Bob Boie が作成したこのスクリーンが、「CRT 上にオーバーレイしたタッチ センサーの透明容量性アレイを使用」していると報告しています。 この発見により、今日私たちがタブレットやスマートフォンで使用しているマルチタッチテクノロジーの誕生に貢献しました。 誰もがタッチスクリーン!

IBM の Simon Personal Communicator:大きな端末、大きな画面、タッチ入力用のスタイラス。
Android Authority

1993 年に、IBM と BellSouth は共同で Simon Personal Communicator を発表し、タッチスクリーン技術を採用した初の携帯電話の 1 つとなりました。 この製品は、ページング機能、電子メールとカレンダーアプリケーション、予定表、アドレス帳、電卓、ペンベースのスケッチパッドを備えていました。

The original MessagePad 100.

Apple もこの年、タッチスクリーン PDA デバイス、Newton PDA を発売しました。 Newton プラットフォームは 1987 年に開始されましたが、MessagePad は、Apple がこのプラットフォームを使用する一連のデバイスの中で最初のものでした。 タイム誌によると、当時のアップル社CEOジョン・スカリーは、「PDA」(パーソナル・デジタル・アシスタント)という言葉を実際に作った人物である。 IBM の Simon Personal Communicator のように、MessagePad 100 は手書き認識ソフトウェアを搭載し、スタイラスで操作できました。 しかし、消費者の手に渡ると、その欠点がより明らかになりました。 手書き認識ソフトがあまりうまく働かず、Newtonはそれほど多くの台数を売れませんでした。 7156>

The first Palm Pilot.
Wikimedia Commons

3 年後に Palm Computing が Pilot と呼ばれる独自の PDA で追随しました。 これは、同社の何世代にもわたるパーソナル・デジタル・アシスタントの最初の製品でした。 先行する他のタッチスクリーン ガジェットと同様に、Palm 1000 と Pilot 5000 はスタイラスの使用を必要としました。 その名前はすぐに「ビジネス」という言葉の代名詞となり、その手書き認識ソフトウェアが非常によく機能したという事実も手伝って、その名は広まりました。 ユーザーは、パーム社が「グラフィティ」と呼ぶものを使って、テキストや数字などの文字を入力した。 これは、人が紙に字を書くのと同じようなもので、簡単に習得することができた。 7156>

広告

PDA タイプのデバイスは、必ずしも今日私たちが慣れているような指から画面に触れるタイプのタッチスクリーンを備えていませんでしたが、消費者の採用により、このタイプのデバイスを所有することに十分な関心があると企業を説得することに成功しました。

10 年の終わりに、デラウェア大学の大学院生、Wayne Westerman が “Hand Tracking, Finger Identification, and Chordic Manipulation on a Multi-Touch Surface” という博士論文を発表しました。 この論文では、今日私たちがマルチタッチ静電容量式テクノロジーとして知っていることの背後にあるメカニズムについて詳述しており、これは、現代のタッチスクリーンを搭載したデバイスの定番機能となっています。 このグループは、TouchStream と呼ばれるジェスチャーベースのキーボードなど、マルチタッチのジェスチャーベースの製品ラインの生産を開始しました。 これは、反復性疲労損傷などの障害や、その他の病状に悩む人々を支援するものでした。 また、この年、片手でのジェスチャーや操作で画面をコントロールできるiGesture Padも発表された。 FingerWorks は最終的に 2005 年に Apple に買収され、マルチタッチ トラックパッドや iPhone のタッチスクリーンなどのテクノロジーは、この買収のおかげであると多くの人が考えています。 ここでは、あまり多くの特定のデバイスをカバーしませんが (タッチ スクリーン シリーズを続ける中で詳しく説明します)、この 10 年間には、マルチタッチとジェスチャー ベースのテクノロジーを大衆に提供するための進歩がありました。 7156>

2001: Alias|Wavefront のジェスチャベースの PortfolioWall

新世紀に近づくにつれ、企業は日々のプロセスにタッチ スクリーン テクノロジーを統合するために多くのリソースを注ぎ込んできました。 3Dアニメーターやデザイナーは、PortfolioWall の出現により、特にターゲットにされました。 これは、デザインスタジオがプロジェクトを追跡するために使用するボードの動的バージョンとして、大型のタッチスクリーンを意味しました。 1999年に開発が始まり、2001年のSIGGRAPHで発表されたPortfolioWallは、General MotorsとAlias|Wavefrontのチームによる共同開発で作られたものです。 現在Microsoft Researchで主任研究員を務めるBuxton氏は、このプロジェクトのチーフサイエンティストだった。 「私たちは壁を取り払い、職場やビジネスにおける効果的なコミュニケーションのあり方を変えようとしているのです」と、当時は語っていました。 「PortfolioWallのジェスチャーインターフェースは、ユーザーがデジタル資産と完全に対話することを可能にします。 7156>

Bill Buxton が PortfolioWall を紹介し、その能力のいくつかを詳しく説明します。

PortfolioWall はシンプルで使いやすい、ジェスチャーベースのインターフェースを使用していました。 ユーザーは、画像、アニメーション、および 3D ファイルを指だけで検査し、操作することができました。 また、画像の拡大縮小、3Dモデルの取得、ビデオの再生も簡単に行えました。 後のバージョンでは、スケッチやテキストの注釈、他社製アプリケーションの起動機能、Mayaベースの3D表示ツールが追加され、3Dモデルに対してパン、回転、ズーム、ビューを使用することができるようになりました。 大半の場合、この製品はデザイン中心の職種向けのデジタルコークボードと見なされていた。 7156>

PortfolioWall は、デザイナーが実物大の 3D モデルを表示できるようにしたものです。

The PortfolioWall は、クレイ モデルやフルサイズの図面といった従来の媒体がデザイン プロセスに依然として重要である一方で、デジタル ツールによって徐々に補強されているという事実にも取り組みました。 このデバイスには、これらの有形媒体を仮想的にエミュレートするアドオンが含まれており、デザイナーが進行中の仕事を披露するためのプレゼンテーション ツールとして機能しました。

広告

PortfolioWall は結局 2008 年に閉鎖されましたが、タッチ スクリーンと相互作用するジェスチャーがオペレーティング システム全体のコントロールを助けるという典型的な例となりました。 Sony の SmartSkin における相互静電容量方式

Using the Sony SmartSkin.

2002 年、ソニーは複数の手の位置とタッチ点を同時に認識できる平面入力サーフェスを発表しました。 同社はこれをSmartSkinと呼びました。 この技術は、静電容量式センシングとメッシュ状のアンテナにより、手と表面との距離を計算することで機能しました。 他の技術にあるカメラによるジェスチャー認識システムとは異なり、センシング素子はすべてタッチ面に内蔵されていた。 これは、照明が悪い環境でも誤動作しないことも意味していました。 このプロジェクトの最終的な目標は、普通のテーブルや壁など、日常的に使う表面を、近くにあるPCを使ってインタラクティブに変えることでした。 しかし、この技術は、複数の接触点を導入するなど、静電容量式タッチ技術にとって、意図された以上のことをしました。

株式会社ソニーコンピュータサイエンス研究所

インタラクションラボの暦本純一は、ホワイトペーパーでこの技術の優位性を指摘しています。 彼は、SmartSkinのような技術は、”複数の手、複数のユーザーによる操作を自然にサポートする “と述べています。 2人以上のユーザーが同時にタッチしても、干渉されることはありません。 SmartSkinをインタラクティブなテーブルやジェスチャー認識パッドとして使用するために、2つのプロトタイプが開発されました。 2つ目のプロトタイプは、前者に比べてより細かいメッシュを使用し、より正確な指の座標をマッピングすることができます。 全体として、この技術は仮想オブジェクトの実世界の感触を提供することを意図しており、本質的には、人間が指を使ってオブジェクトを拾い上げ、操作する方法を再現するものでした。 失敗したタブレットと Microsoft Research の TouchLight

HandGear と名付けられたマルチタッチ タブレット入力デバイス
Bill Buxton

マルチタッチ テクノロジーは、特殊デバイスに登場しながら、主流では苦戦し、大きなブレークをつかむことはありませんでした。 2002 年、カナダに拠点を置く DSI Datotech 社が HandGear + GRT デバイス (頭字語の「GRT」はデバイスの Gesture Recognition Technology を意味します) を開発したとき、もう少しでブレイクするところでした。 このデバイスの多点タッチパッドは、前述のiGestureパッドと同じように、さまざまなジェスチャーを認識し、ユーザーがコンピューターを操作するための入力デバイスとして使用することができるものであった。 マーケティング担当副社長のTim Heaney氏はプレスリリースで、「HandGearは使いやすいものにしたかったのです」と語っています。 「そのため、左利きでも右利きでも、ユーザーにとってまったく自然な、つまり直感的な手や指の動きを認識するように設計されています。 短い学習期間の後、ユーザーは文字通り、指が何をしているかよりも、手元の作業に集中できるようになります」

HandGear は、ユーザーがリアルタイムで 3 次元オブジェクトを「つかむ」ことを可能にし、デザイン プロセスにおける自由と生産性のアイデアをさらに拡張しました。 同社は、AutoDesk を介して開発者が API を利用できるようにさえしました。 残念ながら、Buxton がマルチタッチの概要で言及しているように、同社は製品を出荷する前に資金が底をつき、DSI は閉鎖されました。

Andy Wilson が TouchLight を支えるテクノロジーについて説明しています。

2 年後、Microsoft Research の社員であった Andrew D. Wilson は、ジェスチャー ベースのイメージング タッチスクリーンと 3D ディスプレイを開発しました。 TouchLight は、リア プロジェクション ディスプレイを使用して、アクリル樹脂のシートをインタラクティブな表面に変換しました。 このディスプレイは、複数のユーザーの複数の指や手を感知でき、3D 機能により、その場しのぎの鏡として使用することもできました。 しかし、これは Microsoft の空想的なマルチタッチ ディスプレイ技術への唯一の進出ではありませんでした。 8544>

Jeff Han

2006 年、カリフォルニア州モントレーの TED カンファレンスで、Jeff Han は直観的でインターフェースなしのタッチ駆動のコンピューター画面を初めて公にデモンストレーションしました。 彼のプレゼンテーションでは、指先だけを使って、巨大なライトボックス上の写真を動かし、操作しました。 写真をはじいたり、引き伸ばしたり、つまんだり、そのすべてが自然な操作で行われ、魅了されました。 「これはGoogleのロビーに置くべきものだ」と冗談交じりに語っていました。 このデモは、高解像度でスケーラブルなタッチスクリーンが、あまりお金をかけずに構築可能であることを示しました。

Jeff Han

Han は、指紋イメージングに使用されている生体認証コミュニティの技術である「フラストレート全反射」 (FTIR) を使用して「堅牢な」マルチタッチ センシングが可能であると発見しました。 FTIRは、アクリルやプレキシガラスに光を当てることで動作します。 光(赤外線が一般的)は、アクリルの上部と下部の間で跳ね返りながら進みます。 指を置くと、指を置いた辺りで光線が散乱します。 生成された画像は白い塊のように見え、赤外線カメラで拾われます。 コンピュータは、指が触れている場所を解析して、その配置をマークし、座標を割り当てます。 その後、ソフトウェアは座標を分析して、オブジェクトのサイズ変更や回転など、特定のタスクを実行できます。

Jeff Han が新しい「インターフェース不要」のタッチ駆動型スクリーンをデモしている。

TED の講演が YouTube でヒットした後、ハン氏は Perceptive Pixel というスタートアップを立ち上げました。 講演から1年後、彼はワイアードに、自分のマルチタッチ製品にまだ名前がついていないと語りました。 また、興味を持ってくれた顧客はいたものの、それらはすべて「本当にハイエンドの顧客」だったとハンは述べています。 7156>

Hann は昨年、この技術をもっと主流にして消費者が買えるようにするため、自分の会社を Microsoft に売りました。 「私たちの会社は、常に生産性のユースケースについてでした」と、Hann氏はAllThingsDに語りました。 「そのため、私たちは常にこのような大型ディスプレイに焦点を当ててきました。 Office は、人々が生産性と考えるときに思い浮かべるものです。 Microsoft Surface

10 インチ タブレットが登場する前に、「Surface」という名前は Microsoft のハイエンド卓上グラフィック タッチ スクリーンを指しており、もともとは上部に穴を開けた実際の IKEA テーブルの中に作られました。 2007年に一般公開されたSurfaceですが、そのアイデアは2001年にまでさかのぼります。 レッドモンドの研究者たちは、同僚がオブジェクトを前後に操作できるような、インタラクティブなワークサーフェスを想定していたのです。 長年、その研究は秘密保持契約の後ろに隠されていました。 7156>

Ars が 2007 年に書いたように、Microsoft Surface は本質的に、中型のテーブルに埋め込まれたコンピューターで、上部には大きなフラット ディスプレイがあります。 スクリーンの画像はテーブルの内側からディスプレイ表面に背面投影され、システムはテーブルの内側に取り付けられたカメラを通してユーザーがスクリーンに触れた場所を感知し、ユーザーの方を上向きに見ていました。 指や手が画面に触れると、Surfaceのソフトウェアがタッチポイントを追跡し、適切なアクションを引き起こします。 Surfaceは一度に複数のタッチポイントを認識でき、小さな「ドミノ」ステッカーを貼った物体も認識することができました。 7156>

Bill Gates 氏による Microsoft Surface のデモンストレーション。 そのデザイン コンセプトの多くは新しいものではありませんでしたが、コーヒー テーブルの大きさに統合されたタッチ スクリーンの現実的な使用例を非常に効果的に示していました。 その後、マイクロソフトは30インチのSurfaceをCES2008に持ち込んでデモを行いましたが、同社は明確に “エンターテインメント小売店 “をターゲットにしていると述べています。 Surfaceは、主にMicrosoftの商用顧客が使用するために設計され、消費者にハードウェアを体験してもらうためのものでした。 同社は、スターウッドやハラーズ・カジノなど、いくつかの有名ホテル・リゾートと提携し、そのロビーでこの技術を紹介しました。 AT&T のような企業は、実店舗の小売店に入る消費者に最新のハンドセットを紹介するために Surface を使用しました。 このフレーズは、このテクノロジーが人間のエンド ユーザーにほとんど本能的に感じられ、現実世界のあらゆる種類の有形オブジェクトと相互作用するのと同じくらい自然に感じられることを示唆しています。 また、この言葉は、入力デバイスではなく、主にユーザーのタッチによって駆動するインターフェースであることを意味しています。 (さらに、NUI-「新しい」-は、マーケティングに適した簡潔な頭字語でした。)

Microsoft は Samsung SUR40 を発表。

2011 年に、Microsoft は Samsung といったメーカーと提携して、よりスマートで新しいテーブルトップ Surface ハードウェアを生産するようになりました。 たとえば、Samsung SUR40 は、40 インチの 1080p LED を搭載し、タッチ センシング機構に必要な内部スペースを大幅に削減しました。 厚さも22インチと従来品より薄く、サイズダウンしたことで、カメラやセンサーを収納するテーブルが不要になり、ディスプレイを壁に設置することが可能になりました。 発売時の価格は約 8,400 ドル、Windows 7 と Surface 2.0 ソフトウェアが動作しました。

Microsoft

昨年、Microsoft が消費者に無関係の Surface タブレットを導入すると、この技術を PixelSense として再ブランド化させました。 PixelSense」という名前は、この技術が実際に機能する方法を示しています。赤外線バックライトの上にタッチセンサーの保護ガラスが配置されています。 ガラスに当たった光は、内蔵されたセンサーに反射され、その光を電気信号に変換します。 その信号を「値」と呼び、その値によってディスプレイに表示される画像が作られます。

PixelSenseは、マウスやキーボードを必要としないこと、一度に複数のユーザーが操作できること、ガラス上に置かれた特定のオブジェクトを認識できること、複数の接点を備えていること、この4点がその技術を構成する主な要素となっています。 ピクセルセンスという名称は、特に最後の「ピクセル」がタッチの有無を感知することに由来しています。

広告

リビングルームのアクセントになりそうですが、Microsoft は Surface ハードウェアを消費者向け製品ではなく、ビジネス ツールとして販売し続けています。 私たちのスマートフォンからラップトップのトラックパッド、WACOM タブレットまで、すべてはタッチスクリーン技術の歴史における多くの発明、発見、特許と何らかの形でつながっています。 Android や iOS ユーザーは E.A. Johnson の静電容量式タッチ機能付きスマートフォンに感謝し、レストランは G. Samuel Hurst 博士の POS システムの抵抗膜式タッチスクリーンに敬意を表するべきかもしれません。 (しかし、歴史は 2011 年で終わったわけではありません。 AppleやSamsungといった現在のメジャープレイヤーが、タッチスクリーン・ガジェットの進化にどのように貢献し続けているのかについても触れていきます。 その指をスクロールしないで、ご期待ください!

コメントを残す

メールアドレスが公開されることはありません。