Qui a inventé l’iPhone ?

La théorie du grand homme s’est insinuée à nouveau dans la culture populaire ces dernières années, réadaptée au monde des entrepreneurs, des start-ups technologiques et des conglomérats numériques. Elon Musk a révolutionné la voiture électrique. Mark Zuckerberg a été le pionnier du réseau social. Steve Jobs et son équipe chez Apple ont inventé l’iPhone.

Ces récits héroïques sont à la fois factuellement incorrects et peu utiles. En termes d’éducation, toute une génération grandit sur des vidéos YouTube inspirantes vénérant l’individualisme et certains traits de leadership troublants (voir ici pour le côté plus sombre de Jobs et Apple). Pourtant, les défis auxquels le monde est confronté – crises énergétiques, pénuries alimentaires, changement climatique, surpopulation – exigent la collaboration et la coopération de chacun d’entre nous, en tant que citoyens du monde et nations. Ces défis sont trop complexes, interconnectés et évoluent trop rapidement pour être résolus par une seule personne, idée, organisation ou nation. Nous devrons exploiter le principe fondamental qui sous-tend toute recherche : se tenir sur les épaules des géants, chaque nouvelle avancée s’appuyant sur le travail des autres avant elle. L’histoire cachée de l’iPhone en témoigne.

L’acharnement et l’ingéniosité des nombreuses équipes d’Apple ne peuvent être mis en doute. Mais il y a eu des centaines de percées de recherche et d’innovations sans lesquelles l’iPhone ne serait même pas possible. Chacune d’entre elles était le résultat d’innombrables chercheurs, universités, bailleurs de fonds, gouvernements et entreprises privées superposant une innovation à une autre.

Pour le démontrer, voici un examen plus approfondi de seulement trois des percées en matière de recherche qui sous-tendent l’iPhone.

L’ÉCRAN TACTILE

L’iPhone ne serait pas l’iPhone sans sa technologie emblématique d’écran tactile.

Le premier écran tactile a en fait été inventé bien avant dans les années 1960 par Eric Arthur Johnson, un ingénieur radar travaillant dans un centre de recherche gouvernemental au Royaume-Uni. Pendant que les Righteous Brothers perdaient ce sentiment d’amour, Johnson publiait ses découvertes dans un article de Electronics Letters publié par l’Institution of Engineering and Technology. Son article de 1965, « Touch display-a novel input/output device for computers », continue d’être cité par les chercheurs à ce jour. Le brevet de 1969 qui s’en est suivi est aujourd’hui cité à travers toute une série d’inventions célèbres – y compris le brevet d’Apple de 1997 pour « un téléphone cellulaire portable avec ordinateur de poche ».

Depuis le premier bond en avant de Johnson, des milliards de dollars ont été accordés à la recherche sur la technologie des écrans tactiles – de la part d’organismes publics comme d’investisseurs privés, l’un menant souvent à l’autre. L’université de Cambridge, par exemple, a récemment créé une société à responsabilité limitée afin d’obtenir d’autres investissements pour ses propres recherches sur la technologie des écrans tactiles, en concluant avec succès un tour d’investissement de 5,5 millions de dollars soutenu par des investisseurs en capital-risque du Royaume-Uni et de Chine.

Un brevet d’Apple sur la technologie des écrans tactiles cite plus de 200 articles scientifiques examinés par des pairs, publiés par une série de sociétés académiques, d’éditeurs commerciaux et de presses universitaires. Ces auteurs ne travaillaient pas seuls. La plupart faisaient partie d’un groupe de recherche. Beaucoup ont bénéficié d’une subvention pour leurs recherches. Chacun a vu son article évalué de manière indépendante par au moins un universitaire externe dans le cadre du processus d’examen par les pairs qui est au cœur de la recherche universitaire. Prenons l’exemple d’un article sur la technologie des écrans tactiles récemment publié par la revue Information Sciences d’Elsevier. Six auteurs et deux pairs examinateurs aveugles y sont reconnus. En extrapolant prudemment de tels chiffres sur les deux cents articles cités par Apple, on arrive à plus de mille chercheurs, chacun apportant sa contribution importante à ce domaine de la technologie des écrans tactiles.

Johnson a peut-être fait le premier pas, et Apple a exploité son potentiel, mais nous devons la technologie de l’écran tactile aux efforts collectifs de nombreux chercheurs dans le monde entier.

LA BATTERIE AU LITHIUM

Batterie faible. Cligne des yeux, cligne des yeux. Nous savons tous que les iPhones consomment beaucoup d’énergie, mais ils ne seraient nulle part sans la batterie au lithium rechargeable.

Le scientifique britannique Stanley Whittingham a créé le tout premier exemple de batterie au lithium alors qu’il travaillait dans un laboratoire pour ExxonMobil dans les années 70, poursuivant des recherches qu’il avait initialement menées avec des collègues de l’université de Stanford. Des recherches antérieures avaient déjà indiqué que le lithium pouvait être utilisé pour stocker de l’énergie, mais c’est Whittingham et son équipe qui ont compris comment le faire à température ambiante – sans risque d’explosion (Samsung take note).

Un professeur de l’université d’Oxford, John Goodenough, a ensuite amélioré les travaux originaux de Whittingham en utilisant des oxydes métalliques pour améliorer les performances. Ces travaux ont à leur tour suscité l’intérêt de Sony, qui est devenue la première entreprise à commercialiser des batteries au lithium dans les années 1990 et a lancé un téléphone portable alimenté au lithium au Japon en 1991. Tout cela a fourni la base d’une utilisation de masse, Apple s’y étant dûment plié en lançant le premier iPhone à plus d’un million d’utilisateurs en 2007.

L’histoire du lithium ne s’arrête pas là. Comme il s’agit de l’un des éléments constitutifs d’un monde sans combustibles fossiles, sa production est surveillée avec zèle. À votre avis, qui a racheté l’activité batteries de Sony en 2016 ? L’un des principaux fournisseurs d’Apple, Murata Manufacturing. Pendant ce temps, John Goodenough, aujourd’hui âgé de 95 ans, poursuit ses recherches révolutionnaires. Il y a quelques mois à peine, il a publié une étude marquante dans le Journal of the American Chemical Society. Parmi ses affirmations ? Que Goodenough avait créé une batterie au lithium pour les voitures électriques qui peut être utilisée 23 fois plus que la moyenne actuelle.

L’INTERNET ET LE WORLD WIDE WEB

Lorsque l’ingénieur Andy Grignon d’Apple a ajouté pour la première fois une fonctionnalité Internet à un iPod en 2004, Steve Jobs était loin d’être enthousiaste : « C’est des conneries. Je n’en veux pas. Je sais que ça marche, je l’ai, super, merci, mais c’est une expérience de merde. »

Le travail minutieux de multiples équipes d’Apple a pris une « expérience de merde » et a fait quelque chose de révolutionnaire – toute l’expérience et la connaissance humaine collective juste là, dans votre poche arrière, au bout de vos doigts. Mais qui devons-nous remercier pour cela ?

Sir Tim Berners-Lee est largement crédité de l’invention du World Wide Web. Ses travaux ont débuté dans les années 1980 alors qu’il travaillait à l’Organisation européenne pour la recherche nucléaire. Plus connu sous son acronyme français, le CERN a été créé par 12 gouvernements européens en 1952 et continue d’être financé par ses États membres. Les idées de Berners-Lee ont d’abord consisté à proposer une solution à un problème très spécifique au CERN : comment faciliter au mieux le partage et la mise à jour des vastes quantités d’informations et de données utilisées par les chercheurs du CERN. Sa proposition était basée sur le concept d’hypertexte, un terme inventé par le pionnier de la théorie Ted Nelson dans un article publié en 1965 par l’Association for Computing Machinery. Souvent comparé à une version électronique du système de notes de bas de page utilisé par les chercheurs du monde entier, l’hypertexte est à la base du web, permettant de passer d’une source d’information à une autre. N’importe où sur l’internet. Sous quelque forme que ce soit.

Mais même Berners-Lee ne peut être crédité en solo. Si le World Wide Web est la carte, l’internet est le paysage dans lequel nous naviguons : une infrastructure de réseau reliant des millions d’ordinateurs dans le monde, permettant à chacun de communiquer avec l’autre, transférant de grandes quantités d’informations.

Pour retracer les origines de l’internet, nous devons retourner en 1965. Alors que Nelson inventait l’hypertexte et Eric l’écran tactile, deux chercheurs du MIT, Thomas Merrill et Lawrence Roberts, connectaient leur ordinateur à un autre situé à 3 000 miles de là, en Californie, en utilisant une simple ligne téléphonique à bas débit. Peu après est apparu Arpanet, non pas un système d’IA dystopique, mais le réseau de l’Advanced Research Projects Agency. Arpanet a été créé et financé par la DARPA, l’Agence américaine des projets de recherche avancée en matière de défense, et initialement conçu comme un moyen d’interconnecter les ordinateurs de l’armée américaine à travers leurs différents hubs régionaux.

C’est Arpanet qui a réellement donné naissance à Internet, dans un moment décrit ci-dessous par Leonard Kleinrock. Nous sommes en octobre 1969, trois mois après que l’homme a marché sur la lune, et Kleinrock et ses collègues viennent de connecter plusieurs ordinateurs à travers les États-Unis:

Nous avons tapé le L et nous avons demandé au téléphone,

Vous voyez le L ?

Oui, on voit le L

On a tapé le O, et on a demandé,

Oui, on voit le O.

Puis on a tapé le G, et le système a planté…

Le cours de la véritable innovation n’a jamais été sans heurts. Mais ces premières percées de l’ère spatiale ont servi de base à tout ce qui allait suivre. Si l’iPhone moderne est aujourd’hui 120 millions de fois plus puissant que les ordinateurs qui ont emmené Apollo 11 sur la lune, son véritable pouvoir réside dans sa capacité à tirer parti des milliards de sites web et de téraoctets qui constituent l’internet.

Une brève analyse de ces trois percées de la recherche révèle un tissu de recherche de plus de 400 000 publications depuis qu’Apple a publié son premier brevet de téléphone en 1997. Ajoutez le facteur des chercheurs, des bailleurs de fonds, des universités et des entreprises qui les soutiennent, et le réseau de contribution est tout simplement impressionnant. Et nous n’avons fait qu’effleurer la surface. Il existe d’innombrables autres percées de la recherche sans lesquelles l’iPhone ne serait pas possible. Certaines sont connues, d’autres moins. Le GPS et Siri ont tous deux été créés par l’armée américaine, tandis que les algorithmes complexes qui permettent la numérisation ont été initialement conçus pour détecter les essais nucléaires. Tous avaient la recherche au cœur de leurs préoccupations.

L’iPhone est une technologie qui définit une époque. Les technologies qui définissent une époque ne sont pas le fruit de l’intelligence rare d’une personne ou d’une organisation, mais de couches successives d’innovation et de décennies de recherche, avec des milliers d’individus et d’organisations se tenant sur les épaules les uns des autres et regardant un peu plus loin dans le futur. À notre époque où les défis mondiaux semblent insurmontables, nous devons non seulement nous en souvenir mais nous en inspirer.

Nous devons encourager l’ouverture et la transparence au cœur de la recherche, en veillant à ce qu’elle soit diffusée aussi largement, rapidement et clairement que possible. Nous devons nous rappeler que chaque retard et chaque distorsion comptent. L’intégrité et la reproductibilité de la recherche, la transparence de l’examen par les pairs, le libre accès, la diversité – ce ne sont pas que des mots à la mode. Ce sont des étapes passionnantes vers la réforme de l’infrastructure d’un écosystème de recherche mondial qui a toujours été notre meilleur espoir pour l’avenir.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.