¿Quién inventó el iPhone?

La teoría del gran hombre se ha vuelto a colar en la cultura popular en los últimos años, readaptada al mundo de los emprendedores, las start-ups tecnológicas y los conglomerados digitales. Elon Musk revolucionó el coche eléctrico. Mark Zuckerberg fue el pionero de las redes sociales. Steve Jobs y su equipo en Apple inventaron el iPhone.

Estas narrativas heroicas son incorrectas y poco útiles. En términos educativos, toda una generación está creciendo con vídeos inspiradores de YouTube que veneran el individualismo y algunos rasgos de liderazgo preocupantes (ver aquí el lado más oscuro de Jobs y Apple). Sin embargo, los retos a los que se enfrenta el mundo -crisis energética, escasez de alimentos, cambio climático, superpoblación- requieren la colaboración y la cooperación de todos nosotros, tanto de los ciudadanos como de las naciones. Estos retos son demasiado complejos, interconectados y de rápida evolución como para ser resueltos por una sola persona, idea, organización o nación. Tendremos que aprovechar el principio fundamental en el que se basa toda la investigación: subirse a los hombros de los gigantes, y que cada nuevo avance se base en el trabajo de otros anteriores. La historia oculta del iPhone es un testimonio de ello.

No se puede dudar del implacable impulso y el ingenio de los numerosos equipos de Apple. Pero hubo cientos de avances de investigación e innovaciones sin los cuales el iPhone no sería posible. Cada uno de ellos fue el resultado de innumerables investigadores, universidades, financiadores, gobiernos y empresas privadas que superpusieron una innovación sobre otra.

Para demostrarlo, veamos con más detalle sólo tres de los avances de investigación que sustentan el iPhone.

LA PANTALLA TÁCTIL

El iPhone no sería el iPhone sin su emblemática tecnología de pantalla táctil.

La primera pantalla táctil fue inventada en realidad en los años 60 por Eric Arthur Johnson, un ingeniero de radares que trabajaba en un centro de investigación gubernamental del Reino Unido. Su artículo de 1965, «Touch display-a novel input/output device for computers», sigue siendo citado por los investigadores hasta hoy. La patente de 1969 que le siguió ha sido citada en toda una serie de invenciones famosas, incluida la patente de Apple de 1997 para «un teléfono celular portátil».

Desde el primer salto de Johnson, se han concedido miles de millones de dólares a la investigación sobre la tecnología de las pantallas táctiles, tanto por parte de organismos públicos como de inversores privados, y a menudo uno lleva al otro. La Universidad de Cambridge, por ejemplo, acaba de crear una sociedad anónima con el fin de obtener más inversiones para su propia investigación sobre la tecnología de las pantallas táctiles, y ha cerrado con éxito una ronda de inversión de 5,5 millones de dólares respaldada por inversores de capital riesgo del Reino Unido y China.

Una patente de Apple sobre la tecnología de las pantallas táctiles cita más de 200 artículos científicos revisados por pares, publicados por una serie de sociedades académicas, editoriales comerciales y prensas universitarias. Estos autores no trabajaron solos. La mayoría formaba parte de un grupo de investigación. Muchos recibieron una subvención para su investigación. Cada uno de ellos ha sometido su artículo a una evaluación independiente por parte de al menos un académico externo en el proceso de revisión por pares que constituye el núcleo de la investigación académica. Pensemos en un artículo sobre tecnología de pantallas táctiles publicado recientemente por la revista Information Sciences de Elsevier. Se reconocen seis autores y dos revisores ciegos. Si extrapolamos de forma conservadora estas cifras a los doscientos artículos citados por Apple, el resultado es que hay más de mil investigadores, cada uno de los cuales ha hecho su importante contribución a este ámbito de la tecnología de las pantallas táctiles.

Puede que Johnson diera el primer paso y Apple aprovechara su potencial, pero debemos la tecnología de las pantallas táctiles al esfuerzo colectivo de numerosos investigadores de todo el mundo.

LA BATERÍA DE LITIO

Batería baja. Parpadeo, parpadeo. Todos sabemos que los iPhones consumen mucha energía, pero no estarían en ninguna parte sin la batería de litio recargable.

El científico británico Stanley Whittingham creó el primer ejemplo de batería de litio mientras trabajaba en un laboratorio para ExxonMobil en los años 70, llevando adelante una investigación que había realizado inicialmente con sus colegas de la Universidad de Stanford. Investigaciones anteriores ya habían indicado que el litio podía utilizarse para almacenar energía, pero fueron Whittingham y su equipo los que descubrieron cómo hacerlo a temperatura ambiente, sin riesgo de explosión (Samsung toma nota).

Un profesor de la Universidad de Oxford, John Goodenough, mejoró entonces el trabajo original de Whittingham utilizando óxidos metálicos para mejorar el rendimiento. Esto, a su vez, despertó el interés de Sony, que se convirtió en la primera empresa en comercializar baterías de litio en la década de 1990 y lanzó un teléfono móvil con litio en Japón en 1991. Todo esto sentó las bases para el uso masivo, que Apple cumplió debidamente cuando lanzó el iPhone a más de un millón de usuarios en 2007.

La historia del litio no acaba ahí. Como uno de los componentes básicos de un mundo sin combustibles fósiles, su producción está celosamente vigilada. Entonces, ¿quién crees que compró el negocio de baterías de Sony en 2016? Pues nada menos que uno de los principales proveedores de Apple, Murata Manufacturing. Mientras tanto, John Goodenough, que ya tiene 95 años, sigue con sus investigaciones rompedoras. Hace solo unos meses publicó un estudio histórico en el Journal of the American Chemical Society. ¿Entre sus afirmaciones? Que Goodenough había creado una batería de litio para coches eléctricos que puede utilizarse 23 veces más que la media actual.

INTERNET Y LA RED MUNDIAL

Cuando el ingeniero de Apple Andy Grignon añadió por primera vez la funcionalidad de Internet a un iPod en 2004, Steve Jobs no se mostró nada entusiasmado: «Esto es una mierda. No quiero esto. Sé que funciona, lo tengo, genial, gracias, pero esto es una experiencia de mierda».

El minucioso trabajo de múltiples equipos de Apple tomó una «experiencia de mierda» e hizo algo revolucionario: toda la experiencia y el conocimiento humano colectivo ahí mismo, en tu bolsillo trasero, al toque de tus dedos. Pero, ¿a quién tenemos que agradecérselo?

A Sir Tim Berners-Lee se le atribuye la invención de la World Wide Web. Su trabajo comenzó en la década de 1980 mientras trabajaba en la Organización Europea para la Investigación Nuclear. Más conocido por sus siglas en francés, el CERN fue creado por 12 gobiernos europeos en 1952 y sigue siendo financiado por sus estados miembros. Las ideas de Berners-Lee comenzaron como una propuesta de solución para un problema muy concreto del CERN: cómo facilitar el intercambio y la actualización de las enormes cantidades de información y datos utilizados por los investigadores del CERN. Su propuesta se basaba en el concepto de hipertexto, un término acuñado por primera vez por el pionero teórico Ted Nelson en un artículo publicado en 1965 por la Association for Computing Machinery. Comparado a menudo con una versión electrónica del sistema de notas a pie de página utilizado por los investigadores de todo el mundo, el hipertexto es la base de la web, ya que permite saltar de una fuente de información a otra. En cualquier lugar de Internet. Sea cual sea su forma.

Pero ni siquiera Berners-Lee puede atribuirse el mérito en solitario. Si la World Wide Web es el mapa, Internet es el paisaje por el que navegamos: una infraestructura de red que conecta millones de ordenadores en todo el mundo, permitiendo que cada uno se comunique con el otro, transfiriendo enormes cantidades de información.

Para rastrear los orígenes de Internet tenemos que volver a 1965. Mientras Nelson acuñaba el hipertexto y Eric inventaba la pantalla táctil, dos investigadores del MIT, Thomas Merrill y Lawrence Roberts, conectaban su ordenador con otro a 5.000 kilómetros de distancia, en California, mediante una simple línea telefónica de baja velocidad. Poco después llegó Arpanet, no un sistema distópico de IA, sino la Red de la Agencia de Proyectos de Investigación Avanzada. Arpanet fue creada y financiada por DARPA, la Agencia de Proyectos de Investigación Avanzada de Defensa de EE.UU., e inicialmente fue concebida como un medio para interconectar los ordenadores del ejército estadounidense a través de sus diversos centros regionales.

Fue Arpanet la que realmente dio origen a Internet, en un momento descrito a continuación por Leonard Kleinrock. Es octubre de 1969, tres meses después de que el hombre haya pisado la luna, y Kleinrock y sus colegas acaban de conectar múltiples ordenadores en todo Estados Unidos:

Escribimos la L y preguntamos por teléfono,

¿Ves la L?

Sí, vemos la L

Tecleamos la O, y preguntamos, ¿Ven la O?

Sí, vemos la O.

Después tecleamos la G, y el sistema se colapsó…

El curso de la verdadera innovación nunca transcurrió sin problemas. Pero estos primeros avances de la era espacial fueron la base de todo lo que vendría después. Aunque el iPhone moderno es ahora 120 millones de veces más potente que los ordenadores que llevaron al Apolo 11 a la luna, su verdadero poder reside en su capacidad para aprovechar los miles de millones de sitios web y terabytes que componen Internet.

Un breve análisis de estos tres avances en la investigación revela una red de investigación de más de 400.000 publicaciones desde que Apple publicó por primera vez la patente de su teléfono en 1997. Si añadimos el factor de los investigadores de apoyo, los financiadores, las universidades y las empresas que los respaldan, la red de contribución es sencillamente asombrosa. Y apenas hemos arañado la superficie. Hay otros innumerables avances de investigación sin los cuales el iPhone no sería posible. Algunos muy conocidos, otros menos. Tanto el GPS como Siri tuvieron su origen en el ejército estadounidense, mientras que los complejos algoritmos que permiten la digitalización fueron concebidos inicialmente para detectar pruebas nucleares. En todos los casos, la investigación fue la base.

El iPhone es una tecnología que define una época. Las tecnologías que definen una época no provienen de la rara brillantez de una persona u organización, sino de una capa sobre otra de innovación y de una década sobre otra de investigación, con miles de individuos y organizaciones que se suben a los hombros de los demás y miran un poco más hacia el futuro. En nuestra época de retos globales aparentemente insuperables, no sólo debemos recordar esto, sino inspirarnos en ello.

Debemos fomentar la apertura y la transparencia en el corazón de la investigación, garantizando que se difunda de la forma más amplia, rápida y clara posible. Debemos recordar que cada retraso y distorsión es importante. La integridad y reproducibilidad de la investigación, la revisión por pares transparente, el acceso abierto, la diversidad… son algo más que palabras de moda. Son pasos emocionantes hacia la reforma de la infraestructura de un ecosistema global de investigación que siempre ha sido nuestra mejor esperanza para el futuro.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.