Who Invented the iPhone?

Teoria wielkiego człowieka wkradła się z powrotem do kultury popularnej w ostatnich latach, przekształcony dla świata przedsiębiorców, tech start-upów i konglomeratów cyfrowych. Elon Musk zrewolucjonizował samochód elektryczny. Mark Zuckerberg jest pionierem sieci społecznościowej. Steve Jobs i jego zespół w Apple wymyślili iPhone’a.

Te heroiczne narracje są zarówno niepoprawne faktograficznie, jak i niepomocne. Pod względem edukacyjnym, całe pokolenie dorasta na inspirujących filmach na YouTube, czcząc indywidualizm i pewne niepokojące cechy przywódcze (zobacz tutaj, aby poznać ciemniejszą stronę Jobsa i Apple). Jednak wyzwania, przed którymi stoi świat – kryzysy energetyczne, niedobory żywności, zmiany klimatyczne, przeludnienie – wymagają współpracy i współdziałania od nas wszystkich, zarówno jako obywateli świata, jak i narodów. Wyzwania te są zbyt złożone, wzajemnie powiązane i szybko zmieniające się, aby mogły być rozwiązane przez jedną osobę, pomysł, organizację lub naród. Będziemy musieli wykorzystać podstawową zasadę, na której opierają się wszystkie badania naukowe – stanąć na ramionach gigantów, a każdy nowy przełom będzie opierał się na pracy innych, którzy go poprzedzili. Ukryta historia iPhone’a jest tego świadectwem.

Nie można wątpić w nieustające dążenie do celu i pomysłowość wielu zespołów w firmie Apple. Istniały jednak setki przełomowych badań i innowacji, bez których powstanie iPhone’a nie byłoby możliwe. Każda z nich była wynikiem pracy niezliczonych badaczy, uczelni, fundatorów, rządów i prywatnych firm, które nakładały jedną innowację na drugą.

Aby to pokazać, przyjrzyjmy się bliżej zaledwie trzem przełomowym odkryciom badawczym, które stały się podstawą iPhone’a.

THE TOUCH SCREEN

The iPhone nie byłoby iPhone bez jego kultowej technologii ekranu dotykowego.

Pierwszy ekran dotykowy został faktycznie wynaleziony sposób z powrotem w 1960 roku przez Eric Arthur Johnson, inżynier radar pracujący w rządowym centrum badawczym w Wielkiej Brytanii. Podczas Righteous Brothers były utraty, że lovin’ uczucie, Johnson był publikowanie swoich ustaleń w Electronics Letters artykuł opublikowany przez Institution of Engineering and Technology. Jego artykuł z 1965 r., „Touch display-a novel input/output device for computers”, jest do dziś cytowany przez naukowców. Patent z 1969 roku, który po nim nastąpił, jest obecnie cytowany w całym szeregu słynnych wynalazków – w tym w patencie firmy Apple z 1997 roku na „przenośny komputer, podręczny telefon komórkowy.”

Od czasu pierwszego skoku Johnsona na przód, na badania nad technologią ekranów dotykowych przeznaczono miliardy dolarów – zarówno od instytucji publicznych, jak i prywatnych inwestorów, przy czym jedno często prowadzi do drugiego. Na przykład Uniwersytet w Cambridge niedawno wydzielił spółkę z ograniczoną odpowiedzialnością, aby zabezpieczyć dalsze inwestycje w swoje własne badania nad technologią ekranów dotykowych, z powodzeniem zamykając rundę inwestycyjną o wartości 5,5 mln USD, wspieraną przez inwestorów venture capital z Wielkiej Brytanii i Chin.

Jeden patent Apple dotyczący technologii ekranów dotykowych powołuje się na ponad 200 recenzowanych artykułów naukowych, opublikowanych przez szereg towarzystw naukowych, wydawców komercyjnych i prasy uniwersyteckiej. Autorzy ci nie pracowali sami. Większość z nich była częścią grupy badawczej. Wielu z nich otrzymało grant na swoje badania. Każdy z nich miał swój artykuł niezależnie oceniony przez co najmniej jednego zewnętrznego naukowca w procesie peer-review, który jest podstawą badań akademickich. Rozważmy jeden z artykułów na temat technologii ekranów dotykowych, opublikowany niedawno w czasopiśmie Information Sciences wydawnictwa Elsevier. Wymieniono w nim sześciu autorów i dwóch ślepych recenzentów. Ostrożnie ekstrapolując takie liczby na dwieście artykułów cytowanych przez Apple, otrzymujemy ponad tysiąc badaczy, z których każdy wniósł istotny wkład w tę dziedzinę technologii ekranów dotykowych.

Johnson mógł zrobić pierwszy krok, a Apple wykorzystało jego potencjał, ale technologię ekranów dotykowych zawdzięczamy zbiorowym wysiłkom licznych badaczy z całego świata.

Bateria litowa

Niski poziom baterii. Mrugnięcie, mrugnięcie. Wszyscy wiemy, że iPhone’y zużywają dużo energii, ale nie byłoby ich nigdzie bez ładowalnej baterii litowej.

Brytyjski naukowiec Stanley Whittingham stworzył pierwszy przykład baterii litowej, pracując w laboratorium dla ExxonMobil w latach 70-tych, kontynuując badania, które początkowo prowadził z kolegami z Uniwersytetu Stanforda. Wcześniejsze badania wskazywały już, że lit można wykorzystać do przechowywania energii, ale to Whittingham i jego zespół wymyślili, jak to zrobić w temperaturze pokojowej – bez ryzyka eksplozji (Samsung przyjmuje do wiadomości).

Profesor z Uniwersytetu Oksfordzkiego, John Goodenough, udoskonalił oryginalną pracę Whittinghama, stosując tlenki metali w celu zwiększenia wydajności. To z kolei wzbudziło zainteresowanie firmy Sony, która stała się pierwszą firmą komercjalizującą baterie litowe w latach 90. i wprowadziła na rynek japoński telefon komórkowy zasilany litem w 1991 roku. Wszystko to stanowiło podstawę do masowego użytku, a firma Apple należycie wywiązała się z tego obowiązku, gdy w 2007 roku po raz pierwszy wprowadziła na rynek telefon iPhone dla ponad miliona użytkowników.

Historia litu nie kończy się na tym. Jako jeden z elementów składowych świata bez paliw kopalnych, jego produkcja jest pilnie strzeżona. Jak więc myślicie, kto w 2016 roku kupił firmę Sony zajmującą się produkcją baterii? Jak myślicie, jeden z czołowych dostawców Apple, Murata Manufacturing. Tymczasem John Goodenough, obecnie 95-latek, kontynuuje swoje przełomowe badania. Zaledwie kilka miesięcy temu opublikował przełomowe badanie w Journal of the American Chemical Society. Jakie są jego stwierdzenia? Że Goodenough stworzył baterię litową dla samochodów elektrycznych, która może być używana 23 razy więcej niż obecna średnia.

Internet i sieć WWW

Kiedy inżynier Apple, Andy Grignon, po raz pierwszy dodał funkcjonalność Internetu do iPoda w 2004 roku, Steve Jobs był daleki od entuzjazmu: „To bzdura. Nie chcę tego. Wiem, że to działa, mam to, świetnie, dzięki, ale to jest gówniane doświadczenie.”

Żmudna praca wielu zespołów Apple wzięła „gówniane doświadczenie” i zrobiła coś rewolucyjnego – całe zbiorowe ludzkie doświadczenie i wiedzę właśnie tam, w tylnej kieszeni, na wyciągnięcie ręki. Ale komu mamy za to podziękować?

Sir Tim Berners-Lee jest powszechnie uznawany za twórcę sieci World Wide Web. Jego praca rozpoczęła się w latach osiemdziesiątych, gdy pracował w Europejskiej Organizacji Badań Jądrowych. Lepiej znany pod francuskim akronimem, CERN został założony przez 12 europejskich rządów w 1952 roku i nadal jest finansowany przez państwa członkowskie. Pomysły Bernersa-Lee zaczęły się jako propozycja rozwiązania bardzo konkretnego problemu w CERN: jak najlepiej ułatwić udostępnianie i aktualizację ogromnych ilości informacji i danych wykorzystywanych przez naukowców CERN. Jego propozycja opierała się na koncepcji hipertekstu, po raz pierwszy ukutej przez teoretycznego pioniera Teda Nelsona w artykule z 1965 r. opublikowanym przez Association for Computing Machinery. Hipertekst, często porównywany do elektronicznej wersji systemu przypisów używanego przez naukowców na całym świecie, stanowi podstawę sieci, umożliwiając przeskakiwanie z jednego źródła informacji do drugiego. W dowolnym miejscu w Internecie. W jakiejkolwiek formie by ona nie była.

Ale nawet Berners-Lee nie może być uznany za jedynego twórcę. Jeśli World Wide Web jest mapą, to Internet jest krajobrazem, po którym się poruszamy: infrastruktura sieciowa łącząca miliony komputerów na całym świecie, pozwalająca każdemu z nich komunikować się z drugim, przesyłając ogromne ilości informacji.

Aby prześledzić początki Internetu, musimy wrócić do roku 1965. Podczas gdy Nelson wymyślał hipertekst, a Eric ekran dotykowy, dwaj badacze z MIT, Thomas Merrill i Lawrence Roberts, połączyli swój komputer z innym, oddalonym o 3000 mil w Kalifornii, za pomocą prostej, szybkiej linii telefonicznej. Niedługo potem pojawił się Arpanet, nie dystopijny system sztucznej inteligencji, ale sieć Agencji Zaawansowanych Projektów Badawczych. Arpanet został założony i sfinansowany przez DARPA, amerykańską Agencję Zaawansowanych Projektów Badawczych Obrony (Defense Advanced Research Projects Agency), i początkowo pomyślany jako sposób na połączenie komputerów amerykańskiego wojska w ich różnych regionalnych ośrodkach.

To Arpanet naprawdę dał początek Internetowi, w momencie opisanym poniżej przez Leonarda Kleinrocka. Jest październik 1969 roku, trzy miesiące po tym, jak człowiek stąpał po Księżycu, a Kleinrock i jego koledzy właśnie połączyli wiele komputerów w całych Stanach Zjednoczonych:

Wpisaliśmy L i zapytaliśmy przez telefon,

Czy widzisz L?

Tak, widzimy L

Wpisaliśmy O, i zapytaliśmy, Czy widzicie O?

Tak, widzimy O.

Potem wpisaliśmy G, i system się zawiesił…

Kierunek prawdziwej innowacji nigdy nie przebiegał gładko. Ale te wczesne przełomy ery kosmicznej stanowiły podstawę dla wszystkiego, co miało nastąpić później. Podczas gdy nowoczesny iPhone jest teraz 120 milionów razy potężniejszy niż komputery, które zabrały Apollo 11 na Księżyc, jego prawdziwa moc leży w jego zdolności do wykorzystania miliardów stron internetowych i terabajtów, które tworzą Internet.

Krótka analiza tych trzech przełomów badawczych ujawnia sieć badawczą ponad 400 000 publikacji od czasu, gdy Apple po raz pierwszy opublikował swój patent na telefon w 1997 roku. Dodaj czynnik wspierających badaczy, fundatorów, uniwersytetów i firm za nimi, a sieć przyczyniająca się jest po prostu zdumiewająca. A my ledwie dotknęliśmy powierzchni. Istnieją niezliczone inne przełomowe badania, bez których nie byłoby możliwe powstanie iPhone’a. Niektóre z nich są dobrze znane, inne mniej. Zarówno GPS, jak i Siri miały swoje początki w amerykańskiej armii, a złożone algorytmy, które umożliwiają cyfryzację, zostały początkowo stworzone do wykrywania prób jądrowych. Wszystkie miały u podstaw badania naukowe.

iPhone jest technologią definiującą epokę. Technologie definiujące erę nie pochodzą z rzadkiej błyskotliwości jednej osoby lub organizacji, ale z warstwy na warstwie innowacji i dekady na dekadzie badań, z tysiącami osób i organizacji stojących na ramionach siebie nawzajem i patrzących nieco dalej w przyszłość. W naszej epoce globalnych wyzwań, które wydają się nie do pokonania, musimy nie tylko o tym pamiętać, ale także czerpać z tego inspirację.

Musimy zachęcać do otwartości i przejrzystości w centrum badań, zapewniając ich rozpowszechnianie w sposób jak najbardziej powszechny, szybki i jasny. Musimy pamiętać, że każde opóźnienie i zniekształcenie ma znaczenie. Integralność i odtwarzalność badań, przejrzysta wzajemna weryfikacja, otwarty dostęp, różnorodność – to coś więcej niż tylko modne hasła. Są to ekscytujące kroki w kierunku zreformowania infrastruktury globalnego ekosystemu badawczego, który zawsze był naszą najlepszą nadzieją na przyszłość.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.