komputer urodził się nie dla rozrywki lub poczty elektronicznej, ale z potrzeby rozwiązania poważnego kryzysu numerycznego . Do 1880 roku populacja USA wzrosła tak duża, że tabulowanie wyników spisu ludności w USA zajęło ponad siedem lat. Rząd szukał szybszego sposobu na wykonanie zadania, dając początek komputerom opartym na kartach dziurkowanych, które zajmowały całe pomieszczenia.
dzisiaj przenosimy więcej mocy obliczeniowej na naszych smartfonach niż było to dostępne w tych wczesnych modelach. Poniższa krótka historia informatyki to oś czasu, w jaki sposób komputery ewoluowały od swoich skromnych początków do dzisiejszych maszyn, które surfują po Internecie, grają w gry i strumieniują multimedia, a także chrupają liczby.
1801: we Francji Joseph Marie Jacquard wynalazł Krosno, które wykorzystuje perforowane drewniane karty do automatycznego tkania wzorów tkanin. Wczesne Komputery używały podobnych kart dziurkowanych.
1822: angielski matematyk Charles Babbage wyobraża sobie napędzaną parą maszynę obliczeniową, która byłaby w stanie obliczyć tabele liczb. Projekt, finansowany przez rząd angielski, jest porażką. Jednak ponad sto lat później zbudowano pierwszy komputer na świecie.
1890: Herman Hollerith projektuje system kart dziurkowanych do obliczania spisu z 1880 roku, wykonując to zadanie w zaledwie trzy lata i oszczędzając rządowi 5 milionów dolarów. Zakłada firmę, która ostatecznie stanie się IBM.
1936: Alan Turing przedstawia pojęcie uniwersalnej maszyny, nazwanej później maszyną Turinga, zdolnej do obliczenia wszystkiego, co jest obliczeniowe. Centralna koncepcja nowoczesnego komputera opierała się na jego pomysłach.
1937: J. V. Atanasoff, profesor fizyki i matematyki na Iowa State University, próbuje zbudować pierwszy komputer bez kół zębatych, krzywek, pasów lub wałów.
1939: firma Hewlett-Packard została założona przez Davida Packarda i Billa Hewletta w Palo Alto w Kalifornii, według Computer History Museum.
1941: Atanasoff i jego absolwent, Clifford Berry, projektują komputer, który może rozwiązać 29 równań jednocześnie. Oznacza to, że komputer po raz pierwszy jest w stanie przechowywać informacje w swojej pamięci głównej.
1943-1944: Dwaj profesorowie Uniwersytetu Pensylwanii, John Mauchly i J. Presper Eckert, zbudowali elektroniczny Integrator numeryczny I Kalkulator (ENIAC). Uważany za dziadka komputerów cyfrowych, wypełnia pokój o wymiarach 20 na 40 stóp i ma 18 000 lamp próżniowych.
1946: Mauchly i Presper opuszczają Uniwersytet Pensylwanii i otrzymują fundusze od biura Spisu Powszechnego na budowę UNIVAC, pierwszego komercyjnego komputera do zastosowań biznesowych i rządowych.
1947: William Shockley, John Bardeen i Walter Brattain Z Bell Laboratories wynaleźli tranzystor. Odkryli, jak zrobić przełącznik elektryczny z materiałów stałych i nie ma potrzeby próżni.
1953: Grace Hopper opracowuje pierwszy język komputerowy, który ostatecznie staje się znany jako COBOL. Thomas Johnson Watson Jr., syn dyrektora generalnego IBM Thomasa Johnsona Watsona SR., opracowuje IBM 701 EDPM, aby pomóc Organizacji Narodów Zjednoczonych w kontrolowaniu Korei podczas wojny.
1954: język programowania FORTRAN, akronim tłumaczenia formuł, został opracowany przez zespół programistów w IBM pod kierownictwem Johna Backusa, zgodnie z University of Michigan.
1958: Jack Kilby i Robert Noyce odkrywają układ scalony, znany jako chip komputerowy. Kilby otrzymał Nagrodę Nobla w dziedzinie fizyki w 2000 roku za swoją pracę.
1964: Douglas Engelbart pokazuje prototyp nowoczesnego komputera, z myszą i graficznym interfejsem użytkownika (GUI). Oznacza to ewolucję komputera z wyspecjalizowanej maszyny dla naukowców i matematyków do technologii, która jest bardziej dostępna dla ogółu społeczeństwa.
1969: grupa programistów w Bell Labs produkuje UNIX, system operacyjny, który rozwiązuje problemy ze zgodnością. Napisany w języku programowania C, UNIX był przenośny na wiele platform i stał się systemem operacyjnym z wyboru wśród komputerów mainframe w dużych firmach i jednostkach rządowych. Ze względu na powolny charakter systemu, nigdy nie zyskał on popularności wśród domowych użytkowników komputerów PC.
1970: nowo powstały Intel prezentuje Intel 1103, pierwszy układ pamięci DRAM (Dynamic Access Memory).
1971: Alan Shugart prowadzi zespół inżynierów IBM, którzy wynaleźli „dyskietkę”, pozwalającą na dzielenie się danymi między komputerami.
1973: Robert Metcalfe, członek personelu badawczego Xerox, opracowuje Ethernet do łączenia wielu komputerów i innego sprzętu.
1974-1977: kilka komputerów osobistych trafiło na rynek, w tym Scelbi& Mark-8 Altair, IBM 5100, TRS-80 Radio Shack — pieszczotliwie znany jako „Trash 80” — i Commodore PET.
1975: styczniowy numer magazynu Popular Electronics prezentuje Altair 8080, opisany jako „pierwszy na świecie zestaw minikomputerów do konkurowania z modelami komercyjnymi.”Dwaj” komputerowi maniacy, Paul Allen i Bill Gates, proponują napisanie oprogramowania dla Altair, używając nowego języka BASIC. 4 kwietnia, po sukcesie tego pierwszego przedsięwzięcia, dwaj przyjaciele z dzieciństwa tworzą własną firmę programistyczną, Microsoft.
1976: Steve Jobs i Steve Wozniak uruchamiają komputery Apple w Prima Aprilis i wprowadzają Apple I, pierwszy komputer z płytką jednoukładową, według Uniwersytetu Stanforda.
1977: początkowa produkcja TRS-80 przez Radio Shack wynosiła zaledwie 3000. Sprzedawał się jak szalony. Po raz pierwszy nie-geekowie mogli pisać programy i zmuszać komputer do robienia tego, co chcieli.
1977: Jobs i Woźniak włączają Apple i pokazują Apple II na pierwszym West Coast Computer Faire. Oferuje kolorową grafikę i zawiera napęd kasety audio do przechowywania.
1978: księgowi radują się z wprowadzenia VisiCalc, pierwszego skomputeryzowanego programu do arkuszy kalkulacyjnych.
1979: Przetwarzanie tekstu staje się rzeczywistością, ponieważ MicroPro International wydaje WordStar. „Definiującą zmianą było dodanie marginesów i zawijania słów”, powiedział twórca Rob Barnaby w e-mailu do Mike ’ a Petrie w 2000 roku. „Dodatkowe zmiany obejmowały pozbycie się trybu poleceń i dodanie funkcji drukowania. Byłem mózgiem technicznym-wymyśliłem, jak to zrobić, zrobiłem to i udokumentowałem. „
1981: Wprowadzono pierwszy komputer osobisty IBM o nazwie kodowej „Acorn”. Korzysta z systemu operacyjnego Microsoft MS-DOS. Posiada układ Intel, dwie dyskietki i opcjonalny kolorowy monitor. Sears & Roebuck i Computerland sprzedają maszyny, zaznaczając, że po raz pierwszy komputer jest dostępny za pośrednictwem zewnętrznych dystrybutorów. Popularyzuje również termin PC.
1983: Apple Lisa jest pierwszym komputerem osobistym z GUI. Posiada również rozwijane menu i ikony. Flops, ale ostatecznie ewoluuje w Macintosh. Gavilan SC jest pierwszym komputerem przenośnym o znanej formie flip i pierwszym, który zostanie wprowadzony na rynek jako „laptop”.”
1985: Microsoft ogłasza Windows, według Encyclopedia Britannica. Była to odpowiedź firmy na GUI Apple. Commodore prezentuje Amigę 1000, która oferuje zaawansowane możliwości audio i wideo.
1985: pierwsza nazwa domeny dot-com została zarejestrowana 15 marca, na lata przed oficjalnym początkiem historii Internetu. Firma Symbolics Computer, mały producent komputerów z Massachusetts, rejestruje Symbolics.com. Ponad dwa lata później zarejestrowano tylko 100 dot-comów.
1986: Compaq wprowadza na rynek Deskpro 386. Jego 32-bitowa architektura zapewnia prędkość porównywalną z mainframe.
1990: Tim Berners-Lee, badacz w CERN, Laboratorium Fizyki Wysokich Energii w Genewie, rozwija HyperText Markup Language (HTML), dając początek World Wide Web.
1993: mikroprocesor Pentium rozwija wykorzystanie grafiki i muzyki na komputerach PC.
1994: Komputery PC stają się automatami do gier, ponieważ ” Command & Conquer”, „Alone in the Dark 2”, „Theme Park”, „Magic Carpet”, „Descent” i „Little Big Adventure” należą do gier, które trafią na rynek.
1996: Sergey Brin i Larry Page rozwijają wyszukiwarkę Google na Uniwersytecie Stanforda.
1997: Microsoft inwestuje 150 milionów dolarów w Apple, które walczyło w tym czasie, kończąc sprawę sądową Apple przeciwko Microsoftowi, w której twierdził, że Microsoft skopiował „wygląd i działanie” swojego systemu operacyjnego.
1999: Termin Wi-Fi staje się częścią języka obliczeniowego, a użytkownicy zaczynają łączyć się z Internetem bez przewodów.
2001: Apple prezentuje System Operacyjny Mac OS X, który zapewnia między innymi chronioną architekturę pamięci i prewencyjną wielozadaniowość. Aby nie prześcignąć, Microsoft wprowadza Windows XP, który ma znacznie przeprojektowany GUI.
2003: pierwszy 64-bitowy procesor, AMD Athlon 64, staje się dostępny na rynku konsumenckim.
2004: Mozilla Firefox 1.0 rzuca wyzwanie Internet Explorerowi, dominującej przeglądarce internetowej Microsoftu. Rusza serwis społecznościowy Facebook.
2005: YouTube, serwis do udostępniania wideo, został założony. Google przejmuje Android, system operacyjny telefonów komórkowych oparty na Linuksie.
2006: Apple wprowadza MacBooka Pro, swój pierwszy, dwurdzeniowy komputer mobilny oparty na Intelu, a także iMac oparty na Intelu. Na rynek trafia konsola do gier Nintendo Wii.
2007: iPhone wprowadza wiele funkcji komputerowych do smartfona.
2009: Microsoft uruchamia Windows 7, który oferuje możliwość przypinania aplikacji do paska zadań oraz postęp w rozpoznawaniu dotyku i pisma ręcznego, między innymi.
2010: Apple prezentuje iPada, zmieniając sposób, w jaki konsumenci oglądają media i rozpoczynając uśpiony segment komputerów typu tablet.
2011: Google wypuszcza Chromebooka, laptopa, który uruchamia Google Chrome OS.
2012: Facebook zyskuje 1 miliard użytkowników 4 października.
2015: Apple wypuszcza Apple Watch. Microsoft wydaje Windows 10.
2016: powstał pierwszy przeprogramowalny komputer kwantowy. „Do tej pory nie istniała żadna platforma obliczeniowa kwantowa, która byłaby w stanie zaprogramować nowe algorytmy w swoim systemie. Zazwyczaj są one dostosowane do ataku na konkretny algorytm”, powiedział główny autor badania Shantanu Debnath, fizyk kwantowy i inżynier optyczny Z University of Maryland, College Park.
2017: Defense Advanced Research Projects Agency (DARPA) opracowuje nowy program „Molecular Informatics”, który wykorzystuje cząsteczki jako komputery. „Chemia oferuje bogaty zestaw właściwości, które możemy wykorzystać do szybkiego, skalowalnego przechowywania i przetwarzania informacji”, powiedziała Anne Fischer, kierownik programu w biurze Nauk obronnych DARPA. „Istnieją miliony cząsteczek, a każda cząsteczka ma unikalną trójwymiarową strukturę atomową, a także zmienne, takie jak kształt, rozmiar, a nawet kolor. To bogactwo zapewnia ogromną przestrzeń projektową do odkrywania nowatorskich i wielowartościowych sposobów kodowania i przetwarzania danych wykraczających poza 0 i 1 obecnych architektur cyfrowych opartych na logice.”
dodatkowy reportaż autorstwa Aliny Bradford, Live Science contributor.