Maybaygiare.org

Blog Network

Historia de las Computadoras: Una Breve Línea de tiempo

La computadora no nació para entretenimiento o correo electrónico, sino para resolver una grave crisis de procesamiento de números. Para 1880, la población de los Estados Unidos había crecido tanto que tomó más de siete años tabular los resultados del censo de los Estados Unidos. El gobierno buscó una forma más rápida de hacer el trabajo, dando lugar a computadoras basadas en tarjetas perforadas que ocupaban habitaciones enteras.

Hoy en día, tenemos más potencia de computación en nuestros teléfonos inteligentes de la que estaba disponible en estos primeros modelos. La siguiente breve historia de la informática es una línea de tiempo de cómo las computadoras evolucionaron desde sus humildes comienzos hasta las máquinas de hoy en día que navegan por Internet, juegan juegos y transmiten multimedia, además de procesar números.

1801: En Francia, Joseph Marie Jacquard inventa un telar que utiliza tarjetas de madera perforadas para tejer diseños de tela automáticamente. Las primeras computadoras usaban tarjetas perforadas similares.

1822: El matemático inglés Charles Babbage concibe una máquina de cálculo impulsada por vapor que sería capaz de calcular tablas de números. El proyecto, financiado por el gobierno inglés, es un fracaso. Sin embargo, más de un siglo después, se construyó la primera computadora del mundo.

1890: Herman Hollerith diseña un sistema de tarjetas perforadas para calcular el censo de 1880, logrando la tarea en solo tres años y ahorrando al gobierno 5 millones de dólares. Establece una empresa que en última instancia se convertiría en IBM.

1936: Alan Turing presenta la noción de una máquina universal, más tarde llamada máquina de Turing, capaz de computar cualquier cosa que sea computable. El concepto central de la computadora moderna se basó en sus ideas.

1937: J. V. Atanasoff, profesor de física y matemáticas en la Universidad Estatal de Iowa, intenta construir la primera computadora sin engranajes, levas, correas o ejes.

1939: Hewlett-Packard es fundada por David Packard y Bill Hewlett en un garaje de Palo Alto, California, según el Computer History Museum.

1941: Atanasoff y su estudiante de posgrado, Clifford Berry, diseñan una computadora que puede resolver 29 ecuaciones simultáneamente. Esta es la primera vez que un ordenador es capaz de almacenar información en su memoria principal.

1943-1944: Dos profesores de la Universidad de Pensilvania, John Mauchly y J. Presper Eckert, construyen el Integrador Numérico Electrónico y Calculadora (ENIAC). Considerado el abuelo de las computadoras digitales, llena una habitación de 20 pies por 40 pies y tiene 18,000 tubos de vacío.

1946: Mauchly y Presper dejan la Universidad de Pensilvania y reciben fondos de la Oficina del Censo para construir el UNIVAC, la primera computadora comercial para aplicaciones empresariales y gubernamentales.

1947: William Shockley, John Bardeen y Walter Brattain de los Laboratorios Bell inventan el transistor. Descubrieron cómo hacer un interruptor eléctrico con materiales sólidos y sin necesidad de una aspiradora.

1953: Grace Hopper desarrolla el primer lenguaje informático, que finalmente se conoce como COBOL. Thomas Johnson Watson Jr., hijo del CEO de IBM Thomas Johnson Watson Sr., concibe el IBM 701 EDPM para ayudar a las Naciones Unidas a controlar Corea durante la guerra.

1954: El lenguaje de programación FORTRAN, acrónimo de FORmula TRANslation, es desarrollado por un equipo de programadores de IBM dirigido por John Backus, según la Universidad de Michigan.

1958: Jack Kilby y Robert Noyce revelan el circuito integrado, conocido como chip de computadora. Kilby fue galardonado con el Premio Nobel de Física en 2000 por su trabajo.

1964: Douglas Engelbart muestra un prototipo del ordenador moderno, con un ratón y una interfaz gráfica de usuario (GUI). Esto marca la evolución de la computadora de una máquina especializada para científicos y matemáticos a una tecnología más accesible para el público en general.

1969: Un grupo de desarrolladores de Bell Labs produce UNIX, un sistema operativo que aborda problemas de compatibilidad. Escrito en el lenguaje de programación C, UNIX era portable a través de múltiples plataformas y se convirtió en el sistema operativo de elección entre los mainframes de grandes empresas y entidades gubernamentales. Debido a la naturaleza lenta del sistema, nunca ganó tracción entre los usuarios de PC domésticos.

1970: La recién formada Intel presenta el Intel 1103, el primer chip de Memoria de Acceso Dinámico (DRAM).

1971: Alan Shugart lidera un equipo de ingenieros de IBM que inventan el «disquete», permitiendo que los datos se compartan entre computadoras.

1973: Robert Metcalfe, miembro del personal de investigación de Xerox, desarrolla Ethernet para conectar múltiples computadoras y otro hardware.

1974-1977: Varias computadoras personales llegaron al mercado, incluyendo Scelbi & Mark-8 Altair, IBM 5100, Radio Shack’s TRS-80 — cariñosamente conocido como el «Trash 80» — y el Commodore PET.

1975: La edición de enero de la revista Popular Electronics presenta el Altair 8080, descrito como «el primer kit de minicomputadora del mundo en rivalizar con los modelos comerciales.»Dos» frikis de la informática», Paul Allen y Bill Gates, ofrecen escribir software para el Altair, utilizando el nuevo lenguaje BÁSICO. El 4 de abril, después del éxito de este primer esfuerzo, los dos amigos de la infancia forman su propia compañía de software, Microsoft.

1976: Steve Jobs y Steve Wozniak inician las computadoras Apple el Día de los Inocentes y lanzan la Apple I, la primera computadora con una placa de circuito único, según la Universidad de Stanford.

El TRS-80, introducido en 1977, fue una de las primeras máquinas cuya documentación estaba destinada a no geeks

El TRS-80, introducido en 1977, fue una de las primeras máquinas cuya documentación estaba destinada a no geeks (Crédito de la imagen: Radioshack)

1977: La producción inicial de Radio Shack del TRS-80 fue de solo 3.000. Se vendió como una locura. Por primera vez, los no-geeks podían escribir programas y hacer que una computadora hiciera lo que desearan.

1977: Jobs y Wozniak incorporan Apple y muestran el Apple II en la primera Feria de Computadoras de la Costa Oeste. Ofrece gráficos en color e incorpora una unidad de casete de audio para almacenamiento.

1978: Los contadores se regocijan con la introducción de VisiCalc, el primer programa de hojas de cálculo computarizadas.

1979: El procesamiento de textos se convierte en una realidad cuando MicroPro International lanza WordStar. «El cambio definitorio fue agregar márgenes y ajuste de texto», dijo el creador Rob Barnaby en un correo electrónico a Mike Petrie en 2000. «Los cambios adicionales incluyeron deshacerse del modo de comando y agregar una función de impresión. Yo era el cerebro técnico, descubrí cómo hacerlo, lo hice y lo documenté. «

La primera computadora personal de IBM, presentó en Agosto. 12, 1981, utiliza el sistema operativo MS-DOS.

El primer ordenador personal IBM, presentado el pasado mes de agosto. 12, 1981, utiliza el sistema operativo MS-DOS. (Crédito de la imagen: IBM)

1981: Se introduce el primer ordenador personal IBM, con el nombre en código «Acorn». Utiliza el sistema operativo MS-DOS de Microsoft. Tiene un chip Intel, dos disquetes y un monitor a color opcional. Sears & Roebuck y Computerland venden las máquinas, marcando la primera vez que una computadora está disponible a través de distribuidores externos. También populariza el término PC.

1983: El Lisa de Apple es el primer ordenador personal con interfaz gráfica de usuario. También cuenta con un menú desplegable e iconos. Falla, pero eventualmente evoluciona hacia el Macintosh. El Gavilan SC es el primer ordenador portátil con el familiar factor de forma flip y el primero en comercializarse como «portátil».»

1985: Microsoft anuncia Windows, según la Enciclopedia Británica. Esta fue la respuesta de la compañía a la interfaz gráfica de usuario de Apple. Commodore presenta el Amiga 1000, que cuenta con capacidades avanzadas de audio y vídeo.

1985: El primer nombre de dominio punto com se registra el 15 de marzo, años antes de que la World Wide Web marcara el comienzo formal de la historia de Internet. The Symbolics Computer Company, un pequeño fabricante de computadoras de Massachusetts, se registra Symbolics.com. Más de dos años después, sólo se habían registrado 100 puntos de comunicación.

1986: Compaq lanza al mercado el Deskpro 386. Su arquitectura de 32 bits proporciona una velocidad comparable a la de los mainframes.

1990: Tim Berners-Lee, investigador del CERN, el laboratorio de física de alta energía en Ginebra, desarrolla el Lenguaje de marcado de Hipertexto (HTML), dando lugar a la World Wide Web.

1993: El microprocesador Pentium avanza en el uso de gráficos y música en PCs.

1994: Las PC se convierten en máquinas de juego como «Command & Conquer,» «Alone in the Dark 2», «Theme Park», «Magic Carpet», «Descent» y «Little Big Adventure» se encuentran entre los juegos que llegan al mercado.

1996: Sergey Brin y Larry Page desarrollan el motor de búsqueda de Google en la Universidad de Stanford.

1997: Microsoft invierte 1 150 millones en Apple, que estaba luchando en ese momento, terminando el caso judicial de Apple contra Microsoft en el que alegó que Microsoft copió el «aspecto» de su sistema operativo.

1999: El término Wi-Fi se convierte en parte del lenguaje informático y los usuarios comienzan a conectarse a Internet sin cables.

2001: Apple presenta el sistema operativo Mac OS X, que proporciona arquitectura de memoria protegida y multitarea preventiva, entre otros beneficios. Para no ser menos, Microsoft lanza Windows XP, que tiene una interfaz gráfica de usuario significativamente rediseñada.

2003: El primer procesador de 64 bits, el Athlon 64 de AMD, está disponible para el mercado de consumo.

2004: Firefox 1.0 de Mozilla desafía al Internet Explorer de Microsoft, el navegador web dominante. Se lanza Facebook, una red social.

2005: Se funda YouTube, un servicio para compartir vídeos. Google adquiere Android, un sistema operativo para teléfonos móviles basado en Linux.

2006: Apple presenta el MacBook Pro, su primer ordenador móvil de doble núcleo basado en Intel, así como un iMac basado en Intel. La consola de juegos Wii de Nintendo llega al mercado.

2007: El iPhone trae muchas funciones de computadora al teléfono inteligente.

2009: Microsoft lanza Windows 7, que ofrece la capacidad de anclar aplicaciones a la barra de tareas y avanza en el reconocimiento táctil y de escritura a mano, entre otras características.

2010: Apple presenta el iPad, cambiando la forma en que los consumidores ven los medios y poniendo en marcha el segmento de las tabletas inactivas.

2011: Google lanza el Chromebook, un portátil que ejecuta el sistema operativo Google Chrome.

2012: Facebook gana 1 mil millones de usuarios el 4 de octubre.

2015: Apple lanza el Apple Watch. Microsoft lanza Windows 10.

2016: Se creó la primera computadora cuántica reprogramable. «Hasta ahora, no había ninguna plataforma de computación cuántica que tuviera la capacidad de programar nuevos algoritmos en su sistema. Por lo general, cada uno de ellos está diseñado para atacar un algoritmo en particular», dijo el autor principal del estudio Shantanu Debnath, físico cuántico e ingeniero óptico de la Universidad de Maryland, College Park.

2017: La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) está desarrollando un nuevo programa de «Informática Molecular» que utiliza moléculas como computadoras. «La química ofrece un rico conjunto de propiedades que podemos aprovechar para un almacenamiento y procesamiento de información rápido y escalable», dijo Anne Fischer, gerente de programas en la Oficina de Ciencias de Defensa de DARPA, en un comunicado. «Existen millones de moléculas, y cada molécula tiene una estructura atómica tridimensional única, así como variables como la forma, el tamaño o incluso el color. Esta riqueza proporciona un amplio espacio de diseño para explorar formas novedosas y de múltiples valores de codificar y procesar datos más allá de los 0 y 1 de las arquitecturas digitales basadas en lógica actuales.»

Informes adicionales de Alina Bradford, colaboradora de Live Science.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.