HISTORIA DE LOS ORDENADORES

Contents

El ordenador no nació para el entretenimiento o el correo electrónico, sino por la necesidad de resolver una grave crisis de números. Para 1880, la población de los EE.UU. había crecido tanto que tomó más de siete años para tabular los resultados del censo de los EE.UU. El gobierno buscó una manera más rápida de hacer el trabajo, dando lugar a computadoras basadas en tarjetas perforadas que ocupaban habitaciones enteras.

Hoy en día, llevamos más potencia de computación en nuestros teléfonos inteligentes que la que estaba disponible en estos primeros modelos. La siguiente breve historia de la informática es una línea de tiempo de cómo los ordenadores evolucionaron desde sus humildes comienzos hasta las máquinas de hoy que navegan por Internet, juegan y transmiten multimedia además de hacer cálculos numéricos.

SIGLO XIX – LOS INICIOS

1801: En Francia, Joseph Marie Jacquard inventa un telar que utiliza tarjetas de madera perforadas para tejer automáticamente diseños de telas. Las primeras computadoras usaban tarjetas perforadas similares.

1822: El matemático inglés Charles Babbage concibe una máquina calculadora impulsada por vapor que sería capaz de calcular tablas de números. El proyecto, financiado por el gobierno inglés, es un fracaso. Sin embargo, más de un siglo después, se construyó la primera computadora del mundo.

1890: Herman Hollerith diseña un sistema de tarjetas perforadas para calcular el censo de 1880, realizando la tarea en sólo tres años y ahorrando al gobierno 5 millones de dólares. Establece una compañía que finalmente se convertiría en IBM.

SIGLO XX – LA REVOLUCIÓN

1936: Alan Turing presenta la noción de una máquina universal, más tarde llamada máquina Turing, capaz de computar cualquier cosa que sea computable. El concepto central de la computadora moderna se basaba en sus ideas.

1937: J.V. Atanasoff, profesor de física y matemáticas en la Universidad Estatal de Iowa, intenta construir la primera computadora sin engranajes, levas, correas o ejes.

1939: David Packard y Bill Hewlett fundan Hewlett-Packard en un garaje de Palo Alto, California, según el Museo de Historia de la Computación.

1941: Atanasoff y su estudiante de posgrado, Clifford Berry, diseñan una computadora que puede resolver 29 ecuaciones simultáneamente. Esta es la primera vez que una computadora es capaz de almacenar información en su memoria principal.

1943-1944: Dos profesores de la Universidad de Pennsylvania, John Mauchly y J. Presper Eckert, construyen el Integrador y Calculadora Numérica Electrónica (ENIAC). Considerado el abuelo de las computadoras digitales, llena una sala de 20 por 40 pies y tiene 18.000 tubos de vacío.

1946: Mauchly y Presper dejan la Universidad de Pennsylvania y reciben fondos de la Oficina del Censo para construir la UNIVAC, la primera computadora comercial para aplicaciones empresariales y gubernamentales.

1947: William Shockley, John Bardeen y Walter Brattain de Bell Laboratories inventan el transistor. Descubrieron cómo hacer un interruptor eléctrico con materiales sólidos y sin necesidad de un vacío.

1953: Grace Hopper desarrolla el primer lenguaje informático, que finalmente se conoce como COBOL. Thomas Johnson Watson Jr., hijo del CEO de IBM Thomas Johnson Watson Sr., concibe el IBM 701 EDPM para ayudar a las Naciones Unidas a vigilar a Corea durante la guerra.

1954: El lenguaje de programación FORTRAN, acrónimo de FORmula TRANslation, es desarrollado por un equipo de programadores de IBM liderado por John Backus, según la Universidad de Michigan.

1958: Jack Kilby y Robert Noyce revelan el circuito integrado, conocido como el chip de computadora. Kilby fue galardonado con el Premio Nobel de Física en 2000 por su trabajo.

1964: Douglas Engelbart muestra un prototipo de la computadora moderna, con un ratón y una interfaz gráfica de usuario (GUI). Esto marca la evolución del ordenador desde una máquina especializada para científicos y matemáticos a una tecnología más accesible para el público en general.

1969: Un grupo de desarrolladores de los Laboratorios Bell producen UNIX, un sistema operativo que aborda los problemas de compatibilidad. Escrito en el lenguaje de programación C, UNIX era portátil en múltiples plataformas y se convirtió en el sistema operativo preferido por los ordenadores centrales de las grandes empresas y entidades gubernamentales. Debido a la lentitud del sistema, nunca llegó a imponerse entre los usuarios de PC domésticos.

1970: El recién formado Intel revela el Intel 1103, el primer chip de Memoria de Acceso Dinámico (DRAM).

1971: Alan Shugart dirige un equipo de ingenieros de IBM que inventan el «disquete», que permite compartir datos entre computadoras.

Además La compañía Intel lanza al mercado el primer microprocesador comercial, el Intel 4004.

1973: Robert Metcalfe, miembro del personal de investigación de Xerox, desarrolla Ethernet para conectar múltiples computadoras y otro hardware.

1974-1977: Varios ordenadores personales salen al mercado, incluyendo Scelbi & Mark-8 Altair, IBM 5100, el TRS-80 de Radio Shack – cariñosamente conocido como «Trash 80» – y el Commodore PET.

1975: En el número de enero de la revista Popular Electronics aparece el Altair 8080, descrito como «el primer kit de miniordenador del mundo que compite con los modelos comerciales». Dos «geeks de la informática», Paul Allen y Bill Gates, se ofrecen a escribir software para el Altair, usando el nuevo lenguaje BASIC. El 4 de abril, después del éxito de este primer esfuerzo, los dos amigos de la infancia forman su propia compañía de software, Microsoft.

1976: Steve Jobs y Steve Wozniak ponen en marcha las computadoras Apple el día de los inocentes y despliegan la Apple I, la primera computadora con una placa de circuito único, según la Universidad de Stanford.

1977: La producción inicial de Radio Shack del TRS-80 fue de sólo 3.000. Se vendió como una locura. Por primera vez, los no geeks podían escribir programas y hacer que un ordenador hiciera lo que quisieran.

1977: Jobs y Wozniak incorporan a Apple y muestran la Apple II en la primera Feria Informática de la Costa Oeste. Ofrece gráficos a color e incorpora una unidad de casetes de audio para el almacenamiento.

1978: Los contadores se regocijan con la introducción de VisiCalc, el primer programa de hoja de cálculo computarizado.

1979: El procesamiento de textos se hace realidad con el lanzamiento de WordStar por parte de MicroPro International. «El cambio definitorio fue agregar márgenes y envoltura de palabras», dijo el creador Rob Barnaby en un correo electrónico a Mike Petrie en el 2000. «Los cambios adicionales incluían deshacerse del modo de comando y añadir una función de impresión. Yo era el cerebro técnico – descubrí cómo hacerlo, y lo hice, y lo documenté. »

1981: Se presenta la primera computadora personal de IBM, con nombre de código «Acorn». Utiliza el sistema operativo MS-DOS de Microsoft. Tiene un chip Intel, dos disquetes y un monitor a color opcional. Sears & Roebuck y Computerland venden las máquinas, marcando la primera vez que una computadora está disponible a través de distribuidores externos. También populariza el término PC.

1983: La Lisa de Apple es la primera computadora personal con una interfaz gráfica. También tiene un menú desplegable e iconos. Se cae, pero eventualmente evoluciona hacia la Macintosh. La Gavilan SC es la primera computadora portátil con el conocido factor de giro y la primera en ser comercializada como «laptop».

1985: Microsoft anuncia Windows, según la Enciclopedia Británica. Esta fue la respuesta de la compañía a la interfaz gráfica de Apple. Commodore revela el Amiga 1000, que tiene capacidades avanzadas de audio y video.

1985: El primer nombre de dominio punto-com se registra el 15 de marzo, años antes de que la World Wide Web marcara el comienzo formal de la historia de Internet. La Symbolics Computer Company, un pequeño fabricante de computadoras de Massachusetts, registra Symbolics.com. Más de dos años después, sólo se habían registrado 100 punto-com.

1986: Compaq saca al mercado el Deskpro 386. Su arquitectura de 32 bits proporciona una velocidad comparable a la de los ordenadores centrales.

1990: Tim Berners-Lee, un investigador del CERN, el laboratorio de física de alta energía de Ginebra, desarrolla el HyperText Markup Language (HTML), dando lugar a la World Wide Web.

1991: Linus Torvalds crea el núcleo Linux, un sistema operativo de código abierto.

1993: El microprocesador Pentium avanza en el uso de gráficos y música en los ordenadores personales.

1994: Los PC se convierten en máquinas de juego como «Command & Conquer», «Alone in the Dark 2», «Theme Park», «Magic Carpet», «Descent» y «Little Big Adventure» son algunos de los juegos que llegan al mercado.

1995: Microsoft lanza Windows 95, que presenta importantes mejoras en la interfaz gráfica de usuario y la compatibilidad con Internet.

1996: Sergey Brin y Larry Page desarrollan el motor de búsqueda de Google en la Universidad de Stanford.

1997: Microsoft invierte 150 millones de dólares en Apple, que estaba luchando en ese momento, terminando con el caso judicial de Apple contra Microsoft en el que alegaba que Microsoft copiaba el «look and feel» de su sistema operativo.

1999: El término Wi-Fi se convierte en parte del lenguaje informático y los usuarios comienzan a conectarse a Internet sin cables.

SIGLO XXI – HISTORIA MODERNA

2001: Apple presenta el sistema operativo Mac OS X, que ofrece una arquitectura de memoria protegida y multitarea preventiva, entre otros beneficios. Para no ser superados, Microsoft lanza Windows XP, que tiene una interfaz gráfica de usuario significativamente rediseñada.

Además, Apple lanza el iPod, revolucionando la industria de la música y sentando las bases para el futuro de los dispositivos móviles.

2003: El primer procesador de 64 bits, el Athlon 64 de AMD, se pone a disposición del mercado de consumo.

2004: El Firefox 1.0 de Mozilla desafía al Internet Explorer de Microsoft, el navegador web dominante. Se lanza Facebook, una red social.

2005: Se funda YouTube, un servicio para compartir videos. Google adquiere Android, un sistema operativo para teléfonos móviles basado en Linux.

2006: Apple presenta el MacBook Pro, su primera computadora móvil de doble núcleo basada en Intel, así como una iMac basada en Intel. Llega al mercado la consola de juegos Wii de Nintendo.

2007: Apple lanza el iPhone, que combina teléfono, cámara, reproductor de música y acceso a Internet en un solo dispositivo.

2009: Microsoft lanza Windows 7, que ofrece la posibilidad de fijar aplicaciones a la barra de tareas y avanza en el reconocimiento del tacto y la escritura, entre otras características.

2010: Apple presenta el iPad, cambiando la forma en que los consumidores ven los medios de comunicación y poniendo en marcha el segmento inactivo de las computadoras tablet.

2011: Google lanza el Chromebook, una computadora portátil que funciona con el sistema operativo Google Chrome.

2012: Facebook gana 1.000 millones de usuarios el 4 de octubre.

2015: Apple lanza el Apple Watch. Microsoft lanza Windows 10.

2016: Se crea la primera computadora cuántica reprogramable. «Hasta ahora, no había ninguna plataforma de computación cuántica que tuviera la capacidad de programar nuevos algoritmos en su sistema. Por lo general, cada una de ellas está diseñada para atacar un algoritmo en particular», dijo el autor principal del estudio Shantanu Debnath, un físico cuántico e ingeniero óptico de la Universidad de Maryland, College Park.

2017: La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) está desarrollando un nuevo programa de «Informática Molecular» que utiliza moléculas como computadoras. «La química ofrece un rico conjunto de propiedades que podemos aprovechar para el almacenamiento de archivos grandes y procesamiento rápido y escalable de la información», dijo Anne Fischer, gerente del programa en la Oficina de Ciencias de Defensa de DARPA, en un comunicado. «Existen millones de moléculas, y cada molécula tiene una estructura atómica tridimensional única, así como variables como la forma, el tamaño o incluso el color. Esta riqueza proporciona un vasto espacio de diseño para explorar formas novedosas y de múltiples valores para codificar y procesar datos más allá de los 0 y 1 de las actuales arquitecturas digitales basadas en la lógica».

2018: La información sobre los ataques de Meltdown y Spectre se hizo pública por primera vez. Las fallas de seguridad afectan a casi todas las computadoras y teléfonos inteligentes del mundo y podrían permitir a alguien obtener el contenido de la memoria incluyendo información sensible como contraseñas.

The New York Times y The Guardian revelaron que la firma Cambridge Analytica recolectó 50 millones de perfiles de Facebook y utilizó esos datos para ayudar al equipo electoral de Donald Trump.

2019: Google cerró su servicio Google+ el 2 de abril de 2019. Apple anunció iPadOS para sus dispositivos de tableta en junio de 2019.

2021: Las arquitecturas de los ordenadores cuánticos avanzan considerablemente, lo que podría revolucionar el procesamiento de datos y resolver problemas complejos a una velocidad mucho mayor que las computadoras clásicas.

2023: La inteligencia artificial se hace famosa gracias a ChatGPT y Dalle2. Aparecen términos como «Prompt Engineering» que hacen que muchos usuarios quieran experimentar con estas nuevas herramientas. Además Bing lo incluye en su buscador con sobrenombre «Bing Search o Sidney», Google hace un intento llamado Bard y le sale el tiro por la culata.

DESCÁRGATE LA INFOGRAFÍA AQUÍ (HAZ CLIC EN LA IMAGEN)

infografia sobre la historia de los ordenadores

 

2 comentarios en «HISTORIA DE LOS ORDENADORES»

Los comentarios están cerrados.