Ciencia

Evolución del ordenador I

La semana pasada nos quedamos en el momento de la historia en que el ordenador surgía con nombre propio. En estas dos semanas hemos visto cuales fueron las motivaciones del hombre que le llevaron a crear dicho ingenio. Entre esta semana y la próxima trataré de mostrar que avances y, sobre todo, motivaciones han influido y permitido hacer evolucionar el ordenador desde esas enormes máquinas que ocupaban lo mismo que una casa hasta los pequeños ordenadores de bolsillo que utilizamos hoy en día.

No voy a explayarme en el tema de las generaciones, pues algunos ya no se ponen de acuerdo sobre si estamos aún en la cuarta generación o en la quinta o incluso algunos hablan ya de la sexta. Lo que si está claro es que con cada pequeño avance tecnológico, el ordenador se ha convertido cada día en un aparato más pequeño y más potente. Podemos decir sin ningún género de dudas que el tamaño de un ordenador a nivel evolutivo es inversamente proporcional a su volumen de almacenamiento y potencia de trabajo.

Son muchos y muy variados los avances y motivos que han permitido un milagro semejante, y bien digo milagro, pues si nos remontásemos solo un siglo atrás y contásemos que en un ordenador de bolsillo actual caben y se procesan más datos, y con más exactitud, que en cualquiera de las máquinas destinadas a tareas similares de la época nos tomarían por ilusos, locos o rematadamente idiotas. Veamos pues que nos ha permitido llegar a donde estamos hoy.

Retrocedamos pues un poquito en el tiempo antes de que surgiera el primer ordenador como tal, concretamente hasta 1906. En ese año Alexander Lee De Forest (EEUU, 1873-1961) inventó el primer tubo de vacío. Este invento al que se denominó “Audion” consistía en una bombilla de vidrio evacuada que contenía tres elementos capaces de detectar y amplificar señales de radio. Estos tubos o válvulas son los que se utilizaron en los primeros ordenadores y sus precursores, de los que ya hablamos la semana pasada.

Pasó más de una década y en 1919 William Henry Eccles (Gran Bretaña, 1875-1966) y Frank Wilfred Jordan (Gran Bretaña) desarrollaron el “Flip-Flop” un sistema que permitía diseñar circuitos de estado estable binario, proporcionando una representación numérica de 0 en uno de los estados y de 1 en el otro estado. Así nació la base del proceso del bit binario, en la que se basan todos los ordenadores hasta la fecha.

Sin embargo, este significativo avance no tendría fruto hasta 1951 con el EDVAC (Electronic Discrete Variable Automatic Computer), el primer equipo que operaba por el sistema binario y no por el decimal. Además, este fue el primer equipo que contuvo el primer programa ideado para ser almacenado. Debido a estos dos motivos se convertiría en el referente para la definición del estándar de arquitectura de los ordenadores modernos.

Pero ya tras la aparición del ENIAC, los laboratorios Bell en 1947 desarrollan el transistor. Los responsables del proyecto que obtienen el Nobel de Física en el año 1956 por el mismo son John Bardeen (EEUU, 1908-1991), galardonado también con el Nobel de física en el año 1972, Walter Houser Brattain (EEUU, 1902-1987) y William Bradford Shockley (EEUU, 1910-1989). Además en 1949 aparerá la primera “Memoria” de ordenador diseñada por Jay Wright Forrester (EEUU, n. 1918), medalla de honor por el Instituto de Ingenieros Electricos y Electrónicos en 1972. Aunque todavía no será una memoria magnética, pero si bastante más precisa que las válvulas de vacío. Estos dos inventos pasarán más adelante a sustituir a la válvula de vacío como parte integral del sistema de transmisión y ejecución del proceso de datos en los nuevos ordenadores y como consecuencia de ello, reducirán considerablemente su tamaño.

Entonces llegaría 1953 e IBM lanzaría el primer ordenador industrial, el IBM 650. En ese mismo año se desarrollaron las primeras memorias magnéticas. Los ordenadores que se fabricaban por entonces todavía funcionaban con válvulas de vacío, pero cinco años más tarde, en 1958, Jack St. Clair Kilby (EEUU, 1923-2005) lograría construir el primer circuito integrado transistorizado que permitiría de una vez por todas sustituir a las válvulas de vacío y dejarlas obsoletas. En el año 2000 fue galardonado con el Nobel de Física

Hasta esa fecha toda la información que se obtenía, ya fuese gracias a una pantalla o a una impresora, era textual y las interfaces dejaban mucho que desear. Cubiertas las necesidades de tener una máquina que permitiese organizar información y realizar cálculos y que ya no ocupase una casa entera surgieron otras necesidades. Por supuesto que el tamaño seguía siendo un problema, algunas máquinas ocupaban salas enteras, pero el uso del ordenador podía extenderse a otras actividades, por ejemplo, el diseño. Algunas de las áreas de actividad que más uso daban a los ordenadores pertenecían el sector de la información. Prensa y publicidad requerían ordenadores para sus tareas de gestión y almacenamiento de datos, pero no podían aplicar esta tecnología a aquello que más falta les hacía: la maquetación y el diseño. Los programadores podían diseñar interfaces gráficas para los ordenadores, pero no existían programas que permitiesen diseñar gráficos o maquetar textos de una forma definida por el usuario.

Ese mismo problema también existía a nivel de ingeniería, ya que la elaboración de gráficos por ordenador resultaba muy ardua. En 1962, Iván Edward Sutherland (EEUU, n. 1935) desarrolló en el MIT (Instituto Tecnológico de Massachusetts) el primer programa que permitía diseñar gráficos por ordenador. La carrera de este ingeniero desde ese momento ha sido de lo más prolífica, ya que ha trabajado en diversos tipos de proyectos entre otros para la NASA o para el ministerio de Defensa de EEUU, llegando a convertirse en Vicepresidente de Sun Microsystems en 1990. Sin embargo, aunque su intención era desarrollar interfaces gráficas amigables y gráficos para el desarrollo de proyectos de ingeniería,  su desarrollo influyó también en otro tipo de tareas: el desarrollo de juegos. Ese mismo año, Steve Russell, estudiante del MIT, junto con otros dos estudiantes, Martin Graetz y Wayne Wiitanen, desarrollo el primer videojuego “SpaceWar!” Russell, con el tiempo, acabaría trabajando para una compañía que más tarde se conocería como ATARI y que todos recordamos como la compañía que nos enganchó la maravilloso mundo del PAC-MAN o también conocido como “Come Cocos”.

Si se creaban nuevas necesidades y no se solventaban los problemas de tamaño, el ordenador no sería comercialmente rentable, ya que solo las empresas más grandes se lo podía permitir y realizar juegos no tenía sentido sino había una venta al por menor destinada al público en general. En 1964 IBM dará con la solución. Remplazará los circuitos impresos con múltiples elementos básicos por placas de circuitos integrados incrustados en un derivado del silicio conocido como silicona. El IBM 360 ya no utilizaba circuitos basados en transistores sino que había nacido el microchip.

Los avances que durante esos últimos años se habían realizado en la mejora y optimización de las memorias magnéticas unido al nuevo sistema de circuitos de microchip reducían el tamaño, pero no lo suficiente. El otro problema seguía siendo el sistema de almacenamiento. De nuevo IBM vino al rescate. En 1967 los equipos IBM comenzaron a sustituir sus tarjetas perforadas y los gigantescos carretes de cinta magnética por el nuevo y cómodo disco magnético de 8 pulgadas. Casi tan práctico en tamaño como una tarjeta, comparable en capacidad a los carretes de cintas y con la comodidad de reescritura de estas últimas.

Y llegaron los 70… en 1971 Intel presenta el primer microprocesador en microchip. Y en 1975 aparece el primer ordenador personal de un tamaño aceptable para el usuario particular, el Altair 8800.

A partir de aquí la base de la evolución del ordenador es la misma, una CPU (Unidad central de proceso de datos) cuyo corazón que la hace funcionar es el “microprocesador”, una memoria para manejar los programas conocida como RAM (Memoria de acceso directo) y otra para guardar la información (discos, ya sean flexibles o duros). Han sido más bien los avances en física y química los que más han contribuido en mayor medida a reducir los tamaños y los costes de los aparatos. Uno de los principales es el uso de polímetros y silicatos en vez de determinados metales como ya se ha podido comprobar.

Pero quedaban cosas pendientes. El ordenador ya estaba en las casas y en las oficinas. Pero no era práctico su traslado de un lugar a otro. Empresas como Apple se centraron en dar usabilidad al aparato, interactuación intuitiva creando software con interfaces gráficas, algo que ya había intentado Sutherland en el MIT, pero que no cuajaría hasta los años 80 con la revolución del ordenador personal. Concretamente 1984, cuando Xerox idease la interfaz gráfica para el primer MacOS incluido en el Macintosh 128 K.  Con el ratón hemos topado.

Aunque el primer ratón fuera creado en 1964 por Douglass C. Engelbart (EEUU, n. 1925) fue en este momento cuando empezó a cobrar verdadera importancia. Todas las compañías de la época se pusieron manos a la obra, para competir con la idea y surgieron varias como la X-windows para Unix, o el primer Windows de Microsoft.

Los ordenadores ya eran de un tamaño aceptable, ya eran intuitivos, ya permitían realizar labores de diseño, edición y maquetación además de labores de gestión. Servían para entretenernos. Pero eran caros. Los equipos más asequibles apenas si servían para jugar y aprender a programar en Basic o Logo (Spectrum, Commodere y Amstrad). Algunos abarataban su coste compatibilizando su uso con el de la pantalla de televisión no siendo necesaria la compra de una pantalla adicional (Spectrum y Commodore). Pero los profesionales no podían hacer gran cosa con estos equipos y para una familia de clase media-baja resultaban todavía excesivos e innecesarios.

En 1986 Compaq lanzó su segundo PC Compatible. Además de ser más rápido y tener más capacidad de sus competidores más cercanos como el IBM PC/AT, resultaba un 30% más económico. Un año más tarde la misma Compaq lanzaría el primer 386 de Intel a 32bits. Empezaba el llamada “Era de los Clones” en la que los aficionados y profesionales informáticos comenzaban a comprar los componentes por separado para montar sus equipos de forma similar a los de las marcas comerciales y así abaratar el coste final de su máquina.

A partir de ahí todas las mejoras fueron encaminadas a la usabilidad y al abaratamiento de costes del producto. Ambos caminos eran esenciales para lograr una masificación del uso del ordenador. Pero con una mayor venta nacía un mayor uso y con este mayor uso una creciente necesidad: el ordenador portátil.

Todos los ordenadores requerían de dos periféricos esenciales, pantalla y teclado, y uno opcional, el ratón. De la evolución de cada uno de ellos ya hablaremos en otra ocasión. En cualquier caso, un ordenador portátil requeriría poder concentrar al menos ordenador, pantalla  y teclado en una sola máquina. La primera necesidad surgió como consecuencia de la progresiva sustitución de la máquina de escribir por los ordenadores con procesadores de texto, mucho más prácticos ya que permitían reescribir los textos y editarlos con mayor facilidad. Las máquinas de escribir eran portátiles, los periodistas las llevaban consigo para escribir las noticias “in-situ”. Cuando los medios de comunicación se volvieron más y más agresivos a la hora de ser los primeros en comunicar una noticia el uso del ordenador empezó a facilitar su trabajo a los redactores de oficina, pero no se lo facilitaba tanto a los cronistas. Además, otro tipo de profesionales como diseñadores, arquitectos o los propios informáticos veían que cada día dependían más del uso del ordenador para trabajar y sus ideas no siempre podían plasmarlas en uno si no lo tenían a mano cuando estas surgieran. Podía pasar en cualquier momento y en cualquier lugar. Estaba claro que sacar a la venta el primer portátil resultaría rentable para cualquier empresa que lo consiguiese, hasta el año 1986 se habían producido varios intentos sin éxito, aunque en ese mismo año cambiarían las tornas. Pero de eso y otras cosas hablaremos la próxima semana.

Bibliografía:

Morales Pascual, Jose Luis y Martínez Trevín, Carlos Antonio. “Historia del cálculo” Programación de ordenadores. Estructura básica del proceso de datos 1. Editorial Tesys, Barcelona, 1987, pags 28-33.

AA.VV. Wikipedia. http://es.wikipedia.org/wiki/Lee_De_Forest (18/02/2010)

AA.VV. Wikipedia. http://en.wikipedia.org/wiki/William_Eccles (18/02/2010)

AA.VV. Wikipedia. http://es.wikipedia.org/wiki/EDVAC (18/02/2010)

AA.VV. Wikipedia. http://es.wikipedia.org/wiki/John_Bardeen (18/02/2010)

AA.VV. Wikipedia. http://en.wikipedia.org/wiki/Walter_Houser_Brattain (18/02/2010)

AA.VV. Wikipedia. http://es.wikipedia.org/wiki/William_Bradford_Shockley (18/02/2010)

AA.VV. Wikipedia. http://es.wikipedia.org/wiki/Jay_Forrester (18/02/2010)

AA.VV. Wikipedia. http://es.wikipedia.org/wiki/Jack_S._Kilby (18/02/2010)

AA.VV. Wikipedia. http://es.wikipedia.org/wiki/Ivan_Sutherland (18/02/2010)

AA.VV. Wikipedia. http://es.wikipedia.org/wiki/Douglas_Engelbart (18/02/2010)

Bellis, Mary. “Spacewar! : The first computer game invented by Steve Russell” Inventors of the Modern Computer. http://inventors.about.com/library/weekly/aa090198.htm (18/02/2010)

Sobre el autor

Jordi Sierra Marquez

Jordi Sierra Marquez

Comunicador y periodista 2.0 - Experto en #MarketingDigital y #MarcaPersonal / Licenciado en periodismo por la UCM y con un master en comunicación multimedia.

Dejar un comentario