El término Guerra Fría se utiliza para denominar el enfrentamiento entre EE.UU. y la antigua URSS tras finalizar la II Guerra Mundial, que se prolongó hasta la caída del muro de Berlín en 1989. Hay historiadores que sitúan el principio y final de este conflicto antes y después, aunque tal precisión no es relevante de cara al tema de este artículo.
La Guerra Fría se produjo en varios frentes, pero el origen común de la enemistad entre estas dos grandes potencias fue fruto de dos visiones distintas sobre los principios en que debía basarse el orden mundial: el concepto de libertad occidental, frente a la visión igualitaria del socialismo del Este de Europa.
Este enfrentamiento ideológico mantuvo al mundo en vilo durante más de cuatro décadas, con la amenaza constante de una guerra. En ambos bandos se potenció la industria militar y, sobre todo, el tratamiento de la información asociada a un hipotético enfrentamiento armado. La informática tal y como la conocemos hoy es consecuencia de esa carrera por anticiparse al enemigo.
Antecedentes históricos de las máquinas de cálculo
El cálculo y su problemática han preocupado a la Humanidad desde el principio de los tiempos. Se atribuye a la cultura mesopotámica el invento del ábaco, 2000 años a. C. El origen del algoritmo se sitúa en la Edad Media, hacia el Siglo VIII.
Imagen | Wikipedia
Durante el Siglo XVII se produjeron grandes avances: invención del logaritmo (Napier), primera calculadora mecánica (Schickard), regla deslizante --uno de los primeros aparatos de la informática analógica-- (Oughtred), pascalina (Blaise Pascal) y la primera calculadora de propósito general (Leibniz).
Durante el Siglo XIX se fraguaron muchas ideas que han servido de base al cálculo moderno y sus máquinas. La tarjeta perforada fue utilizada por Jacquard en la industria textil. Charles Babbage, con su máquina analítica (que nunca llegó a construir), puso la primera piedra de la computación moderna. Lady Lovelace tuvo la ocurrencia de adaptar las tarjetas perforadas al motor de Babbage para repetir ciertas operaciones (y por ello es considerada la primera programadora), y George Boole, con su álgebra, sentó las bases de la teoría informática.
El corazón de la parte conceptual de la computación ya estaba definida, aunque faltaban todavía algunos elementos necesarios para llegar al ordenador moderno. A principios del Siglo XX llegaron algunos de ellos, como el tubo de vacío de Lee De Forest o el circuito biestable (flip-flop) de Eccles y Jordan, base del almacenamiento de la informática actual.
Imagen | Wikipedia
En 1939 estalló la Segunda Guerra Mundial. Alan Turing había descrito la máquina que lleva su nombre en 1936, el mismo año en el que Konrad Zuse terminó el Z1, primer computador electro-mecánico.
Durante el conflicto se desarrollaron los anteriores conceptos y aparecieron otras máquinas de cálculo, como el Z3, ABC (de Atanasoff y Berry), y el Mark I --y Mark II-- de Aiken. Algunos meses después de finalizar la guerra el ENIAC ya estaba en marcha.
Hasta aquí el progreso de la informática había sido lento, consecuencia de siglos de descubrimientos en varias áreas del conocimiento.
Universidades, centros de investigación (como los Laboratorios Bell), y empresas como Hewlett-Packard ya existían e investigaban tecnologías directamente relacionadas con la computación o paralelas.
Probablemente el camino de la informática hubiera sido similar al de otras disciplinas técnicas, pero la llegada de la Guerra Fría, y su utilización con fines militares, le brindó el empujón económico y la motivación necesaria para catapultar su desarrollo.
Imagen | Wikipedia
Los rusos tenían la bomba
Tras la Gran Guerra los que fueron aliados para combatir a Hitler, comenzaban a mirarse de reojo. Los primeros grandes ordenadores, como los citados Mark I y ENIAC, así como el Whirlwind, construido en el MIT (el primero en trabajar en tiempo real), se habían diseñado para realizar cálculos militares.
La señal de alarma para EE.UU. se encendió el día que los rusos detonaron su primera bomba atómica (22 de agosto de 1949). A partir de ese momento el miedo ante un posible ataque nuclear del enemigo se instauró.
Si EE.UU. quería proteger su territorio de un ataque con misiles, necesitaba una red de radares que transmitiera la información en tiempo real a través de líneas telefónicas convencionales, y la información que estos enviaban debía procesarse también en tiempo real.
La tarea se antojaba complicada, no existían máquinas que cubrieran tal necesidad. El radar era un invento relativamente nuevo, los ordenadores también (por entonces funcionaban con válvulas). Ambos sistemas nunca habían trabajado juntos. Era necesario un dispositivo de transmisión de datos que aún no estaba inventado (lo que después desembocaría en el módem). Se necesitaba un mecanismo para almacenamiento masivo de datos, y una pantalla que los mostrara... Todo un desafío que se concretó en el Proyecto Lincoln (1951), en el que intervinieron universidades y empresas privadas.
Imagen | Wikipedia
El MIT proporcionó el hardware con su Whirlwind I, una máquina diseñada inicialmente para simulación. Las comunicaciones corrieron a cargo del CRL (Cambridge Air Force Research Laboratory) y se creó el Lincoln Laboratory para aglutinar otros proyectos de investigación.
En esta primera etapa se empleaban 8K de memoria y sólo unos pocos miles de líneas de código, a todas luces insuficientes para atender las necesidades reales, pero el sistema fue creciendo a medida que resolvía problemas parciales.
Estos trabajos desembocaron en la puesta en funcionamiento de una estación experimental denominada Cape Cod (por su ubicación). Fue el primer sistema en utilizar el uso compartido en tiempo real en un ordenador (Whirlwind I), sistema de visualización CRT, lápiz óptico, interfaz gráfica de usuario en tiempo real (tal y como la conocemos hoy), y empleó el módem para transmitir datos por líneas telefónicas convencionales (aunque de uso exclusivo y alquiladas para la ocasión).
Imagen | Wikimedia Commons
A pesar de los problemas que supusieron los ecos de objetivos falsos, la baja calidad de la trasmisión de datos (funcionaba bien en la mitad de las ocasiones) y la baja velocidad de los aviones de hélice empleados para las pruebas, la estación Cape Cod fue capaz de emitir instrucciones para interceptar un objetivo con un error de sólo 1.000 metros; todo un logro para la época.
Whirlwind I fue un buen punto de partida, pero insuficiente para un entorno real más complejo. Nuevamente el MIT, esta vez junto a IBM, desarrolló la siguiente generación del Whirlwind, conocida como AN/FSQ 7 en versión de producción. Por su parte Bell perfeccionó el primitivo sistema de módem hasta conseguir que funcionara a 1.300 baudios en líneas telefónicas especialmente acondicionadas.
Proyecto SAGE
Cuando la fase de pruebas se dio por concluida, la puesta en funcionamiento de estaciones operativas corrió de la mano del Proyecto SAGE (Semi-Automatic Ground Environment). Cada sistema SAGE completo constaba de 24 equipos FSQ-7 , con un peso individual de 250 toneladas, y un consumo por unidad de 3.000 kilovatios. Estos monstruos, que funcionaban a 0,17 Mhz, se alojaron bajo tierra al ser en sí mismos un objetivo militar. Tales instalaciones inspiraron la película Juegos de Guerra.
Imagen | Wikipedia
Consecuencia directa de las estaciones SAGE fue el modo en que se resolvió el problema del almacenamiento de datos mediante tambores magnéticos, y la técnica de lectura y escritura independiente de memoria que hoy conocemos como DMA. La primera estación SAGE entró en funcionamiento en 1958, y alguna de ellas ha permanecido operativa hasta 1983.
Traducción automática
Otro de los “inventos” potenciados por la Guerra Fría fue la traducción automática. IBM presentó en 1952 el equipo más avanzado, flexible y veloz del mundo: el IBM 701, sobre el que se trabajó para que realizara traducciones. Dos años más tarde era capaz de procesar 250 palabras con seis reglas gramaticales.
Los documentos interceptados a los rusos sobre cualquier área científica o militar requerían traducción, siendo realizada ésta por personas especializadas (no sólo en el idioma del enemigo, sino en cada ámbito o disciplina concreta). El coste individual por traducción y la dificultad de encontrar especialistas suficientes potenciaron la necesidad de tener un mecanismo de traducción automática.
Imagen | IBM
Todos los intentos de hacer un sistema fiable fracasaron. En 1966 ALPAC (Automatic Language Processing Advisory Committee) publicó un informe sobre el estado del análisis y digitalización de documentos en ruso para el uso militar de EE.UU., tildando de fracaso los avances conseguidos en traducción automática.
Este revés hizo que se volviera a la traducción “manual” y se abandonara la linea de investigación, que no volvió a ser considerada hasta la década de los 80. Se perdió así la oportunidad de profundizar en un campo que ahora resulta casi imprescindible con el uso de Internet.
Internet
En Genbeta dedicamos hace tiempo un especial sobre la historia de Internet, por lo que no voy a entrar en detalles aquí. En aquel artículo se explicó que no es exactamente cierto que ARPANET, precursora de Internet, fuera una red pensada para sobrevivir a un ataque nuclear, pero sí nació en el seno de una organización consecuencia de la Guerra Fría. Por eso se menciona ahora, aunque sólo de forma testimonial. Todos los detalles los tenéis en el trabajo mencionado.
Simulación
Aunque líneas arriba se ha mencionado de pasada, el estudio de la simulación por ordenador tuvo gran importancia durante la Guerra Fría para resolver problemas de índole militar (trayectorias de misiles, satélites, etc.), además de su aplicación en campos como la simulación de vuelo para pilotos de la fuerza aérea.
Imagen | Wikipedia
Además de los trabajos realizados en el MIT, IBM destacó particularmente en esta disciplina durante la década de los 60, comercializando entonces, y para uso civil, el sistema GPSS (General Purpose System Simulator). Con fines inicialmente militares también se desarrolló un lenguaje de programación para simulación por ordenador, SIMSCRIPT.
Almacenamiento
Probablemente uno de los aspectos que más aceleró la Guerra Fría fueron los avances en sistemas de almacenamiento. No sólo era necesario almacenar, tratar y conservar de forma permanente los datos propios generados, sino también toda la documentación interceptada o intervenida al enemigo por distintos medios, incluido el espionaje.
Compañías como IBM se especializaron en las tarjetas perforadas durante la década de los 20 y los 30, que en aquella época cumplían su función. En 1937 IBM producía 10 millones de tarjetas perforadas por día (capacidad de almacenamiento equivalente de 670 MB). Hasta 1950 se empleó de forma mayoritaria este medio de almacenar información.
Imagen | Wikipedia
Las necesidades de almacenamiento militares y de la industria en general, promovieron la investigación en este campo durante a década de los 50. El UNISERVO de UNIVAC era capaz de leer datos de una cinta magnética de metal (aleación de cobre y niquel), con una velocidad de transferencia de 7.200 caracteres por segundo. IBM por su parte desarrolló un sistema de almacenamiento sobre cinta de plástico cubierta de material ferromagnético, que se introdujo en 1952 en la serie 700.
Los tambores magnéticos fueron los precursores de los actuales discos duros mecánicos. Al contrario que los dispositivos modernos, donde las cabezas son las que buscan información sobre la superficie del plato, el tambor disponía de cabezas fijas y la información era accesible cuando se enfrentaba con la cabeza. Estos tambores, que llegaron a girar a más de 12.000 revoluciones por minuto, se emplearon de forma principal hasta finales de los 50. Su capacidad permitía almacenar unos pocos miles de bytes.
Imagen | Wikipedia
La memoria de núcleo magnético fue la primera memoria de acceso no volátil (RAM). Aunque sus orígenes se remontan también a la década de los 50, no remplazó a los tambores magnéticos hasta los 60.
Mientras, la cinta magnética era la única forma de almacenar información de forma permanente, y era necesario concebir un dispositivo que actuara de intermediario entre la memoria volátil y la cinta magnética: así nació el disco duro, inventado por IBM.
El primer disco duro comercial fue capaz de almacenar 5 MB (unas 64.000 tarjetas perforadas), y constaba de 50 platos de 24 pulgadas, albergados en un cubo de 1,5 metros. Su velocidad de rotación, 1.200 rpm, le conferían un tiempo de acceso de un segundo aproximadamente.
Hasta 1961, y también por cortesía de IBM, no se comercializó el primer disco duro con cabezas móviles. La velocidad y tiempo de acceso han mejorado mucho con el paso del tiempo, pero el concepto es el mismo en la actualidad.
En cuanto a los discos flexibles, que todavía emplean algunos silos de misiles nucleares, no llegaron hasta la década de los 70 como un medio fiable y barato para guardar información. Los primeros tenían el respetable tamaño de 8 pulgadas, contaban con 80 kilobytes de capacidad, y eran de solo lectura.
Tras estos primeros monstruos, a principios de los 70 llegaron los discos de 5 ¼ y 3 ½. Se emplearon entonces y han perdurado hasta finales del siglo pasado. También durante la Guerra Fría, y prácticamente al final, aparecieron los discos ópticos que todavía empleamos.
Occidente innovó y el Este Copió
La Guerra Fría fue cosa de dos, pero hasta ahora sólo hemos hablado de un bando. ¿Qué pasó con los rusos? En pocas palabras, empezaron bien desarrollando su propia tecnología, y terminaron copiando mal la del enemigo. El resultado ya lo conocemos: EE.UU., lidera a nivel mundial el sector TIC y los restos de la antigua URSS van a remolque.
La URSS ha contado siempre con grandes científicos y torpes políticos. La gran figura rusa fue Sergei Lébedev, al que se ha considerado el Alan Tuning soviético. Lébedev comenzó a madurar la idea de construir una máquina automática de cálculo en 1948, y al año siguiente ya tenía completo el desarrollo.
Imagen | Wikimedia Commonds
Al contrario que en el campo rival, a finales de la década de los 40 en la URSS pensar mucho te podía costar la vida. El clima de desconfianza era enorme y Lébedev tuvo que formar un equipo casi en secreto para desarrollar la idea, no sin antes dejar claro que su máquina realizaría cálculos ideológicamente correctos.
Fruto del trabajo de los 12 diseñadores y 15 técnicos dirigidos por Lébedev nació, en el llamado Laboratorio Secreto Número Uno, el HSHAV, una maquina gigante que necesitaba de una estación eléctrica propia para alimentar una bestia que funcionaba a 3 KHz con un rendimiento algo lamentable.
Para la primera prueba Lébedev enfrento su máquina con dos matemáticos que tenían que resolver un problema. Los resultados hombre-máquina fueron distintos y Lebedev tuvo que demostrar que los dos científicos se habían equivocado cometiendo el mismo error.
Imagen | Wikipedia
A finales de 1951 el HSHAV entró en funcionamiento, convirtiéndose en la primera computadora digital del Bloque del Este. El proyecto que tuvo que nacer a escondidas, pronto se convirtió en el único centro de cálculo con la potencia necesaria para los intereses militares: desarrollo de otra generación de bombas termonucleares y cálculo de trayectorias de misiles intercontinentales.
Lébedev y su equipo trabajaron en el perfeccionamiento de la máquina original, que dio paso al BESM-1 (1953), la máquina de cálculo más potente de Europa de su tiempo. El BESM-1 era capaz de procesar números en coma flotante de 39 bits, empleaba cinta magnética como medio de almacenamiento principal, así como tambores magnéticos.
La impresión que siempre he tenido sobre la visión soviética de la Guerra Fría, y puede que me equivoque, es que los rusos no fueron tan paranoicos como los norteamericanos. Bien es cierto que la situación económica rusa estaba varios escalones por detrás de su rival, pero el interés en desarrollar máquinas de guerra, sin haber guerra, no fue ni mucho menos el de su enemigo.
Imagen | Wikipedia
Los trabajos de Lébedev continuaron hasta el desarrollo de BESM-6, a la par que otra iniciativa civil de menor potencia denominada Strela. El problema fue que el BESM-6 no fue una máquina original, sino una copia robada de un proyecto de IBM. En 1967 los servicios secretos rusos y los políticos de aquel país, estimaron que era más rentable robar tecnología al enemigo antes de desarrollar la propia.
Esto tuvo dos consecuencias: por un lado la CIA descubrió el pastel, endosando al enemigo secretos con trampa, y por otro que los rusos perdieron el tren de la tecnología, me atrevería a decir que casi para siempre. Tal vez el panorama actual de la informática fuera distinto de haber tenido los rusos una progresión tecnológica paralela, pero no fue así.
Nota: En el artículo sólo se ha mencionado un lenguaje de programación, SIMSCRIPT, quedando huérfanos de atención el resto. No cabe duda de que el desarrollo de los lenguajes de programación fue la otra parte responsable del crecimiento de la computación. Tampoco se han tratado los sistemas operativos. Este trabajo ya es bastante extenso y la historia de los lenguajes y los S.O. la dejamos para otro día.
Más información
- Science, technology, and the Cold War (David Reynolds).
- Mathematical Models, Rational Choice, and the Search for Cold War Culture (Paul Erickson)
- The Cold War origins of Google Translate
- Science in the Cold War: Gerovitch: Machine Mathematics & Soviet Computing (Social Studies of Science)
Imagen portada | Steve Jurvetson
Ver todos los comentarios en https://www.genbeta.com
VER 12 Comentarios