Tiempo de lectura: 8 minutos

En la primera parte de esta serie recorrimos dos ejemplos de proto-computadoras que de manera rudimentaria podían realizar cálculos complejos y predicciones científicas. Hasta ese momento, los avances en el sueño de una máquina de calcular tenía sus limitaciones. Sin embargo, los sucesos de los siglos XIX y XX aceleraron el andar en la historia de la computación, desarrollando poderosas mejoras.

Entre las obras del brillante Gabito (Premio Nobel de Literatura en 1982) encontramos la narración de un joven perseguido por todo un pueblo. Desde el inicio del libro conocemos el desdichado destino del muchacho, su muerte es un hecho en manos de los hermanos de una joven avergonzada. Algo así fue lo que sucedió a principios del siglo XX en la historia mundial. Por aquellos años se dice que la sociedad en general vaticinaba una inminente gran guerra. Y dicha guerra llegó pero, al estilo de esas series que terminan con un final abierto, le siguió una segunda temporada con peor trama.

La necesidad es la madre de la inventiva

Los premios Nobel, polémicos galardones tan amados y odiados dentro de las esferas científicas. ¿Sabías que Alfred Nobel patentó la dinamita? Exacto, fue el inventor de aquel dispositivo que revolucionaría la industria bélica. Sin embargo, su objetivo era que la nitroglicerina fuera mas segura para transportar dentro de las minas. No se imaginaba que fuera a ser utilizada con fines tan poco pacíficos, y peor aún para acabar con miles de vidas. O quizás si lo sabía, ya que su familia poseía fabricas de armamento, y gran parte de su investigación se especializó en el rubro.

En su testamento dejó sus ganancias destinadas “premios a quienes, durante el año anterior, hayan conferido el mayor beneficio a la humanidad”. ¿Limpieza de conciencia? Eso es algo que nunca sabremos, pero Albert Einstein (quién fue galardonado con un premio) no dudó en afirmarlo en un discurso de 1945.

«Lo trágico de la guerra es que echa mano de lo mejor del hombre para emplearlo en la peor de las obras humanas: destruir»

Ralph Waldo Emerson

A este punto se estarán preguntando que tiene que ver Nobel, García Márquez y las computadoras. Bueno si, al Gabo quizás lo agregué por la analogía literaria. Pero, de manera similar a la dinamita de Nobel, el cálculo computacional tuvo su apogeo en niveles militares. En la primera mitad del siglo XX, la carrera la carrera bélica buscó poder predecir movimientos enemigo, calcular trayectorias de proyectiles o descifrar comunicaciones. Como diría Emerson, se echó mano a lo mejor del ser humano, su inteligencia. Esto llevó a aplicar poderosas mejoras a las maquinas de calcular y la historia de la computación dio grandes saltos.

historia de la computación
Ada Lovelace marcó tendencia y la informática fue un espacio de desarrollo personal para muchas mujeres de la época. Las chicas Betchley fueron un gran ejemplo de ello
100 años de Cálculo diferencial

Muchas fueron las computadoras que se desarrollaron luego de las contribuciones de Lovelace y Babbage. El sistema de tarjetas perforadas era una novedad que se podía aplicar a muchos casos y ademas ya no solo se resolvían cálculos individuales. A finales del siglo XIX, James y William Thomson, desarrollaron un analizador de discos y bolas que integraba ecuaciones diferenciales de primer orden. Sin entrar al intrincado mundo del cálculo diferencial, este permite realizar predicciones resolviendo por integración las funciones que describan a los fenómenos estudiados. La resolución de estas ecuaciones era lograda mediante múltiples «cajas» que funcionaban en paralelo y resolvían operaciones matemáticas específicas (suma, resta, multiplicación, etc).

En este punto, la principal dificultad que presentaban las computadoras era el tiempo que requerían para realizar operaciones y conectar los resultados de cada caja. Los sistemas mecánicos de cálculo estaban quedando obsoletos para hallar solución a los complejos sistemas de ecuaciones. Vannevar Bush desarrollaría la mejor versión de estas computadoras con su Analizador diferencial multipropósitos. Pero fue uno de sus estudiantes, Claude Shannon, quien revolucionó con sus aportes la historia de la computación. En su tesis de maestría, Shannon integró el algebra booleana (desarrollada hacía casi 100 años por George Boole) y circuitos eléctricos. De este modo, incluyó relés y conmutadores eléctricos en los mecanismos de cálculo y aceleró los tiempos de comunicación entre las subunidades con canales lógicos. Al incluir la aritmética binaria, Shannon había simplificado la complejidad mecánica de los cálculos, y esto lo hizo acreedor de un premio Nobel en 1939.

Un pequeño paso para el hombre, un gran salto para la humanidad

Antes de que Neil Armstrong pusiera un pié sobre la Luna, se requirió de quizás muchos avances computacionales para lograr tan añorado hito. Y es que los aportes de Bush y Shannon fueron clave en la transición de las computadoras mecánicas a las digitales, pero no suficientes. Recordemos que la información tardaba años en viajar, si es que lo hacía ya que muchos proyectos de investigación se recelo bajo secreto militar.

Fuente: computerhistory.org

En los Estados Unidos, J.V. Atanasoff y a su estudiante, Clifford Berry, trabajaron en reemplazar los elementos mecánicos de cálculo. Discos, engranajes y varillas diero lugar a tubos de vacío que mediante pulsos eléctricos realizaba las operaciones matemáticas. Dato irrelevante en la historia, llamaron a su computadora la Atanasoff-Berry Computer (ABC), si si, re creativos.

Fuente: bbc.com

Del lado británico tendríamos a Colossus descifrando codigos de comunicación alemanes. Desarrollada por el equipo de criptoanálisis británico, gracias a los aportes de Alan Turing, aplicaba la misma tecnología que la ABC. Esta computadora de Bletchley Park se conoce como la primera computadora digital y funcional.

Fuente: computerhistory.org

En el Eje, mas específicamente en Berlín, Konrad Zuse se encontraba desarrollando una tecnología muy similar (en realidad la misma). Su investigación lo llevó a concretar diversos proyectos, siendo la Z3 su mejor versión, la cual también era una computadora digital y ademas programable. Lamentablemente fue destruida durante un bombardeo a la ciudad.

La post-guerra y otros demonios

La carrera en la historia de la computación se basó en adelantarse a los movimientos enemigos. Muchas computadoras sucedieron a los ejemplos anteriores, buscando siempre mejorar el tiempo de cálculo. ENIAC, UNIVAC, EDSAC, fueron evolucionando el conocimiento de la naciente informática. Todas ellas eran desarrolladas en universidades y requerían de habitaciones enteras para almacenar sus componentes. Su funcionamiento permitía calcular trayectorias balísticas, diseños ingenieriles y decodificación de mensajes. También, y como mencioné antes, sería un desarrollo clave en la carrera aeroespacial y la salida del ser humano de la atmósfera. Sería en la segunda mitad del siglo XX que la computación saldría de las esferas militares y pasaría a ser un fenómeno social. Sin embargo, su esencia continúa siendo al misma, mejorando los componentes que realizan todos los cálculos y el tiempo que emplea para los mismos.

Programar era (y es) un arte para lograr coordinar el funcionamiento de las subunidades de cálculo. Hoy en día los lenguajes de programación hacen el trabajo que antes realizaban personas.

Mas allá de todo, esta historia de Nobels (tanto el inventor como los premios) teñida con Gabriel Garcia Márquez no termina aquí. La popularización de las computadoras aceleró el desarrollo de las mismas y permitió que se vuelvan una poderosa herramienta. ¿Y cuándo volvemos a la ciencia? La respuesta es simple, nunca estuvimos fuera. Mientras mas potentes se vuelven, las computadoras permiten acceder a rincones inaccesibles de la ciencia. Modelados moleculares, predicciones de fenómenos cuánticos y evaluaciones genómicas son algunos ejemplos de estudios que la informática ha permitido alcanzar. En la próxima (y ultima) parte de esta serie veremos algunos ejemplos de estos avances científicos que forman parte en la historia de la computación

Bibliografía consultada
[1] Tägil S. (1998). «Alfred Nobel’s Thoughts about War and Peace». NobelPrize.org. Nobel Prize Outreach AB 2022. https://www.nobelprize.org/alfred-nobel/alfred-nobels-thoughts-about-war-and-peace/

[2] Copeland, B.J. (2020). «The Modern History of Computing», The Stanford Encyclopedia of Philosophy. Zalta E.N. (ed.)

[3] James, I. (2009). «Claude Elwood Shannon 30 April 1916 — 24 February 2001». Biographical Memoirs of Fellows of the Royal Society 55: 257-265. doi:10.1098/rsbm.2009.0015.

[4] Williamson T. (2021). «History of computers: A brief timeline». Live Science.

Puntuación
Votos: 2 Promedio: 5
Joaquin Puchol
+ posts

Estudio Licenciatura en Química pero mis amigos dicen que soy biólogo frustrado. Me fascina como la físico-química impulsa todo lo que pasa en los seres vivos. Divulgar para mí es sacar a la ciencia de los papeles para que sea el impulso de cambio en la sociedad

#

Sin respuestas todavía

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *