Tiempo de lectura: 5 minutos

Introducción

El campo de la Inteligencia Artificial tiene casi tantos años de historia como la informática moderna. En 1943 se creaba el primer modelo que trataba de simular las neuronas humanas. Entre 1950 y 1960 ya se utilizaba el término “Inteligencia Artificial”. Y una década después ya se habían creado el primer chatbot, ELIZA, en el MIT y el modelo Perceptrón, base de muchas de las técnicas actuales de Deep Learning. Entonces, ¿por qué han tardado tanto las redes neuronales y el Deep Learning en convertirse en la gran esperanza del campo? ¿Más aún, de dónde viene el “Deep” en Deep Learning? Eso y el porqué del auge de las redes neuronales, es justo lo que pretende tratar este artículo. Para detalles sobre el funcionamiento de las redes neuronales podéis dirigiros a este artículo. Y si queréis una introducción práctica, os recomiendo empezar por esta saga.

chatbot

La historia de los orígenes del Deep Learning parece tener un avance vertiginoso. Sin embargo, pronto se encuentra ante dos grandes problemas que ponen este avance en punto muerto hasta los últimos años. Por un lado, existe un gran desconocimiento, desde el punto de vista teórico, de las propiedades de las redes neuronales. Por otro, y como mayor de ambos problemas, hay una barrera infranqueable para los investigadores del campo: las limitaciones de la capacidad de computación.

Las limitaciones teóricas

No fue hasta finales de los años 80 cuando se demostró la propiedad fundamental que verifican las redes neuronales: el Teorema de Aproximación Universal. ¿Y qué es lo que dice este resultado? Esencialmente, asegura que cualquier función continua que existe se puede aproximar mediante una red neuronal de suficiente tamaño. Y estas funciones pueden utilizarse para modelizar una enorme cantidad de procesos, abriendo todo un abanico de posibilidades para aplicar las redes neuronales al mundo real. Este resultado es la base del porqué de las redes neuronales y su importancia en el mundo de la Inteligencia Artificial.

aproximación universal redes neuronales

Ahora ya podemos responder a la segunda pregunta planteada al principio del artículo, ¿de dónde viene el “Deep” en Deep Learning? La cuestión es que las redes neuronales pueden tener múltiples capas y el resultado que hemos mencionado nos asegura que solamente una es necesaria para hacer la aproximación. Pero es posible (y en la práctica es así) que eso requiera una gran cantidad de neuronas en esa capa. Sin embargo, añadir nuevas capas aumenta la capacidad de la red para adaptarse a los datos que recibe, y, por tanto, para aproximar la función deseada. Esto incluso cuando cada capa tiene una cantidad de neuronas relativamente pequeña. Así, las redes con más capas (profundas o “deep”) son más compactas y siguen permitiendo hacer las aproximaciones con la exactitud necesaria.

Las limitaciones computacionales

Lo segundo es lo que marcó todo el periodo entre este descubrimiento y el boom en el uso de las técnicas de Deep Learning. La capacidad de computación de nuestros dispositivos ha crecido enormemente desde la década de 1990. Y es por eso que los resultados obtenidos por las máquinas al realizar tareas complejas no han dejado de mejorar desde entonces, buscando siempre el ambicioso objetivo de superar el nivel de rendimiento humano. El porqué de las redes neuronales pasa, en primer lugar, por el hecho de ser capaces de ponerlas en práctica.

Ley de Moore

Además, en los últimos años ha habido un creciente apoyo e interés por parte de la de la industria en el campo, así como una fuerte democratización. Esto se debe a la creación de suites como PyTorch o TensorFlow, que permiten crear modelos avanzados en unas pocas líneas de código. Gracias a este apoyo, algunos de los modelos desarrollados por los investigadores han sido capaces de sobrepasar el nivel humano en varias tareas especializadas. Podemos destacar los resultados del reto de detección de objetos de ImageNet o la creación de AlphaStar y AlphaGo por parte de Google entre muchos otros.

La actualidad y el futuro

A pesar de los avances del Deep Learning y otros campos de la Inteligencia Artificial, los métodos actuales tienen muchas limitaciones. Problemas de rendimiento cuando los datos tienen muchas dimensiones, baja capacidad de abstracción… El estado de la inteligencia artificial en la actualidad es muy prometedor, pero aún queda mucho recorrido y muchas más novedades. Quién sabe, quizá un día podamos llegar a ver una verdadera inteligencia artificial en acción.

Puntuación
Votos: 8 Promedio: 4.9
+ posts

Sin respuestas todavía

Deja una respuesta

Tu dirección de correo electrónico no será publicada.