Tiempo de lectura: 5 minutos

#1 Redes Neuronales

Una vez aclimatados en el extenso mundo de las redes neuronales, comenzamos una serie de posts en los que se tratará de analizar con un poco más de detalle los algoritmos, fundamentos y aplicaciones de esta tecnología.

Pero antes de comenzar con fórmulas, conceptos, teoremas y parafrasear a grandes genios, vamos a detenernos. Sí, hablo en primera persona, tú y yo. De hecho, imagina que estamos uno enfrente del otro y decidimos intercambiarnos los papeles. Ahora serás tú (amable lector que espero no estar asustando), el que me explique lo que ya sabe sobre las redes neuronales. Lo más probable es que sepas exponer con todo detalle el pasado artículo, pero quizás mientras comienzas a explicarlo te sientas confuso, ¿porqué era necesarios el parámetro de bias?, ¿ pero por qué es una suma ponderada y no otra operación lo que hace la neurona? Menudo caos. Y es que cuando tratamos de entender cualquier realidad es muy complejo al principio, resulta laberíntico comprender el “todo” en su conjunto y darle una explicación.

Acabamos reduciendo todo ese caos a una probabilidad, más útil para la comprensión del conjunto en su unidad, discerniendo el conocimiento útil del simple ruido. La probabilidad es la herramienta perfecta para resumir nuestra incertidumbre sobre un tema, permitiéndonos reducir toda esa variabilidad de la realidad a su mínima expresión. Con todo ello se presenta como uno de los pilares fundamentales sobre los que cimentar los modelos reales, donde el resultado es una probabilidad de que suceda un acontecimiento.

Una vez hemos sido capaces de generar esa historia denominada concepto, los humanos podemos razonar, entender y generar nuevas ideas. Pero, ¿pueden hacer esto mismo las máquinas? En todo ese proceso es necesario entender la importancia de tres puntos claves, que aunque no lo creamos, manejamos a la perfección.

Primero, los datos. Como se comentaba en el anterior artículo, los datos son el nuevo petróleo de nuestra era. Es a partir de ellos de donde podemos estudiar los fenómenos o relacionar hechos. Con tal de añadir un poco más de rigor al artículo y un poco más de conocimiento a nuestros cerebros, es interesante conocer qué tipos de modelos existen. Por un lado tenemos los modelos heurísiticos, que tratan directamente de dar una explicación fundamentada sobre las causas o mecanismos que dan lugar a los fenómenos estudiados, y por otro lado los modelos empíricos. Esta última denominación proviene del griego empeirikos, que significa relativo a la experiencia, y trata de analizar los resultados de los experimentos sobre el fenómeno.

Sintetizándolo mucho, unos buscan la causa y otros los resultados de interactuar con el fenómeno. Como ya se comentará en posteriores artículos, los datos que modelan nuestra realidad no pueden ser reducidos a un par de dimensiones. Es decir, no podemos llegar a la luna tan solo modelando la posición del cohete con una coordenada cartesiana. La realidad es por tanto multidimensional y con ello compleja de visualizar, pero es aquí donde nuestras amigas las matemáticas acuden al rescate.

Una posible interpretación de datos multidimensionales

Otro concepto a tener muy en cuenta son los parámetros. Estos nos permiten, mediante sus variaciones, ajustar de la mejor forma el modelo a la realidad, es decir, a los datos. De nuevo, si acudimos al ejemplo más simple de la neurona del artículo anterior, tenemos entre otros el parámetro de bias. Si a partir de unas notas dadas se sabe, a priori , que el resultado es aprobado, en la fase de entrenamiento de nuestra neurona se deberá asegurar que el resultado de la suma sea mayor que 5. Por tanto el parámetro será reajustado para que el resultado sea el que se asemeje a la realidad. Simple, ¿no?

Por último pero no más importante, el error. La tarea principal de todo proceso automático es optimizar los parámetros a partir de los datos para minimizar el error. Éste puede venir definido en múltiples denominaciones, tantas como sea eficiente para mejorar el modelo y que se parezca más a la realidad. De hecho este es uno de los campos de estudio del machine learning, la definición y optimización de las funciones de error . Pero de todos ellos podemos sacar la misma conclusión, si se reduce el error se está mejorando la red, aprende por tanto de la experiencia. Por ende se podría hacer una analogía con un deportista, en cuya fase de entrenamiento optimiza sus variables corporales en función de los resultados deseados, con la finalidad de ser eficiente en las competiciones.

Hasta aquí los conceptos fundamentales que nos permitirán analizar con rigor todos los algoritmos de machine learning que veremos en las próximas semanas. Espero haber despertado vuestra curiosidad…

AUTOR

Sergio Morell Ortega
Estudiante de Ingeniería de Telecomunicaciones
Valencia

Sergio Morell
Lo sentimos, de momento el autor de este post ha decidido no compartir información personal.
Puntuación
Votos: 5 Promedio: 5
Log in or Register to save this content for later.

Una respuesta

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *