Tiempo de lectura: 5 minutos

Hoy en día el término Inteligencia Artificial está en boca de todos, ya que ha llegado a convertirse en una de las mayores revoluciones del sector tecnológico, pero no todo el mundo comprende su funcionalidad y la importancia de la misma.

Yoshua Bengio dijo: “Tras años de decepciones, la inteligencia artificial está empezando a cumplir lo que prometía en sus comienzos gracias a la potente técnica del Deep Learning” (más información en este artículo). Poco a poco se está avanzando en las técnicas de desarrollo de algoritmos, consiguiendo así impulsar de manera singular la investigación en IA pero, ¿dónde está el límite?¿puede la inteligencia artificial sustituir a la consciencia humana?

En resumen… ¿dónde están los límites éticos de la Inteligencia Artificial?
Actualmente existen muchos debates abiertos enfocados en los diversos campos a los que pueden aplicarse la IA, pero en este artículo abordaré la temática de un modo más general.

Contexto

A lo largo de la historia muchos avances tecnológicos, como la energía nuclear o la creación de plásticos, han suscitado discusiones éticas y políticas. Esta situación también tiene lugar en el caso de la Inteligencia Artificial y la tecnología relacionada con los robots.

Y es que no tiene por qué resultar obvio cómo plasmar los conocimientos necesarios para tomar una buena decisión en un determinado código. Un ratón, por ejemplo, posee un conocimiento genético de supervivencia que le permiten saber dónde olisquear, hallar comida o pareja y evitar los depredadores. Ningún programador sería capaz de especificar un conjunto detallado de instrucciones para reproducir, paso a paso, dicho comportamiento. Sin embargo, tales conocimientos se encuentran codificados de alguna manera en el cerebro del roedor.
Antes de crear sistemas autodidactas, los programadores debían aclarar una cuestión fundamental: ¿cómo adquirimos conocimientos los seres humanos? Y, aún más importante, ¿cómo tomamos las decisiones éticamente correctas?

IA y robots

Mientras que la IA puede ser completamente software, los robots son entidades físicas. Por ello, pueden sufrir impactos físicos, normalmente percibidos a través de sensores, y también ejercer esa clase de fuerza o impacto en otros objetos. Existen robots que no dependen de la Inteligencia Artificial, pero muchos otros sí, y por ello es importante poder garantizar que dicho dispositivo actuará en siempre beneficio del ser humano.

¿Cómo evitar resultados imprevistos?

Transparencia Algorítmica

Uno de los principales problemas que se presentan a la hora de comprobar la transparencia de los sistemas de Inteligencia Artificial es el conocido como: dilema de la caja negra, en el cual es imposible saber qué camino ha tomado el modelo IA para proporcionar una determinada solución.
En estos casos es importante que el programador sea capaz de identificar qué variables tuvieron mayor peso a la hora de tomar las decisiones. Es su deber conocer los sesgos existentes en todos los datos utilizados para entrenar el algoritmo.

Medidas de control

Es muy importante ser capaces de controlar los posibles sesgos generados por la propia Inteligencia Artificial. Por ello, es necesario ser capaces de identificar los sesgos que se pueden producir y, posteriormente, barajar diversas medidas para cuantificar el impacto del mismo. Esto se debe a que, una vez identificados, es posible incorporar en el propio modelo los mecanismos necesarios para corregir los resultados incorrectos.

“La ética debe estar presente, no sólo en las respuestas, sino también en las preguntas que hacemos”

BBVA Data & Analytics

La decisión final

Una vez que sabemos que medidas se pueden adoptar para evitar futuros errores en la IA nos tenemos que preguntar, ¿dónde está el límite?¿quién decide cuál es el sesgo adecuado?
Pues en este caso dependerá del sesgo que se esté utilizando, por ejemplo, para los casos de discriminación por creencia, género, orientación sexual… suelen estar definidos al más alto nivel, ya que en caso de error se puede llegar a ofender a una parte de la población (como le pasó a Google en un pasado).

En otros casos, el sesgo puede no estar tan claro, por lo que la clave fundamental se encuentra en la ética, que debe estar presente no solo en las respuestas, sino también en las preguntas que se plantean a los datos.

“Es nuestro deber conocer los sesgos existentes en los datos de entrenamiento, controlarlos y mitigarlos, y no utilizar la inteligencia artificial para ampliar brechas preexistentes”

Roberto Maestre

Por lo tanto, podemos concluir que, por mucho que hayamos avanzado en el mundo de la IA todavía no pueden sustituir a la conciencia humana, siendo por lo tanto los programadores quiénes establezcan el baremo de actuación de su propia invención.


Autora

María Caseiro Arias
Matemáticas e Ing.Informática – Santiago de Compostela

Bibliografía

María Caseiro Arias
Coordinadora de desarrollo y diseño web , Quantum Society

Estudiante de 4º de Matemáticas e Ingeniería Informática en la Universidad de Santiago de Compostela.

Puntuación
Votos: 2 Promedio: 5
Log in or Register to save this content for later.

Sin respuestas todavía

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *