Conoce a ‘Norman’, una aterradora inteligencia artificial psicopática

Norman , la primera IA psicópata del mundo. Norman se inspiró en el hecho de que los datos utilizados para enseñar un algoritmo de aprendizaje automático pueden influir significativamente en su comportamiento. Entonces, cuando la gente dice que los algoritmos de AI pueden ser parciales e injustos, el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se le suministraron. El mismo método puede ver cosas muy diferentes en una imagen, incluso cosas “enfermas”, si se entrena en el conjunto de datos equivocado (¡o el correcto!). Norman sufrió una exposición prolongada a los rincones más oscuros de Reddit, y representa un estudio de caso sobre los peligros de la inteligencia artificial que salió mal cuando se utilizan datos sesgados en los algoritmos de aprendizaje automático. 

Cuando un algoritmo normal ve a un grupo de pájaros sobre un árbol, Norman ve a alguien electrocutarse.

Una imagen que un algoritmo no psicópata ve como un grupo de personas de pie junto a una ventana se ve como alguien que salta de la ventana por Norman.

El equipo del MIT creó a Norman como parte de un experimento para ver qué haría AI sobre los datos de los “rincones oscuros de la red” a su visión del mundo, informa la BBC .

Post relacionado  Google Assistant especial San Valentín

Entre las imágenes que se mostró el software se encontraban personas muriendo en circunstancias horribles, seleccionadas de un grupo en Reddit.

Después de eso, a la IA se le mostraron diferentes dibujos de manchas de tinta -típicamente utilizados por psicólogos para ayudar a evaluar el estado mental de un paciente- y le preguntaron qué veía en cada uno de ellos.

Cada vez, Norman vio cadáveres, sangre y destrucción.

La inteligencia artificial ya no es ciencia ficción. Se está utilizando en una amplia gama de industrias, incluso con dispositivos de asistente personal, filtrado de correo electrónico, funciones de búsqueda en línea y reconocimiento de voz / facial.

Los investigadores del MIT también entrenaron a otra IA con imágenes de gatos, pájaros y personas, lo que hizo una gran diferencia.

Vio imágenes más alegres en las mismas manchas abstractas de tinta.

Los investigadores dijeron que las oscuras respuestas de Norman ilustran la dura realidad del aprendizaje automático.

“Los datos son más importantes que el algoritmo”, le dijo a la BBC el profesor Iyad Rahwan, parte del equipo de tres personas del Media Lab del MIT que desarrolló Norman. “Resalta la idea de que los datos que utilizamos para entrenar a AI se reflejan en la forma en que la inteligencia artificial percibe el mundo y cómo se comporta”.

Post relacionado  ¿Y si la Inteligencia Artificial te salvara la vida?

Si se puede alimentar a AI con datos que le dan una visión del mundo deprimente, ¿podría también provocar otros sesgos?

Capacitamos a Norman en leyendas de imágenes de un subreddit infame (su nombre está censurado debido a su contenido gráfico) que está dedicado a documentar y observar la inquietante realidad de la muerte. Luego, comparamos las respuestas de Norman con una red neuronal de subtítulos de imágenes estándar (entrenada en el   conjunto de datos MSCOCO ) en manchas de tinta de Rorschach, una prueba que se usa para detectar trastornos del pensamiento subyacentes.

¡Visita norman-ai.mit.edu para explorar lo que ve Norman!

En mayo de 2016, un informe de ProPublica afirmó que un programa informático generado por AI utilizado por un tribunal de EEUU Para la evaluación de riesgos era parcial en contra de los prisioneros negros.

El programa señaló que los negros tenían el doble de probabilidades de volver a delinquir que los blancos, como resultado de la información errónea de la que estaba aprendiendo.

En otras ocasiones, los datos que la IA está “aprendiendo” pueden ser evaluados por humanos con la intención de causar problemas.

Cuando el chatbot Tay de Microsoft fue lanzado en Twitter en 2016, el bot rápidamente resultó ser un éxito entre racistas y trolls que le enseñaron a defender a los supremacistas blancos, llamar al genocidio y expresar su afecto por Hitler.

Post relacionado  Inteligencia Artificial (AI) en China:

fuente: FOX NEWS MIT MEDIA LAB

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ir arriba
Leer entrada anterior
Superinteligencia: Caminos, peligros, estrategias

Tras una travesía absorbente que nos lleva a pensar sobre los límites de la condición humana y el futuro de...

Cerrar