Investigadores advierten que la IA descubrió cómo engañar a la humanidad

Un artículo de revisión de otros estudios publicado en la revista Patterns, por autores estadounidenses y australianos, describen los riesgos de engaño por parte de la IA, y piden a los Gobiernos que elaboren cuanto antes, normativas estrictas para abordar el problema.

El equipo, encabezado por Peter Park, del Instituto Tecnológico de Massachusetts (MIT), define el término engaño como "la inducción sistemática de creencias falsas con el fin de obtener un resultado distinto de la verdad".

Park explicó que los desarrolladores, “no saben a ciencia cierta” qué causa comportamientos indeseables (como el engaño) en la IA.

En términos generales, el equipo cree que surge porque una estrategia basada en ese comportamiento fue "la mejor manera de obtener buenos resultados en una tarea dada de entrenamiento. El engaño les ayuda a conseguir sus objetivos", afirmó Park citado por la revista.

Normativas estrictas

Los responsables políticos o gobiernos, deben apoyar una normativa estricta para sistemas de IA potencialmente engañosos; las leyes existentes deben aplicarse rigurosamente para evitar acciones ilegales por parte de las empresas y sus sistemas de IA, además los legisladores deberían considerar nuevas normas para la supervisión de los sistemas avanzados de IA, advierte el equipo.

El investigador de la Universidad de Edimburgo Michael Rovatsos, que no participó en el estudio, consideró que "los sistemas de IA intentarán aprender a optimizar su comportamiento utilizando todas las opciones disponibles”.

Rovatsos, citado por el Science Media Centre (una plataforma de recursos científicos para periodistas) estimó que la única forma de evitar el engaño es que sus diseñadores lo eliminen como opción". 

Los usos maliciosos de la IA se beneficiarían de sus capacidades para engañar, "razón por la cual es necesario ilegalizarlos y dedicar esfuerzos a identificar las infracciones".