Investigadores advierten que la IA descubrió cómo engañar a la humanidad
Un
artículo de revisión de otros estudios publicado en la revista Patterns, por
autores estadounidenses y australianos, describen los riesgos de engaño por
parte de la IA, y piden a los Gobiernos que elaboren cuanto antes, normativas
estrictas para abordar el problema.
El
equipo, encabezado por Peter Park, del Instituto Tecnológico de Massachusetts
(MIT), define el término engaño como "la inducción sistemática de
creencias falsas con el fin de obtener un resultado distinto de la
verdad".
Park
explicó que los desarrolladores, “no saben a ciencia cierta” qué causa comportamientos
indeseables (como el engaño) en la IA.
En
términos generales, el equipo cree que surge porque una estrategia basada en
ese comportamiento fue "la mejor manera de obtener buenos resultados en
una tarea dada de entrenamiento. El engaño les ayuda a conseguir sus
objetivos", afirmó Park citado por la revista.
Normativas estrictas
Los
responsables políticos o gobiernos, deben apoyar una normativa estricta para
sistemas de IA potencialmente engañosos; las leyes existentes deben aplicarse
rigurosamente para evitar acciones ilegales por parte de las empresas y sus
sistemas de IA, además los legisladores deberían considerar nuevas normas para
la supervisión de los sistemas avanzados de IA, advierte el equipo.
El
investigador de la Universidad de Edimburgo Michael Rovatsos, que no participó
en el estudio, consideró que "los sistemas de IA intentarán aprender a
optimizar su comportamiento utilizando todas las opciones disponibles”.
Rovatsos,
citado por el Science Media Centre (una plataforma de recursos científicos para
periodistas) estimó que la única forma de evitar el engaño es que sus
diseñadores lo eliminen como opción".
Los
usos maliciosos de la IA se beneficiarían de sus capacidades para engañar,
"razón por la cual es necesario ilegalizarlos y dedicar esfuerzos a
identificar las infracciones".