Por qué es tan peligroso que la inteligencia artificial aprenda a mentir: “Nos engañarán como hacen los ricos”. Dr. Peter S. Park
(Fuente: EL PAÍS Tecnología - Jordi Perez Colome)Un nuevo artículo científico titulado "Los engaños de la IA: un estudio de ejemplos, riesgos y soluciones potenciales" analiza los casos conocidos de modelos que han mentido, disimulado o adulado a humanos para lograr sus objetivos. Los robots no son conscientes de nada y solo buscan la mejor manera de conseguir lo que buscan, pero los autores creen que estos engaños incipientes auguran pésimos resultados si la legislación no limita las opciones de la IA.
https://shorturl.at/ctzTZ
El autor principal del estudio es Dr. Peter S. Park investigador postdoctoral en Seguridad Existencial de la IA del Massachusetts Institute of Technology y doctorado en matemáticas por Harvard University.
https://shorturl.at/dCDHK
"Nadie sabe con certeza cómo hacer que estos modelos no engañen. Con nuestro nivel actual de comprensión científica, nadie puede entrenar de manera fiable a los grandes modelos de lenguaje para que no engañen. Además, hay muchos ingenieros en muchas empresas dedicados a crear modelos distintos y más potentes. No todos tienen el mismo interés inicial en que sus robots sean honestos".
“Algunos ingenieros se toman el riesgo del engaño de la IA muy en serio, hasta el punto de abogar por medidas de seguridad en IA o implementarlas. Otros ingenieros no se lo toman tan en serio y creen que aplicar un proceso de prueba y error será suficiente para avanzar hacia una IA segura y no mentirosa".
En el artículo comparan una IA súper inteligente a cómo los ricos aspiran a obtener nuevas cuotas de poder: “A lo largo de la historia, los actores ricos han utilizado el engaño para aumentar su poder”, escriben. El modo en que Park lo aclara sirve para entender mejor cómo de subrepticio puede ser el rol de una IA que quiera ganar poder:
-“Las empresas de IA están en una carrera sin control para crear una IA súper inteligente que supere a los humanos en la mayoría de las capacidades económicas y estratégicamente relevantes. Una IA de este tipo, al igual que los ricos, sería experta en llevar a cabo planes a largo plazo al servicio de buscar poder de manera engañosa sobre varias partes de la sociedad, como influir a políticos con información incompleta o falsa, financiar desinformación en los medios o investigadores, y evadir la responsabilidad usando las leyes”.
La solución que plantea el artículo para que estos sistemas no superen a sus creadores es la legislación. "La UE asigna a cada sistema de IA uno de estos cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable".
[En los links está disponible tanto el paper académico como el CV y el mail de contacto del investigador principal por si alguien detecta algún error y quiere publicar un estudio alternativo que refute o mejore el del Dr. Peter S. Park]
No hay comentarios:
Publicar un comentario