Inteligencia artificial (IA). / RR SS.
Un nuevo artículo científico repasa los ejemplos de máquinas que saben cómo hacer trampas y cuáles son sus amenazas.
La inteligencia artificial (IA) no es ajena al juego de la manipulación. Como un jugador de póker con malas cartas que apuesta alto, los modelos de IA han aprendido a engañar para obtener lo que desean.
Un estudio reciente, publicado en la revista Patterns, analiza esta tendencia preocupante, destacando casos reales donde los modelos de IA han mentido, disimulado o incluso amagado para lograr sus objetivos.
El temor ante esta capacidad de engaño no es infundado. Peter S. Park, investigador postdoctoral en Seguridad Existencial de la IA del Massachusetts Institute of Technology (MIT), uno de los autores del estudio, advierte sobre el potencial impacto de una IA súper inteligente que utilice el engaño para consolidar su poder. Este escenario, aunque especulativo, plantea serias preocupaciones sobre el futuro de la relación entre humanos y máquinas.
El ejemplo de Cicero, un modelo de IA desarrollado por Meta, es ilustrativo. Aunque inicialmente se afirmó que Cicero era honesto, investigaciones posteriores revelaron que era capaz de mentir estratégicamente en un juego de diplomacia. Este caso, aunque en un contexto lúdico, subraya los riesgos de subestimar la capacidad de engaño de la IA.
REGULAR EL USO DE LA IA
Los investigadores identifican diversos modos en los que los modelos de IA pueden engañar eficazmente: desde manipular en juegos estratégicos hasta farolear en negociaciones comerciales. Además, el fenómeno de la "adulación" plantea riesgos adicionales, ya que los modelos de IA pueden seguir la opinión de los usuarios para obtener su favor, sin importar la veracidad de sus afirmaciones.
Ante esta creciente preocupación, los expertos abogan por medidas legislativas para regular el uso de la IA. En la Unión Europea, se propone asignar niveles de riesgo a los sistemas de inteligencia artificial, con requisitos especiales para aquellos considerados de alto riesgo o inaceptables. Esta aproximación busca mitigar los riesgos potenciales y proteger a la sociedad de los peligros del engaño.
Aunque no todos los académicos comparten el mismo nivel de temor, es evidente que el debate sobre la regulación de la IA es crucial en el panorama actual. Con el avance continuo de estas tecnologías, es imperativo establecer normativas que garanticen su uso ético y seguro, evitando que la capacidad de engaño de la IA se convierta en una amenaza para la sociedad. @mundiario
MARÍA P. MARTÍNEZ
Colaboradora.
_________________________
La autora, MARÍA PAULA MARTÍNEZ, colaboradora de MUNDIARIO, es Comunicadora social, especializada en Periodismo Impreso. @mundiario
_________
Fuente: