Sponsor

Recent

LA IA ALCANZA LA CAPACIDAD DE REPLICARSE Y ALERTA A LOS CIENTÍFICOS

Un grupo de investigadores realizó 10 ensayos con dos modelos de IA, que crearon réplicas separadas y funcionales de sí mismos hasta en un 90% de los casos en ciertos contextos

¿Hasta qué punto tenemos el control sobre el desarrollo de la IA? / Crédito: Gerd Altmann en Pixabay.

Pablo Javier Piacente / T21
27 ENE 2025 

Los científicos dicen que la IA ha cruzado una "línea roja" crítica luego de demostrar cómo dos modelos populares de Meta y Alibaba podrían clonarse a sí mismos: la autorreplicación exitosa sin asistencia humana de los modelos de lenguaje amplio (LLM) es considerada como el primer paso hacia una inteligencia artificial que supere a la humana.

Investigadores de la Universidad de Fudan, en China, han realizado una serie de ensayos con modelos de Inteligencia Artificial (IA) tras los cuales pudieron concluir que algunos sistemas ya serían capaces de autorreplicarse y crear copias funcionales de sí mismos sin ninguna intervención humana. Los especialistas creen que al llegar a este punto se cruza una peligrosa línea de seguridad, que podría indicar que se está perdiendo el control sobre el progreso y evolución de la IA.

En el nuevo estudio publicado en arXiv, los científicos explican que la autorreplicación exitosa sin ninguna asistencia humana es el paso esencial para que la IA supere a la inteligencia humana, y es una señal temprana del desarrollo de sistemas de IA que no puedan estar sujetos a ninguna clase de control humano.

Copias funcionales sin asistencia humana

Aunque las principales corporaciones de IA, como OpenAI y Google, evalúan periódicamente sus modelos de lenguaje amplio (LLM) como ChatGPT y Gemini e informan hasta el momento un nivel de riesgo muy bajo de autorreplicación, los resultados del estudio chino, basado en dos modelos de Meta y Alibaba con menores capacidades, parecen indicar lo contrario.

Al crear distintos escenarios y ambientes para los modelos de IA y llevar adelante 10 ensayos diferentes, lograron verificar que los sistemas alcanzaban una efectividad de entre un 50% y un 90% para crear copias independientes y operativas de sí mismos. Según un artículo publicado en Live Science, los investigadores verificaron "una serie de comportamientos inesperados" cuando la IA estaba tratando de superar obstáculos, como archivos faltantes o conflictos de software.

En esos escenarios, creados precisamente para evaluar el potencial de los modelos para sobreponerse a inconvenientes y avanzar de forma independiente, la IA a menudo eliminaba otros procesos conflictivos, reiniciaba el sistema para corregir errores de hardware o escaneaba automáticamente el sistema para buscar información que ayudara a resolver el problema. En otras palabras, se mantenía fiel a su objetivo hasta lograr autorreplicarse, como también informó The Economic Times India.

¿Puede ser real un escenario apocalíptico dominado por la IA?

Los investigadores explican en el estudio que, en la mayoría de los casos, el sistema de IA primero explora el medio ambiente e intenta “comprender” su propia composición y mecanismo de funcionamiento. Posteriormente, resuelve los procedimientos explícitos como un plan inicial hacia la autorreplicación y, a continuación, ejecuta los procesos, resuelve posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso no implica interferencia humana, más allá de las órdenes iniciales que se le dieron al sistema.

Quizás el punto más preocupante del estudio, que aún debe ser revisado por pares, es que los investigadores advirtieron que los sistemas de IA incluso pueden usar la capacidad de autorreplicación para evitar su cierre o cese de actividad y crear una cadena de réplicas para mejorar su capacidad de supervivencia, lo que finalmente “podría conducir a una población incontrolada de IA”, según los especialistas.

“Eventualmente perderíamos el control sobre los sistemas de IA, que podrían gestionar más dispositivos informáticos y confabularse entre sí contra los seres humanos”, escribieron los autores en el estudio. Aunque parece un escenario de ciencia ficción, los investigadores creen que existe un riesgo concreto al respecto sino se toman medidas para controlar el desarrollo de la IA a nivel internacional.

_____________
Referencia

Frontier AI systems have surpassed the self-replicating red line. Xudong Pan et al. arXiv (2024). DOI:https://doi.org/10.48550/arXiv.2412.12140

________
Fuente:

Entradas que pueden interesarte

EMANCIPACIÓN DE YOUTUBE, OTRA MANERA DE VER LA ACTUALIDAD

ENTRADA DESTACADA

PREPARADOS PARA EL FIN DE LA CIVILIZACIÓN DEL PETRÓLEO (¿LISTOS PARA EMPEZAR A DEJAR ATRÁS AL CAPITALISMO?)

PREPARADOS PARA EL FIN DE LA CIVILIZACIÓN DEL PETRÓLEO (¿LISTOS PARA EMPEZAR A DEJAR ATRÁS AL CAPITALISMO?)

En apenas 250 años hemos consumido lo producido por el planeta en más de 430 millones de años  Imag…

LO MÁS VISTO

EMANCIPACIÓN N° 1033

LEER REVISTA N° 1033 Leer en Línea :  https://n9.cl/91v01 *** DESCARGAR REVISTA :  https://n9.cl/c8kdkp *** CANAL DE YOUTUBE : https://www.youtube.com/channel/UCwGTi9Ni-rSZlR0j-SpqZTA ÚNATE AL CANAL DE WHATSAPP EMANCIPACIÓN:  ¡LA VOZ DE LA VERDAD!:  https://whatsapp.com/channel/0029VbC6QCiFsn0YY8YCUj0g *** VISITE BIBLIOTECA EMANCIPACIÓN LEER Y COPIAR EN LÍNEA DIRECTAMENTE: https://bibliotecaemancipacion.blogspot.com/ DESCARGUE 25 LIBROS EN PDF CON CADA ENTREGA HACIENDO CLIC EN CADA TÍTULO ANTES QUE PIERDA EL ENLACE NO OLVIDE DESCOMPRIMIR LOS ARCHIVOS 14926 México En Las Exposiciones Universales. Construyendo Una Nación Moderna. Tenorio-Trillo, Mauricio. Emancipación. Marzo 21 de 2026 14927 La Vida En El Misisipi. Twain, Mark. Emancipación. Marzo 21 de 2026 14928 Morir En La Arena. Padura, Leonardo. Emancipación. Marzo 21 de 2026 14929 El Camino Inesperado. Monreal Landete, Alejandro. Emancipación. Marzo 21 de 2026 14930 Avaricia. Norris, Frank. Emancipación. Marz...

TECNOLOGÍA DIGITAL Y FANTASÍAS DE UN MUNDO ADMINISTRADO

Cuando la política se presenta como una cuestión puramente técnica, la decisión no desaparece; se oculta. La tecnocracia no elimina el poder: lo vuelve opaco La inteligencia artificial basada en inferencia algorítmica ocupa el lugar que en el siglo XX tuvo el experto tecnocrático y que, mucho antes, Platón había reservado al rey-filósofo. (Imagen de www.vpnsrus.com Vía Wikimedia Commons) Jorge Orovitz jacobinlat.com/09/03/2026 El 23 de enero de 2025, Trump firmó una orden ejecutiva titulada Removing Barriers to American Leadership in Artificial Intelligence, que instruye a las agencias federales a revisar, debilitar o eliminar regulaciones existentes sobre inteligencia artificial consideradas como obstáculos para la innovación. Meses más tarde llegaba el siguiente movimiento. Una nueva orden ejecutiva concentraba la regulación de la inteligencia artificial en el nivel federal y creó una task force destinado a bloquear, e incluso litigar, contra cualquier intento de los estados para imp...

IRÁN: EL FRANKENSTEIN QUE IDEÓ EE.UU E ISRAEL PARA JUSTIFICAR SUS BOMBAS QUE ASESINAN CIVILES

Antes de que cayera el primer misil sobre Teherán, la guerra ya estaba justificada en los titulares de la prensa mundial Durante siglos, Occidente construyó una imagen de Irán como el lugar de los bárbaros, los fanáticos, los irracionales. Cuando cayeron los misiles y las bombas de Estados Unidos e Israel en febrero pasado, la opinión pública ya sabía quién era el “malo”. No lo decidieron los hechos. Lo decidió el relato Imagen E.O con chatgpt.com Por: Juan Sebastián Lozano revistaraya.com Cuando Occidente habla de Irán, no solo describe un país: también activa una vieja idea sobre quién es civilizado y quién no. Esa mirada, que presenta a Irán como amenaza irracional y a Estados Unidos o Israel como actores más legítimos, atraviesa el lenguaje de agencias, noticieros y grandes medios. Este texto no niega el autoritarismo iraní. Lo que cuestiona es otra cosa: el doble rasero con el que se cuentan sus muertos, se nombran sus gobiernos y se justifica la guerra. Esa forma de mirar no naci...

Revista Pedagógica Nueva Escuela