Algunos sistemas de IA podrían afectar determinadas funciones cognitivas vitales para una adaptación exitosa del ser humano al entorno
Las aplicaciones de Inteligencia Artificial (IA) podrían generar deficiencias cognitivas en el ser humano a mediano y largo plazo, según una reciente investigación científica. / CRÉDITO: WILLI-VAN-DE-WINKEL EN PIXABAY.
Pablo Javier Piacente
16 FEB 2024 13:36
De la misma forma que el GPS de los smartphones ha dañado nuestro sentido de la cognición espacial y la memoria, según sugieren algunos estudios, la Inteligencia Artificial (IA) también podría afectar progresivamente nuestra capacidad para tomar decisiones de forma independiente, de acuerdo a una nueva investigación. La hipótesis plantea que los chatbots de IA podrían interferir con funciones ejecutivas de orden superior, bloqueando el desarrollo de diversas funciones cognitivas básicas.
Un nuevo estudio publicado recientemente en la revista Neuropsychology postula que la Inteligencia Artificial (IA), en concreto los sistemas de chatbots como ChatGPT o Gemini (ex-Bard), entre otros, tendrían la capacidad de producir a mediano y largo plazo una paralización de ciertas funciones cognitivas humanas que resultan cruciales para nuestra relación con el entorno. La falta de entrenamiento de estas capacidades provocaría su progresivo deterioro, según el autor de la investigación.
Prótesis cognitivas
El trabajo firmado por el experto en neuropsicología Umberto León Domínguez, de la Universidad de Monterrey, en México, concluye que la IA puede actuar como una "prótesis cognitiva". Este concepto fue teorizado en 2019 por Falk Lieder, un investigador en Inteligencia Artificial del Instituto Max Planck para Sistemas Inteligentes.
Se trata de hipotéticos “miembros mentales sintéticos” que procesarían tareas cognitivas y ayudarían en la toma de decisiones. Aunque en principio se consideraron como algo positivo, para Domínguez serían exactamente todo lo contrario, según un artículo publicado en Futurism. El especialista cree que poco a poco podrían atrofiar algunas de nuestras principales capacidades cognitivas.
En ese sentido, los chatbots podrían producir efectos similares a los que ya habría generado el uso del GPS en los móviles: según un estudio publicado en 2022, la dependencia de la navegación basada en el sistema de posicionamiento global genera que nuestro sentido de orientación espacial sea cada vez más deficiente, haciéndonos muy dependientes de la ayuda tecnológica. ¿Qué funciones afectaría la IA?
Lo que no se usa, se atrofia
El investigador mexicano sostiene en su estudio que lo más peligroso es la "descarga cognitiva", un concepto que hace referencia al uso de la IA como reemplazo de los tipos de tareas mentales que habitualmente ejercitamos por nuestra cuenta, como por ejemplo la resolución de problemas sencillos de manera independiente.
Si la falta de ejercicio puede debilitar nuestros músculos y derivar en una atrofia, la dependencia excesiva de la IA para los procesos de pensamiento más sencillos podría conducir a la pérdida de habilidades cognitivas básicas. “Así como una persona no puede adquirir habilidades en el baloncesto sin jugarlo, el desarrollo de habilidades intelectuales complejas requiere una participación activa y no puede depender únicamente de la asistencia tecnológica”, indicó Domínguez en una entrevista con PsyPost.
Según el científico, anticipar estas posibles consecuencias negativas de la IA a nivel cognitivo debería alertar a las comunidades educativas, políticas y sociales sobre el impacto de las nuevas tecnologías a mediano y largo plazo, las cuales podrían conducir a un incremento de la brecha cognitiva en la población mundial. En otras palabras, producirían que una parte importante de la humanidad sea totalmente dependiente de la IA para las tareas cognitivas más sencillas.
______________
Referencia
Potential cognitive risks of generative transformer-based AI chatbots on higher order executive functions. León-Domínguez, U. Neuropsychology (2024). DOI:https://psycnet.apa.org/doi/10.1037/neu0000948
_________
Fuente: