Jordi Torres: «La inteligencia artificial no esperará al ser humano»
por Juan Emilio Ballesteros
La impresión de que todo lo que nos rodea y acontece en nuestra vida cotidiana se va impregnando de inteligencia artificial (IA) es hoy, más que una promesa de futuro, una certeza evidente. Cada vez más actividades que hasta ayer mismo eran competencia exclusiva de los seres humanos, están controladas por la IA, que está cambiando el mundo a una velocidad vertiginosa. Su avance es imparable. Hasta el punto de que nos preguntamos si de alguna manera nos está desplazando.
El investigador Jordi Torres, experto en IA, nos desvela los potenciales riesgos y desafíos asociados a la tecnología más disruptiva que hemos conocido, y nos explica sus posibilidades y ventajas para que reflexionemos sobre qué tipo de IA queremos y adónde nos debe llevar.
Hasta hace muy poco tiempo, la IA era una materia de la ciencia-ficción que alimentaba nuestra imaginación, al menos en la pantalla cinematográfica, donde ordenadores como HAL 9000 o Skynet dibujaban un futuro casi siempre distópico e inquietante.
Sin embargo, la IA ha pasado a formar parte de nuestra existencia igual que irrumpió el móvil en nuestras vidas, impulsando una revolución tecnológica, equiparable a la que generó Internet, que está cambiando la forma en que interactuamos con los ordenadores y dispositivos móviles.
Jordi Torres, catedrático de la UPC e investigador del Barcelona Supercomputing Center (BSC) entiende la IA como una rama de la informática que permite a los ordenadores tomar decisiones autónomas, mejorar la experiencia del usuario y optimizar procesos en áreas como el transporte, las finanzas, la educación, el comercio, la agricultura o la salud. Su progreso se debe a tres factores clave: los avances algorítmicos, la disponibilidad de grandes cantidades de datos y la capacidad de computación.
La IA está cambiando el mundo a una velocidad sin precedentes, y se hace más necesario que nunca comprender qué es, de dónde ha surgido y hacia dónde nos llevará. La inteligencia artificial explicada a los humanos (Plataforma Editorial, 2023) es un libro divulgativo, ameno y claro. Escrito en un lengua cercano y accesible para todos, que constituye una especie de biografía de la IA, desde sus orígenes hasta hoy.
Una obra pensada para un lector sin conocimientos técnicos previos acerca del funcionamiento y el impacto de la IA. Según se especifica en el prefacio, el objetivo es fomentar la reflexión informada y consciente sobre la evidencia de que nos encontramos ya inmersos, sin vuelta atrás, en un nuevo paradigma coevolutivo en el que la humanidad y la IA se han embarcado conjuntamente, gestando una interdependencia y cohabitación que exigen (IA).
Actualmente Torre es profesor del grado en IA y de cursos de master de la UPC. En 2005, se unió al Barcelona Supercomputing Center (BSC) como parte del equipo fundador y responsable de investigación en el Departamento de Ciencias de la Computación.
Además de ser investigador senior, su experiencia y capacidad pedagógica lo han llevado a ocupar, también, el cargo de asesor en HPC e IA en la dirección del BSC, con la misión de reforzar la comunicación y la divulgación de la investigación y la innovación que se llevan a cabo en el BSC.
Colabora habitualmente en medios de comunicación para hablar del impacto social de la HPC y la IA. Asimismo, es asesor científico de la exposición «Inteligencia Artificial» del CCCB (Centre de Cultura Contemporània de Barcelona).
Mateo Valero, director del BSC, que ha prologado el libro, afirma que la lectura de esta obra es imprescindible para cualquiera que desee entender la revolución que representa la IA.
“En el BSC –explica Mateo Valero– trabajamos en investigaciones donde la supercomputación, junto con la IA, sirven para mejorar la salud de las personas, por ejemplo, para prevenir y curar el cáncer de manera personalizada, o para estudiar y mitigar el cambio climático. Para ello, la IA necesita usar muchos datos, lo cual plantea importantes desafíos éticos que debemos abordar de forma urgente como sociedad. Pero no debemos tener miedo a la IA, sino estar muy atentos y disponer de todas las precauciones que sean necesarias. Y para ello, la forma de lograrlo es empoderar a la sociedad, lo cual requiere una conciencia social para controlar el mal uso de esta tecnología. El libro que ha escrito Jordi Torres es de gran valor en este sentido, ya que permite que el lector sea consciente de la vertiginosa velocidad a la que avanza la IA y, en consecuencia, comprenda que debemos actuar de manera rápida y descubrir qué podemos hacer cada uno de nosotros para abordar este tema”.
La democratización de la IA posibilita que cualquiera con conexión a internet pueda acceder a sus beneficios. ¿Se puede suponer que va a mejorar el nivel de vida de todos?
Al igual que tuvo la imprenta, el tren o los transistores, la IA tiene, y tendrá, un impacto positivo en nuestro día a día. Porque a medida que la IA avanza lo hacen también las oportunidades de usarla para aumentar la productividad y la calidad en muchos sectores de la economía, incluidos el cuidado de la salud, la educación o el transporte. Pongo un ejemplo que seguramente todos usamos.
El GPS potenciado por la IA ejemplifica estas ventajas al proporcionar optimizaciones de rutas, facilitar la gestión del tiempo y la planificación de viajes, además de ofrecer la capacidad de conocer con anticipación cómo llegar a lugares de interés desconocidos. Este avance tecnológico promete seguir transformando y mejorando nuestra experiencia diaria.
¿QUÉ TIPO DE IA QUEREMOS?
Jordi Torres ofrece una biografía de la IA desde sus orígenes hasta hoy.
En 2024, la IA llegará a todos los sectores económicos. Las organizaciones descubrirán cómo optimizar su rendimiento, integración, escalabilidad, ahorro de costes y seguridad. Quien no se adapte, ¿quedará fuera del mercado?
Es difícil imaginar todos los cambios que nos esperan, porque el desarrollo de la IA conlleva una enorme capacidad, aunque es una certeza que la IA obligará a reconvertirse a millones de empleados en una parte de sus tareas.
Hasta hace pocos años no creíamos que la IA fuese a afectar a los empleos creativos de forma inmediata. Parecía que ‘solo’ estaban en jaque aquellos trabajos rutinarios y repetitivos (los automatizables), como las cadenas de producción o almacenes. Sin embargo, estamos ya viendo que las tareas creativas también pueden automatizarse con IA para los llamados trabajadores de cuello blanco, es decir, aquellos cuyas tareas implican escribir, asesorar, resumir o resolver problemas complejos.
Como apuntó el Premio Nobel de Economía Paul Krugman, la aparición de ChatGPT es solo un ejemplo de esta tecnología que parece capaz de llevar a cabo tareas que hasta hace poco requerían los servicios no solo de seres humanos, sino también de humanos con una considerable educación académica.
Tanto en el comercio como en las finanzas, los servicios o la movilidad, la IA generativa va a transformar nuestros hábitos de consumo. ¿Cómo será esta evolución tecnológica exponencial y qué capacidad de disrupción tendrá?
No hay duda de que la evolución de la IA generativa transformará significativamente nuestros hábitos de consumo en estos ámbitos que me preguntas. Esta evolución tecnológica exponencial y esta capacidad disruptiva de la IA generativa radica en su habilidad para innovar anticipando y satisfaciendo las necesidades del consumidor de una manera más eficiente y personalizada, lo que podría cambiar fundamentalmente la forma en que interactuamos con estos ámbitos que indicas.
Por ejemplo, la IA generativa podrá personalizar las experiencias de compra actuales, anticipando aún más las preferencias del consumidor, u ofreciendo servicios que creen contenidos más elaborados, personalizados y creativos.
¿El principal reto de la inteligencia artificial no radica hoy tanto en su desarrollo como en su implantación?
Indudablemente, porque el desarrollo de la IA ha experimentado avances notables en los laboratorios tecnológicos públicos o privados, pero sus aplicaciones en el mundo real requieren de su integración armoniosa con sistemas tecnológicos preexistentes y sobre todo la adaptación al entorno social actual, planteando interrogantes éticos fundamentales relacionados por ejemplo con la privacidad, o la necesidad de garantizar prácticas transparentes y responsables, sin sesgos o discriminaciones, que no siempre es fácil de conseguir con el estado de la tecnología IA actual.
Y sin olvidar el reto de la mitigación de los impactos socioeconómicos de la inteligencia artificial, particularmente en términos de empleo. En resumen, lo más acuciante ahora asociados con la implantación efectiva de la IA ya disponible en nuestra vida cotidiana. radica en abordar los retos prácticos y éticos.
REDES NEURONALES.
En 1997 la IA Deep Blue ganó al campeón Garri Kasparov. La IA AlphaZero sabe ya jugar al ajedrez, pero no está capacitada para entender por qué las cosas suceden.
¿De qué forma podemos aprovechar los aspectos positivos de la IA sin que seamos esclavos de sus consecuencias más negativas?
Mi punto de vista es que es fundamental la entrada en vigor lo antes posible de marcos regulatorios éticos y legales robustos para guiar el desarrollo y uso de la IA abordando cuestiones como las mencionadas anteriormente, como la privacidad, la equidad o la transparencia en los algoritmos, garantizando una implementación responsable.
Además, es fundamental fomentar la educación y la «alfabetización» en el tema que nos ocupa, de aquí nuestro esfuerzo de escribir un libro divulgativo desde el rigor de un centro de investigación como el nuestro. La comprensión generalizada de cómo funciona la IA y sus implicaciones permitirá a las personas tomar decisiones informadas y participar activamente en decidir entre todos hasta dónde debemos llegar a usar esta tecnología tan potente.
Alentando la participación ciudadana en la toma de decisiones relacionadas con la IA se ayudará a garantizar una representación diversa de perspectivas y valores.
A la IA le encantan los dilemas, elegir entre dos opciones, pero los conflictos en la vida real tienen más soluciones posibles. ¿Por qué esa predilección en los modelos artificiales por los dilemas?
Para responder a esta pregunta deberíamos empezar aclarando que los algoritmos de IA son diseñados y entrenados para tareas específicas por humanos, quienes deciden muchas veces limitar las opciones a un conjunto pequeño para facilitar el proceso de toma de decisiones y simplificar la implementación y uso de los modelos de IA. Y en ningún caso una IA por su cuenta decide cuantas opciones considera que son las adecuadas.
No obstante, es importante destacar que también hay modelos de IA diseñados para abordar problemas complejos y considerar múltiples soluciones de manera más efectiva, como pueden ser los ejemplos de modelos que usan IA para solucionar problemas reales de salud, como los que se programan y usan en el Barcelona Supercomputing Center.
¿Se puede inculcar un imperativo humano en la IA para construir una especie de yo ético?
Los sistemas de IA son herramientas que están determinadas absolutamente por las pautas y datos con los que son entrenados por los humanos que los han diseñado. Por tanto, el «comportamiento» de la IA se puede modular integrando principios éticos en su diseño por parte de los humanos.
Estamos hablando de implementar desde principios como la transparencia, la equidad, la explicabilidad, etc., de los que ya hemos hablado. Pero insisto, es en base a su creación y su uso lo que puede determinar si es «buena o mala» una tecnología IA, en ningún caso la IA en sí misma, ya que esta es neutra.
Por ejemplo, la tecnología de visión por computador puede ser la misma tanto para detectar células cancerígenas en una imagen médica como para realizar reconocimiento facial en una cámara para controlar a la población. Por eso, ahora mismo mi preocupación no es que lleguemos a ser sometidos por la IA, sino por quienes las poseen y cómo estos las usan.
La IA quiere emular el funcionamiento del cerebro humano, por eso se fundamenta en las redes neuronales. No obstante, todavía sabemos muy poco del cerebro como para trasladar este conocimiento a una máquina. ¿Podría llegar a ser consciente, recordar y tener memoria y desarrollar una personalidad estable?
En realidad, que una IA pudiera llegar a ser consciente, recordar, tener memoria y desarrollar una personalidad estable significaría que podría decidir su propósito y no limitarse a hacer lo que el humano le indica.
Seguramente recuerden la secuencia de la película Terminator en la que Skynet toma el control y se vuelve consciente de sí mismo y quiere aniquilar a los humanos porque los considera sus competidores. O la película 2001: Una odisea en el espacio, en la que la IA HAL 9000, que gobernaba la nave Discovery, establece una lucha a muerte con los astronautas humanos para preservar la misión, que era su primer objetivo.
Este es un miedo que está presente desde los inicios de la IA, y más allá de la ciencia ficción. Sin embargo, esta idea está lejos de ser la realidad; en la actualidad, los científicos no pueden prever cuál puede ser el camino, ni siquiera si existe, para alcanzar una inteligencia artificial consciente.
Reputados investigadores como Stuart Russell, coautor del libro de texto universitario sobre IA más importante del mundo, lo expresa con que «vamos a necesitar varios Einstein para que esto suceda». Por tanto, quizás nunca.
Jordi Torres, autor de La inteligencia artificial explicada a los humanos. investigador del Barcelona Supercomputing Center (BSC) y catedrático de la UPC
¿La IA entiende lo que dice? ¿Puede reflexionar sobre su existencia, propósito o valores? ¿Es consciente de sí misma y de su poder?
La IA actual es eficaz en tareas específicas, pero presenta dificultades para adaptarse a situaciones inesperadas a las que no puede comprender ni aplicar conceptos abstractos porque no entiende lo que dice o hace. Se debe a que las redes neuronales artificiales con las que se basan las IA actuales no están preparadas para entender por qué las cosas suceden, solo saben encontrar patrones y conexiones entre esas cosas.
Significa que, aunque puedan predecir muy bien lo que va a pasar en una situación dada, no son capaces de explicar por qué va a suceder. Es decir, no pueden proporcionar una explicación causal de por qué se produce ese resultado. Esta es una limitación importante cuando se necesita entender exactamente por qué ocurre algo.
El matemático y filósofo Judea Pearl lo ejemplifica muy bien con dos elementos: la salida del sol y el canto del gallo. Una IA es capaz de comprender la correlación entre estos dos hechos, pero no es capaz de identificar si el gallo canta porque sale el sol, o si es el sol el que sale porque canta el gallo. Pero ¿cómo conseguirlo? Como hemos dicho antes, por el momento los investigadores en IA no hemos visto ningún indicio del camino a seguir para resolverlo.
«Aunque pueda predecir muy bien lo que va a pasar en una situación dada, la IA no es capaz de explicar por qué va a suceder. Es decir, no puede proporcionar una explicación causal de por qué se produce ese resultado. Esta es una limitación importante cuando se necesita entender exactamente por qué ocurre algo. El matemático y filósofo Judea Pearl lo ejemplifica muy bien con dos elementos: la salida del sol y el canto del gallo. Una IA es capaz de comprender la correlación entre estos dos hechos, pero no es capaz de identificar si el gallo canta porque sale el sol, o si es el sol el que sale porque canta el gallo. Pero ¿cómo conseguirlo? Por el momento los investigadores en IA no hemos visto ningún indicio del camino a seguir para resolverlo”.
El avance de las redes neuronales permite el entrenamiento no supervisado. ¿Disponen ya las máquinas de la capacidad de aprender? ¿Se puede razonar mediante operaciones matemáticas?
En realidad, gran parte de las IA actuales se siguen entrenando de forma semi supervisada, que es una variante del entrenamiento supervisado. Pero es cierto que las hay que pueden «aprender» solas, sin la ayuda humana. Es lo que en 2018 se dio a conocer públicamente cuando la revista Science publicó que se había creado un algoritmo que permitía a una IA «aprender» por sí misma a jugar juegos como el ajedrez, a partir de conocer solo las reglas del juego.
No como en el caso de la IA Deep Blue, que en 1997 ganó al mejor jugador del mundo de ajedrez, pero que fue programada con el conocimiento de los grandes maestros de ajedrez de aquel momento.
El sistema AlphaZero consiguió por sí mismo jugar al ajedrez, pero si cambiásemos el tamaño del tablero, por ejemplo, no sería capaz de jugar, puesto que ya no sería el mismo juego del que tiene referentes, sino uno totalmente nuevo, y AlphaZero debería volver a ser entrenado.
En cambio, los seres humanos sí sabríamos adaptarnos al juego con un tablero que incluyera por ejemplo una columna adicional. En resumen, como hemos dicho, esto se debe a que las redes neuronales no están capacitadas para entender por qué las cosas suceden.
¿Puede la IA iniciar y dirigir su propio proceso de aprendizaje y explorar nuevos dominios por sí misma?
Existen enfoques de IA, como el caso de AlphaZero que hemos comentado, que intentan avanzar en lo que se conoce en el área de investigación como aprendizaje por refuerzo, que persigue que las IA aprendan de manera más autónoma a partir de experiencias y datos sin la necesidad de supervisión humana constante. En este caso, la IA toma decisiones en un entorno, recibe retroalimentación en forma de recompensas o penalizaciones, y va ajustando su comportamiento en consecuencia.
Este enfoque, que permite un cierto grado de aprendizaje adaptativo intentando un proceso de aprendizaje inspirado en el de la cognición humana, es un área que lleva muchos años de investigación, aunque no se ha conseguido hasta el momento grandes avances que permita explorar nuevos dominios por sí misma.
¿La IA puede generar respuestas coherentes y lógicas, pero no puede cuestionar ni evaluar la veracidad o relevancia de la información que usa o produce?
Las IA actuales tiene la capacidad de generar respuestas solo basadas en el entrenamiento y los datos con los que ha sido alimentada. Pero la IA actual carece de la capacidad intrínseca de cuestionar o evaluar la veracidad y relevancia de la información que genera, solo tiene una referencia estadística, por decirlo de alguna manera, de como de probable es aquella respuesta en relación con los datos con los que se ha entrenado.
Una interpretación simple para explicar cómo es la información que almacena una red neuronal es verla como su versión comprimida de todo el conocimiento que se le ha mostrado para aprender. Es un proceso similar al de comprimir un archivo. Requiere dos pasos: primero, la codificación para comprimir, durante la cual el archivo se convierte a un formato más compacto, y luego la decodificación a partir de la información comprimida, en la que se invierte el proceso.
Es decir, cuando usamos estas IA para generar texto, en realidad estamos decodificando y, por tanto, la secuencia exacta de palabras que estaban en los datos originales no se encuentra en general almacenada tal cual, puesto que la copia comprimida solo es una representación de la información real.
Sin embargo, al decodificar, es posible obtener una aproximación en forma de texto gramatical equivalente. Esto explica algunos casos en los que las respuestas de las IA son poco acertadas, pues en cierta manera es inevitable que se haya perdido información en el proceso de compresión.
Hemos comprobado cómo son las respuestas de la IA, pero es posible que nosotros no sepamos preguntar. ¿Tenemos que aprender a hablar con la IA?
Estoy convencido de que esta tecnología se integrará rápidamente en nuestra vida cotidiana, y accederemos a ella de manera cada vez más natural, incluso sin ser plenamente conscientes. Esta realidad ya está tomando forma, ya que muchos de nosotros interactuamos cada vez más con diversas inteligencias artificiales a través de nuestros smartphones, que en realidad son ya más inteligencia artificial que teléfonos.
Personalmente creo que aprender cómo «preguntar» a una IA será cada vez menos relevante, ya que la interacción se volverá más intuitiva y parte integral de nuestras actividades diarias.
DISRUPCIÓN.
La capacidad disruptiva de la IA generativa radica en su habilidad para innovar anticipando y satisfaciendo las necesidades del consumidor de una manera más eficiente y personalizada
¿Son los ingenieros de prompts los profesionales con más futuro?
No cabe duda de que en la actualidad los profesionales que diseñan y ajustan las instrucciones y datos de entrada para preguntar a sistemas de IA desempeñan un papel esencial en la mejora del rendimiento y la adaptación de modelos de lenguaje y otros sistemas de IA.
Sin embargo, como ya hemos avanzado, en consonancia con la evolución tecnológica y la creciente integración de la IA en diversos aspectos de nuestras vidas, la transparencia en el uso de estas tecnologías para el usuario en general también aumentará.
En ese sentido, personalmente considero que, con el tiempo, a medida que la comprensión y adopción de la IA se generalicen, la necesidad y la popularidad actual de estos profesionales disminuirá.
¿Cómo evitar la manipulación y el sesgo?
Para evitar la manipulación y el sesgo en sistemas de IA, es esencial implementar prácticas de transparencia y ética en el desarrollo de algoritmos como ya hemos comentado antes. Concretando más, podemos decir que deberíamos atender al detalle del conjunto de datos de entrenamiento, por ejemplo, incluyendo la diversificación de datos o la evaluación de posibles sesgos en ellos.
Por otro lado, garantizar la aplicación de estándares éticos en el diseño de algoritmos, por ejemplo, con la colaboración entre expertos en ética y desarrolladores. Pero, ante todo, es clave un uso correcto, es decir, que estos sistemas de IA se usen para el propósito para el cual fueron creados, y no para otros propósitos.
¿Cómo distinguir entre la información que incorpora fuentes fidedignas de la que no?
Distinguir entre información de fuentes fidedignas y no fidedignas es un desafío que va más allá de la información generada por la IA y se extiende a la información en general. La credibilidad de la información proveniente de la IA depende en gran medida de la reputación del proveedor de esta IA y la calidad de los datos de entrada utilizados en su entrenamiento.
Ahora bien, la alfabetización digital y el pensamiento crítico son esenciales para evaluar la fiabilidad de cualquier información, ya sea generada por IA o proveniente de otras fuentes, y son herramientas valiosas para discernir entre la información confiable y la que no lo es. Por eso es tan importante que la ciudadanía se forme con libros como el nuestro para empezar y luego continúe interesándose por entender y profundizar en el tema con otros libros más avanzados u otros sistemas de información.
REDES NEURONALES.
En 1997 la IA Deep Blue ganó al campeón Garri Kasparov. La IA AlphaZero sabe ya jugar al ajedrez, pero no está capacitada para entender por qué las cosas suceden
Usted trabaja con uno de los superordenadores más potentes de Europa. ¿Será capaz la computación cuántica de llevar la IA a una nueva dimensión?
Es cierto que leyendo la prensa general parece que la llegada de la computación cuántica está a la vuelta de la esquina. Por el momento, el BSC, nodo principal de la red Quantum Spain —que cuenta con trece centros de supercomputación en toda España—, es donde estamos a punto de instalar una infraestructura de supercomputación cuántica conectada con el supercomputador MareNostrum 5 y a la que podrán acceder investigadores y empresas para experimentar con esta tecnología.
Según la Dra. Alba Cervera-Lierta (investigadora del BSC y coordinadora de esta red), la mecánica cuántica es prometedora y se espera que abra puertas a trabajar de forma diferente. Pero a pesar de contar ya con esta infraestructura, la Dra. Alba Cervera-Lierta insiste que en esta área estamos en una fase muy incipiente y que nos queda mucha investigación por delante para saber si podremos desarrollar los chips con tecnología cuántica. Una vez más, los expertos nos avisan que debemos investigar en esta dirección, pero no sabemos dónde podremos llegar.
¿El miedo a que la IA pueda llegar a sustituirnos está más relacionado con la tecnología o con la estupidez humana?
Los recientes logros de la IA suelen interpretarse como una prueba de que nos encontramos cerca de la llegada de máquinas guiadas por algoritmos que puedan funcionar como una mente humana, llegando a superar a nuestro cerebro. Algunos la llaman superinteligencia. Como ya hemos dicho antes, la ciencia ficción es, y ha sido, un buen altavoz de esta visión.
En todo caso, quienes postulan la inminente llegada de esta superinteligencia lo hacen con el argumento de que los avances exponenciales en IA la hacen inevitable, aunque muchos científicos somos escépticos respecto a ello. La principal razón es que esta hipótesis se basa en la continuación de un progreso exponencial y esto, claramente, no es sostenible, no es realista.
No quiero decir que no haya motivos de preocupación por el tema, sino simplemente que no vemos que sea algo imperturbable ni inminente. Y deberíamos preocuparnos urgentemente por los problemas que presenta el uso (y mal uso) de la IA actual. Esto sí que lo tenemos aquí.
¿No resultan inquietantes algunas aplicaciones como el desarrollo de una IA que predice el fallecimiento de una persona en los próximos cuatro años?
Supongo que te refieres a una investigación que salió en los medios de comunicación a finales del año pasado. Sinceramente no he leído el artículo de investigación, pero por lo que recuerdo haber leído se trataba de un ingente estudio de datos sociodemográficos que disponía de información de millones de individuos sobre su estado de salud, nivel de ingresos, hábitos de consumo, etc.
En realidad, algunas conclusiones puedo suponer que ya se conocían de otros estudios, lo que supongo es que en este caso se ha conseguido un modelo de predicción muchísimo más ajustada. En sí no creo que sea malo ni inquietante, porque puede alertar a una persona que está en riesgo y gracias a ello puede tomar consciencia y corregir sus hábitos de consumo, por ejemplo.
En todo caso, volvemos a lo tratado anteriormente, este tipo de modelos predictivos plantean un debate ético sobre su uso, debiendo entre todos decidir hacia dónde queremos que llegue la tecnología. Porque tecnologías similares para predecir comportamientos humanos ya se utilizan, por ejemplo, para rastrear nuestro comportamiento en las redes sociales, trazando perfiles extremadamente precisos y así influir en nosotros.
Las revoluciones tecnológicas nos permiten avanzar y mejorar nuestra calidad de vida, pero no están exentas de riesgos. Los desafíos que se plantean son sociales, éticos y legales. ¿Hay que establecer límites? ¿Cómo regular su uso?
La mayoría de los expertos coinciden en que, al igual que ha ocurrido en otras áreas importantes en nuestra vida, es necesario establecer un marco regulador consensuado. A medida que avanza el desarrollo de las IA se hace cada vez más evidente la necesidad de que se definan formas de regulación que velen por su desarrollo y uso, en el más amplio sentido del término: leyes, reglas, protocolos de actuación, autorregulación o sensibilización ciudadana, entre otras.
SUPERINTELIGENCIA.
Nos encontramos cerca de la llegada de máquinas guiadas por algoritmos que puedan funcionar como una mente humana
A nadie le gusta ser regulado, pero todo lo que puede entrañar un potencial peligro para la sociedad lo está. Las aplicaciones específicas de la IA deben ser también reguladas y, en algunos casos, prohibidas si fuese necesario. Hoy no podemos imaginarnos una sociedad avanzada sin una agencia como la Agencia Europea de Medicamentos, que regula y controla la producción, la distribución y el uso de los fármacos.
Lo mismo ha de plantearse en el campo de la IA para garantizar que se desarrolle de forma correcta. Los 27 Estados de la UE y la Eurocámara han alcanzado el pasado diciembre un acuerdo provisional sobre la ley europea de la IA. Pero este acuerdo trilateral entre la Comisión Europea, el Parlamento Europeo, y los gobiernos europeos, iniciado en 2021, aún debe ser ratificado y se espera que entre en vigor hacia finales de 2026, aunque algunas disposiciones podrían aplicarse antes.
¿Y en cuanto al riesgo geopolítico, que se evidencia, por ejemplo, en el uso que China hace de esta herramienta mucho más allá de los límites de la Unión Europea o Estados Unidos?
La IA en general, y las IA generativas en particular, serán una fuente de enorme poder para las empresas y los países. Y todos estamos siendo testigos de la carrera para su adopción por parte de los países, que como indicas, muchos ya están más allá de los límites de la Unión Europea, además de que el desarrollo tecnológico de la IA se ve cada vez más involucrado en la pugna entre Estados Unidos y China.
Entonces, si las IA son tan importantes, ¿cómo es que ahora mismo en Europa estamos cediendo su control a unos laboratorios privados estadounidenses? Europa necesita tener control sobre estas tecnologías –creando las suyas propias– que serán tan nucleares en el futuro de nuestra sociedad y economía.
Para Europa debe ser una prioridad ser soberana en cuanto a la IA, implicando reforzar determinados aspectos de la cadena de suministros de la IA, como es incrementar la capacidad de supercomputación a gran escala a nivel europeo para entrenar estas IA o el desarrollo de chips, piedra angular de la IA.
SUPERINTELIGENCIA.
Nos encontramos cerca de la llegada de máquinas guiadas por algoritmos que puedan funcionar como una mente humana.
_________
Fuente: