La humanidad se enfrenta a un futuro "catastrófico" si no regulamos la IA
Uno de los creadores del aprendizaje automático sostiene que la IA es un riesgo real para la supervivencia humana
Una IA “superinteligente”, consciente e independiente sería un peligro concreto para nuestra civilización, según uno de los expertos más importantes a nivel global
El rápido desarrollo de los sistemas de IA hace reflexionar a los especialistas sobre el control de sus potenciales riesgos. / Crédito: Ralph/Altrip/Germany en Pixabay.
Pablo Javier Piacente
La humanidad se enfrenta a un futuro "catastrófico" si no regulamos la IA, según uno de los "padres" de los sistemas de aprendizaje automático. Yoshua Bengio, que jugó un papel crucial en el desarrollo de los esquemas de aprendizaje automático que se utilizan en la actualidad, sostiene ahora que la Inteligencia Artificial (IA) podría representar un riesgo existencial para la humanidad, siempre y cuando su desarrollo no sea controlado y conducido adecuadamente para el progreso de nuestra civilización y del planeta en general.
Yoshua Bengio, junto con el científico jefe de IA de Meta, Yann LeCun, y el ex-investigador de IA de Google, Geoffrey Hinton, se hizo acreedor en 2018 del Premio Turing, algo así como el "Nobel" de la informática, por sus contribuciones en el campo de la creación de redes neuronales artificiales y algoritmos de aprendizaje profundo. En función de estos antecedentes, es considerado actualmente uno de los “padres” del aprendizaje automático, uno de los pilares de la Inteligencia Artificial (IA), ya que posibilita que los sistemas vayan aprendiendo e incorporando conocimientos con el paso del tiempo y el trabajo de entrenamiento.
¿Resultados catastróficos?
Ahora, en el marco del evento “HowTheLightGetsIn Festival 2024”, en Londres, Bengio dejó interesantes conclusiones sobre el posible futuro de la IA en una entrevista con Live Science. Entre otros aspectos, indicó que sistemas de Inteligencia Artificial “superinteligentes” y que alcancen algún tipo de consciencia e independencia podrían convertirse en un riesgo real y concreto para la supervivencia de nuestra civilización. Como ya hemos indicado en otros artículos, algunos especialistas adhieren a esta visión, mientras que otros no ven que la IA pueda transformarse en un peligro para el ser humano.
“Es difícil ir en contra de tu propia iglesia, pero si piensas racionalmente sobre las cosas, no hay manera de negar la posibilidad de resultados catastróficos cuando alcancemos un nivel determinado en el progreso de la IA. Entiendo que hay escenarios previos que son malos, pero también pienso que podremos resolverlo”, indicó Bengio en referencia a la necesidad de controlar a la IA para que su desarrollo vaya en línea con el bien común y el progreso humano.
Máquinas asesinas o dictadura global
“Si miras más adelante, cuando alcancemos el nivel de superinteligencia, existen dos riesgos principales. El primero es la pérdida del control humano: si las máquinas superinteligentes tienen un objetivo de autoconservación, su propósito podría ser destruir a la humanidad para que no podamos apagarlas. El otro peligro, si el primer escenario de alguna manera no sucede, es que algunos humanos usen el poder de la IA para tomar el control de toda la humanidad en una especie de “dictadura mundial”. Pueden existir versiones más acotadas y en un espectro concreto de ese escenario, pero este tipo de tecnología le dará un gran poder a quien la controle”, reflexionó Bengio.
Según un artículo publicado en Gzero, la gran preocupación de Bengio son los incentivos que se priorizan en este momento de comercialización exacerbada de los sistemas de IA. Desde ejecutivos de corporaciones que potencialmente minimizan el riesgo y exageran la capacidad de la industria para contenerlo, hasta los laboratorios de investigación académica donde la mayoría del trabajo se centra actualmente en hacer que la IA sea más poderosa, pero no más segura al mismo tiempo. Para Bengio y muchos otros expertos en el tema, esta es una advertencia real a la que es imprescindible prestar atención.
04 OCT 2024 19:04
En este episodio de GZERO AI, Taylor Owen , presentador del podcast Machines Like Us, reflexiona sobre el creciente entusiasmo en torno a la inteligencia artificial. En una reciente conferencia sobre IA a la que asistió, Owen observa que, si bien las empresas emergentes y los funcionarios enfatizaron el potencial económico de la IA, el destacado investigador de IA Yoshua Bengio expresó serias preocupaciones sobre sus riesgos existenciales. Bengio, quien es crucial para el desarrollo de la tecnología, enfatiza la importancia de una política pública cautelosa y advierte que la investigación actual sobre IA tiende a priorizar el poder sobre la seguridad.
Hace un par de semanas, estuve en una gran conferencia sobre IA en Montreal llamada All In. Todo era un poco exagerado. Había máquinas de humo, música a todo volumen y puestos de comida. Está claro que la IA ha recorrido un largo camino desde los silenciosos laboratorios en los que se desarrolló. Todavía soy escéptico con respecto a parte del bombo publicitario en torno a la IA, pero no hay duda de que estamos en un momento de gran entusiasmo. Había docenas de fundadores de empresas emergentes allí hablando de cómo la IA iba a transformar esta o aquella industria, y funcionarios del gobierno prometiendo que la IA iba a impulsar nuestra economía.
Y luego estaba Yoshua Bengio. Bengio es considerado uno de los científicos informáticos más influyentes del mundo. En 2018, él y dos colegas ganaron el premio Turing, el premio Nobel de Informática, por su trabajo sobre aprendizaje profundo, que constituye la base de muchos de nuestros modelos actuales de IA. En 2022, fue el científico informático más citado del mundo. Es realmente seguro decir que la IA, tal como la conocemos actualmente, podría no existir sin Yoshua Bengio.
Recientemente tuve la oportunidad de hablar con Bengio para mi podcast, "Máquinas como nosotros". Quería saber qué piensa sobre la IA en la actualidad, sobre el momento actual en el que nos encontramos, y aprendí tres cosas realmente interesantes. En primer lugar, Bengio tuvo una especie de epifanía, como se ha comentado ampliamente en los medios. Bengio ahora cree que, si no se controla, la IA tiene el potencial de representar una amenaza existencial para la humanidad. Por eso nos pregunta, incluso si hay una pequeña posibilidad de que esto suceda, ¿por qué no proceder con mucha cautela?
En segundo lugar, Bengio cree que la división que parece existir en la comunidad científica sobre este riesgo existencial se está exagerando. Por ejemplo, él y Yann LeCun, de Meta, con quien ganó el premio Turing, difieren en cuanto al marco temporal de este riesgo y la capacidad de la industria para contenerlo. Pero Bengio sostiene que están de acuerdo en que es posible que ocurra. Y, en su opinión, es esta posibilidad la que debería generar claridad en nuestras políticas públicas. Si no hay certeza sobre el riesgo, cree que debería prevalecer el principio de precaución, en particular cuando el riesgo es potencialmente tan grave.
En tercer lugar, y de manera realmente interesante, le preocupan los incentivos que se priorizan en este momento de comercialización de la IA. Esto se extiende desde ejecutivos como LeCun que posiblemente minimicen el riesgo y exageren la capacidad de la industria para contenerlo, hasta los laboratorios de investigación académica donde la mayor parte del trabajo se centra actualmente en hacer que la IA sea más poderosa, no más segura. Esta es una verdadera advertencia que creo que debemos tener en cuenta. No hay duda de que la investigación de Yoshua Bengio contribuyó en gran medida al momento actual de la IA en el que nos encontramos, pero espero que su trabajo sobre el riesgo y la seguridad dé forma al próximo. Soy Taylor Owen y gracias por ver el vídeo. Fuente: https://www.gzeromedia.com/gzero-ai/gzero-ai-video/ais-existential-risks-why-yoshua-bengio-is-warning-the-world
____________
Fuente: