Tanto la incapacidad de distinguir los hechos de la ficción como la atadura inductiva a los patrones de datos existentes son problemas que pueden aliviarse mediante programación, pero que están abiertos a la manipulación.
Alambre Mises•
Por Bylund
La inteligencia artificial (IA) no puede distinguir la realidad de la ficción. Tampoco es creativo ni puede crear contenido novedoso, sino que repite, reempaqueta y reformula lo que ya se ha dicho (pero quizás de maneras nuevas).
Estoy seguro de que alguien no estará de acuerdo con esto último, tal vez señalando el hecho de que la IA claramente puede generar, por ejemplo, nuevas canciones y letras. Estoy de acuerdo con esto, pero no tiene sentido. La IA produce una letra de canción “nueva” solo a partir de los datos de letras de canciones anteriores y luego usa esa información (los patrones descubiertos inductivamente en ella) para generar lo que a nosotros nos parece una nueva canción (y bien podría serlo). . Sin embargo, no hay arte ni creatividad en ello. Es sólo una repetición estructural de lo que existe.
Por supuesto, podemos debatir hasta qué punto los humanos pueden tener pensamientos verdaderamente novedosos y si el aprendizaje humano puede basarse única o principalmente en el mimetismo. Sin embargo, incluso si estuviéramos de acuerdo, a modo de argumento, en que todo lo que sabemos y hacemos es mera reproducción, los humanos tenemos una capacidad limitada para recordar exactamente y cometeremos errores. También llenamos los vacíos con lo que subjetivamente (no objetivamente) tiene sentido para nosotros (¿alguien quiere la prueba de Rorschach?). Incluso en este escenario tan limitado, con el que no estoy de acuerdo, los humanos generan novedades más allá de lo que la IA es capaz de hacer.
Tanto la incapacidad de distinguir los hechos de la ficción como la atadura inductiva a los patrones de datos existentes son problemas que pueden aliviarse mediante programación, pero que están abiertos a la manipulación.
Manipulación y propaganda
Cuando Google lanzó su Gemini AI en febrero, inmediatamente quedó claro que la IA tenía una agenda despierta. Entre otras cosas, la IA impulsó los ideales de la diversidad en cada respuesta imaginable y, entre otras cosas, se negó a mostrar imágenes de personas blancas (incluso cuando se le pidió que produjera imágenes de los Padres Fundadores).
El gurú tecnológico e inversor de Silicon Valley, Marc Andreessen, lo resumió en X (anteriormente Twitter): “Sé que es difícil de creer, pero la IA de las grandes tecnologías genera el resultado que genera porque ejecuta precisamente la agenda ideológica, radical y sesgada específica de sus creadores. . La salida aparentemente extraña es 100% intencionada. Está funcionando según lo diseñado”.
De hecho, existe un diseño para estas IA más allá de la categorización básica y los motores de generación. Las respuestas no son perfectamente inductivas o generativas. En parte, esto es necesario para que la IA sea útil: se aplican filtros y reglas para garantizar que las respuestas que genera la IA sean apropiadas, se ajusten a las expectativas del usuario y sean precisas y respetuosas. Dada la situación legal, los creadores de IA también deben asegurarse de que la IA no viole, por ejemplo, las leyes de propiedad intelectual ni incurra en discursos de odio. La IA también está diseñada (dirigida) para que no se vuelva loca ni ofenda a sus usuarios (¿recuerdas a Tay ?).
Sin embargo, como se aplican dichos filtros y el “comportamiento” de la IA ya está dirigido, es fácil ir un poco más allá. Después de todo, ¿cuándo una respuesta es demasiado ofensiva versus ofensiva pero dentro de los límites del discurso permitido? Es una línea fina y difícil que debe especificarse mediante programación.
También abre la posibilidad de dirigir las respuestas generadas más allá del mero control de calidad. Con los filtros ya implementados, es fácil hacer que la IA haga declaraciones de un tipo específico o que impulse al usuario en una dirección determinada (en términos de hechos, interpretaciones y visiones del mundo seleccionados). También se puede utilizar para darle una agenda a la IA, como sugiere Andreessen, como hacer que se despierte implacablemente.
Por lo tanto, la IA puede utilizarse como una herramienta de propaganda eficaz, que tanto las corporaciones que la crean como los gobiernos y agencias que las regulan han reconocido.
Desinformación y error
Los Estados se han negado durante mucho tiempo a admitir que se benefician de la propaganda y la utilizan para dirigir y controlar a sus súbditos. Esto se debe en parte a que quieren mantener un barniz de legitimidad como gobiernos democráticos que gobiernan basándose en (en lugar de moldear) las opiniones de la gente. La propaganda suena mal; es un medio de control.
Sin embargo, se dice que los enemigos del Estado (tanto nacionales como extranjeros) comprenden el poder de la propaganda y no dudan en utilizarla para causar caos en nuestra sociedad democrática, que de otro modo estaría intacta. El gobierno debe salvarnos de tal manipulación, afirman. Por supuesto, rara vez se limita a la mera defensa. Vimos esto claramente durante la pandemia de covid, en la que el gobierno, junto con las empresas de redes sociales, prohibió de hecho expresar opiniones que no fueran la línea oficial (ver Murthy v. Missouri ).
La IA es tan fácil de manipular con fines propagandísticos como los algoritmos de las redes sociales, pero con la ventaja adicional de que no se trata sólo de las opiniones de las personas y de que los usuarios tienden a confiar en que lo que informa la IA es cierto. Como vimos en el artículo anterior sobre la revolución de la IA, esta no es una suposición válida, pero, no obstante, es una opinión ampliamente extendida.
Si entonces se puede ordenar a la IA que no comente ciertas cosas que los creadores (o reguladores) no quieren que la gente vea o aprenda, entonces efectivamente se le “agujera la memoria”. Este tipo de información “no deseada” no se difundirá porque la gente no estará expuesta a ella, como mostrar sólo diversas representaciones de los Padres Fundadores (como Géminis de Google) o presentar, por ejemplo, sólo verdades macroeconómicas keynesianas para que parezca que están ahí. No hay otra perspectiva. La gente no sabe lo que no sabe.
Por supuesto, nada quiere decir que lo que se presenta al usuario sea cierto. De hecho, la IA en sí no puede distinguir los hechos de la verdad, sino que sólo genera respuestas según la dirección y basándose únicamente en lo que la IA haya recibido. Esto deja mucho margen para la tergiversación de la verdad y puede hacer que el mundo crea mentiras descaradas. Por lo tanto, la IA puede utilizarse fácilmente para imponer control, ya sea sobre un Estado, los súbditos bajo su gobierno o incluso una potencia extranjera.
La verdadera amenaza de la IA
¿Cuál es entonces la verdadera amenaza de la IA? Como vimos en el primer artículo , los grandes modelos de lenguaje no evolucionarán (no pueden) evolucionar hacia una inteligencia artificial general, ya que no hay nada sobre el cribado inductivo de grandes cantidades de información creada (humanamente) que dará lugar a la conciencia. Para ser franco, ni siquiera hemos descubierto qué es la conciencia, por lo que pensar que la crearemos (o que de alguna manera surgirá de algoritmos que descubran correlaciones lingüísticas estadísticas en textos existentes) es bastante hiperbólico. La inteligencia artificial general sigue siendo hipotética.
Como vimos en el segundo artículo , la IA tampoco supone una amenaza económica. No hará que los humanos sean económicamente superfluos ni provocará un desempleo masivo. La IA es capital productivo y, por tanto, tiene valor en la medida en que sirve a los consumidores contribuyendo a la satisfacción de sus necesidades. La IA mal utilizada es tan valiosa como una fábrica mal utilizada: cuidará de su valor residual. Sin embargo, esto no significa que la IA no tendrá ningún impacto en la economía. Lo será, y ya lo ha sido, pero no es tan grande en el corto plazo como algunos temen, y probablemente sea mayor en el largo plazo de lo que esperamos.
No, la verdadera amenaza es el impacto de la IA en la información. Esto se debe en parte a que la inducción es una fuente inapropiada de conocimiento: la verdad y los hechos no son una cuestión de frecuencia o probabilidades estadísticas. Las evidencias y teorías de Nicolás Copérnico y Galileo Galilei serían descartadas como improbables (falsas) por una IA entrenada en todos los (mejores y más brillantes) escritos sobre geocentrismo de la época. No hay progreso ni aprendizaje de nuevas verdades si confiamos únicamente en teorías históricas y presentaciones de hechos.
Sin embargo, este problema probablemente pueda superarse mediante una programación inteligente (es decir, implementando reglas (y limitaciones basadas en hechos) para el problema de inducción), al menos hasta cierto punto. El mayor problema es la corrupción de lo que presenta la IA: la desinformación, la desinformación y la mala información que sus creadores y administradores, así como los gobiernos y grupos de presión, le ordenan crear como medio para controlar o dirigir la opinión pública o el conocimiento.
Este es el peligro real que señalaba la ahora famosa carta abierta , firmada por Elon Musk, Steve Wozniak y otros: “¿ Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos en número, ser más astutas, quedar obsoletas y reemplazarnos? ¿ Deberíamos arriesgarnos a perder el control de nuestra civilización?
Aparte de la referencia económicamente analfabeta de “automatizar todos los puestos de trabajo”, la advertencia está bien tomada. La IA no comenzará a odiarnos como Terminator e intentará exterminar a la humanidad. No nos convertirá a todos en baterías biológicas, como en The Matrix . Sin embargo, (especialmente cuando está corrupto) nos desinformará y engañará, creará caos y potencialmente hará que nuestras vidas sean “solitarias, pobres, desagradables, brutales y cortas”.
_____________
Fuente: