OPINIÓN Nadie en la ficción. guerra de las galaxias El universo se toma en serio la IA. En la histórica línea de tiempo humana de la franquicia de ciencia-fantasía de 47 años de George Lucas, las amenazas de las singularidades y la conciencia del aprendizaje automático están ausentes, y la IA está confinada a robots móviles autónomos (‘droides’) – que habitualmente son descartados por los protagonistas como meras “máquinas”.
Sin embargo, la mayoría de los guerra de las galaxias Los robots son altamente antropomórficos, claramente diseñados para relacionarse con la gente, participar en una cultura “orgánica” y utilizar sus simulacros de estado emocional para vincularse con la gente. Aparentemente, estas capacidades están diseñadas para ayudarlos a obtener alguna ventaja para sí mismos, o incluso para asegurar su propia supervivencia.
La gente “real” de guerra de las galaxias parecen acorralados ante estas tácticas. En un modelo cultural cínico aparentemente inspirado en las diversas épocas de esclavitud en el imperio romano y los primeros Estados Unidos, Luke Skywalker no duda en comprar y restringir robots en el contexto de los esclavos; el niño Anakin Skywalker abandona su proyecto C3PO a medio terminar como si fuera un juguete no querido; y, casi muerto por el daño sufrido durante el ataque a la Estrella de la Muerte, el ‘valiente’ R2D2 recibe de Luke la misma preocupación que una mascota herida.
Esta es una versión muy de la década de 1970 de la inteligencia artificial*; pero dado que la nostalgia y el canon dictan que la trilogía original de 1977-83 sigue siendo un modelo para las secuelas, precuelas y programas de televisión posteriores, esta insensibilidad humana hacia la IA ha sido un hilo conductor resistente para la franquicia, incluso frente a una creciente lista de programas de televisión y películas (como Su y ex machina) que representan nuestro descenso a una relación antropomórfica con la IA.
Mantenlo real
hacer lo organico guerra de las galaxias ¿Los personajes realmente tienen la actitud correcta? No es un pensamiento popular en este momento, en un clima de negocios empeñado en lograr el máximo compromiso con los inversionistas, generalmente a través de demostraciones virales de simulación visual o textual del mundo real, o de sistemas interactivos similares a los humanos, como los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés). ).
No obstante, un nuevo y breve artículo de Stanford, Carnegie Mellon y Microsoft Research apunta a la indiferencia en torno al antropomorfismo en la IA.
Los autores caracterizan la percepción de “polinización cruzada” entre las comunicaciones humanas y artificiales como un daño potencial que debe mitigarse urgentemente, por varias razones. †:
‘(Nosotros) creemos que debemos hacer más para desarrollar el conocimiento y las herramientas para abordar mejor el comportamiento antropomórfico, incluida la medición y mitigación de dichos comportamientos del sistema cuando se consideran indeseables.
“Hacerlo es fundamental porque, entre muchas otras preocupaciones, tener sistemas de IA que generen contenido que afirme tener, por ejemplo, sentimientos, comprensión, libre albedrío o un sentido subyacente de uno mismo, puede erosionar el sentido de agencia de las personas, con el resultado de que las personas podrían terminar atribuir responsabilidad moral a los sistemas, sobreestimar las capacidades del sistema o confiar demasiado en estos sistemas incluso cuando sean incorrectos.
Los contribuyentes aclaran que están discutiendo sistemas que son percibido parecerse a un ser humano y se centra en el potencial intención de los desarrolladores para fomentar el antropomorfismo en los sistemas de máquinas.
La preocupación central del breve artículo es que las personas puedan desarrollar dependencia emocional de los sistemas basados en inteligencia artificial (como se describe en un estudio de 2022 sobre la plataforma de chatbot de inteligencia artificial Replika), que ofrece activamente un facsímil de comunicaciones humanas rico en lenguaje.
Sistemas como Replika son el objetivo de la cautela de los autores, y señalan que otro artículo de 2022 sobre Replika afirmaba:
‘(En) condiciones de angustia y falta de compañía humana, las personas pueden desarrollar un apego a los chatbots sociales si perciben que las respuestas de los chatbots ofrecen apoyo emocional, aliento y seguridad psicológica.
“Estos hallazgos sugieren que los chatbots sociales pueden usarse con fines terapéuticos y de salud mental, pero tienen el potencial de causar adicción y dañar las relaciones íntimas en la vida real”.
¿Lenguaje desantropomorfizado?
El nuevo trabajo sostiene que el potencial de la IA generativa para ser antropomorfizada no puede establecerse sin estudiar los impactos sociales de tales sistemas hasta la fecha, y que esta es una búsqueda descuidada en la literatura.
Parte del problema es que el antropomorfismo es difícil de definir, ya que se centra principalmente en el lenguaje, una función humana. El desafío reside, por tanto, en definir cómo suena o luce exactamente el lenguaje “no humano”.
Irónicamente, aunque el artículo no aborda este tema, la desconfianza pública hacia la IA está provocando cada vez más que la gente rechace el contenido de texto generado por IA que pueda parecer plausiblemente humano, e incluso que rechace el contenido humano que deliberadamente está mal etiquetado como IA.
Por lo tanto, podría decirse que el contenido “deshumanizado” ya no cae dentro del meme “No computa”, en el que el lenguaje se construye torpemente y se genera claramente por una máquina.
Más bien, la definición evoluciona constantemente en el ámbito de la detección de IA, donde (al menos actualmente) el lenguaje excesivamente claro o el uso de ciertas palabras (como “Ahondar’) puede provocar una asociación con el texto generado por IA.
«El (l)lenguaje, al igual que otros objetivos de los sistemas GenAI, es en sí mismo innatamente humano, ha sido producido durante mucho tiempo por y para humanos y, a menudo, también trata sobre humanos. Esto puede dificultar la especificación de conductas alternativas apropiadas (menos humanas) y corre el riesgo, por ejemplo, de cosificar nociones dañinas sobre qué lenguaje (y de quién) se considera más o menos humano.’
Sin embargo, los autores sostienen que se debe establecer una línea de demarcación clara para los sistemas que descaradamente se tergiversan, afirmando aptitudes o experiencia que sólo son posibles para los humanos.
Citan casos como los de LLM que afirman “amar la pizza”; reivindicar la experiencia humana en plataformas como Facebook; y declarar amor a un usuario final.
Señales de advertencia
El artículo plantea dudas contra el uso de revelaciones generales sobre si una comunicación es facilitada o no por el aprendizaje automático. Los autores argumentan que sistematizar tales advertencias no contextualiza adecuadamente el efecto antropomorfizante de las plataformas de IA, si el resultado en sí continúa mostrando rasgos humanos.†:
‘Por ejemplo, una intervención comúnmente recomendada es incluir en el resultado del sistema de IA una divulgación de que el resultado es generado por un (sistema) de IA. Puede que no siempre esté claro cómo poner en práctica tales intervenciones en la práctica y si pueden ser efectivas por sí solas.
‘Por ejemplo, si bien el ejemplo “(para) una IA como yo, la felicidad no es la misma que para un humano como (tú)” incluye una revelación, aún puede sugerir un sentido de identidad y capacidad para autoevaluarse ( rasgos humanos comunes).’
Con respecto a la evaluación de las respuestas humanas sobre los comportamientos del sistema, los autores también sostienen que el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) no tiene en cuenta la diferencia entre una respuesta apropiada para un humano y una IA.†.
“(Una) declaración que parece amigable o genuina por parte de un hablante humano puede ser indeseable si surge de un sistema de inteligencia artificial, ya que este último carece de un compromiso o intención significativo detrás de la declaración, lo que hace que la declaración sea hueca y engañosa”.
Se ilustran otras preocupaciones, como la forma en que el antropomorfismo puede influir en las personas para que crean que un sistema de IA ha adquirido “sensibilidad” u otras características humanas.
Quizás la sección final más ambiciosa del nuevo trabajo es la afirmación de los autores de que la comunidad de investigación y desarrollo pretende desarrollar una terminología “apropiada” y “precisa”, para establecer los parámetros que definirían un sistema de IA antropomórfico y lo distinguirían de otros. discurso humano del mundo real.
Como ocurre con tantas áreas de tendencia en el desarrollo de la IA, este tipo de categorización se extiende a las corrientes literarias de la psicología, la lingüística y la antropología. Es difícil saber qué autoridad actual podría realmente formular definiciones de este tipo, y los investigadores del nuevo artículo no arrojan ninguna luz sobre este asunto.
Si existe inercia comercial y académica en torno a este tema, podría atribuirse en parte al hecho de que está lejos de ser un nuevo tema de discusión en la investigación de la inteligencia artificial: como señala el artículo, en 1985 el difunto científico informático holandés Edsger Wybe Dijkstra describió El antropomorfismo como una tendencia “perniciosa” en el desarrollo del sistema.
‘El pensamiento antropomórfico no es bueno en el sentido de que no ayuda. ¿Pero también es malo? Sí, lo es, porque incluso si podemos señalar alguna analogía entre el Hombre y la Cosa, la analogía es siempre insignificante en comparación con las diferencias, y tan pronto como nos dejamos seducir por la analogía para describir la Cosa en terminología antropomórfica , inmediatamente perdemos el control sobre qué connotaciones humanas arrastramos a la imagen.
‘…Pero la confusión (entre el hombre y la máquina) tiene un impacto mucho más amplio de lo que podría sospechar. (No) se trata sólo de que la pregunta “¿Pueden pensar las máquinas?” se plantea periódicamente; Podemos —y debemos— abordar esto señalando que es tan relevante como la pregunta igualmente candente: “¿Pueden nadar los submarinos?”.
Sin embargo, aunque el debate es antiguo, sólo recientemente ha adquirido gran relevancia. Se podría argumentar que la contribución de Dijkstra equivale a la especulación victoriana sobre los viajes espaciales, como puramente teórica y a la espera de desarrollos históricos.
Por lo tanto, este cuerpo de debate bien establecido puede dar al tema una sensación de cansancio, a pesar de su potencial de relevancia social significativa en los próximos 2 a 5 años.
Conclusión
Si pensáramos en los sistemas de IA de la misma manera desdeñosa como en los sistemas orgánicos guerra de las galaxias Si los personajes tratan a sus propios robots (es decir, como motores de búsqueda ambulatorios o meros transmisores de funcionalidad mecanicista), podríamos decir que correríamos menos riesgo de habituar estas características socialmente indeseables a nuestras interacciones humanas, porque estaríamos viendo los sistemas de una manera completamente diferente. contexto no humano.
En la práctica, el entrelazamiento del lenguaje humano con el comportamiento humano hace que esto sea difícil, si no imposible, una vez que una consulta se expande desde el minimalismo de un término de búsqueda de Google al rico contexto de una conversación.
Además, el sector comercial (así como el sector publicitario) está fuertemente motivado a crear plataformas de comunicación adictivas o esenciales, para la retención y el crecimiento de los clientes.
En cualquier caso, si los sistemas de inteligencia artificial realmente responden mejor a las preguntas educadas que a los interrogatorios sencillos, el contexto también puede resultarnos forzado por esa razón.
* Incluso en 1983, el año en que la entrada final en el original guerra de las galaxias fue lanzado, los temores en torno al crecimiento del aprendizaje automático habían llevado al apocalíptico Juegos de guerray la inminente terminador franquicia.
† Cuando fue necesario, convertí las citas en línea de los autores en hipervínculos y, en algunos casos, omití algunas de las citas para facilitar la lectura.
Publicado por primera vez el lunes 14 de octubre de 2024