El rápido ascenso de la IA generativa ha cautivado al mundo, pero a medida que la tecnología avanza a un ritmo sin precedentes, ha surgido una crisis: la erosión de la confianza pública en la industria de la IA.
El Barómetro de Confianza Edelman 2024, una encuesta exhaustiva de más de 32.000 encuestados en 28 países, ha revelado una sorprendente disminución de la confianza global en las empresas de IA, con niveles de confianza cayendo del 61% al 53% en solo cinco años.
Estados Unidos ha experimentado una caída aún más dramática: la confianza cayó del 50% al 35% durante el mismo período. Esto trasciende las líneas políticas: los demócratas (38%), los independientes (25%) y los republicanos (24%) expresan un profundo escepticismo sobre la industria de la IA.
El sector tecnológico, que alguna vez fue muy confiable para el público, está perdiendo su brillo. Hace ocho años, la tecnología reinaba como la industria más confiable en el 90% de los países estudiados por Edelman.
Hoy, esa cifra se ha desplomado a sólo el 50%. De hecho, el sector tecnológico ha perdido su posición como la industria más confiable en mercados clave como Estados Unidos, Reino Unido, Alemania y Francia.
Cuando se trata de tecnologías específicas, los niveles de confianza son aún más preocupantes.
Mientras que el 76% de los encuestados a nivel mundial confía en las empresas de tecnología en general, sólo el 50% confía en la IA. Esta brecha de 26 puntos es aún más pronunciada en áreas como la medicina basada en genes (brecha de 23 puntos) y los alimentos genéticamente modificados (brecha de 40 puntos).
El estudio edelman También destaca una marcada división entre las naciones desarrolladas y en desarrollo en sus actitudes hacia la IA. Los encuestados de Francia, Canadá, Irlanda, el Reino Unido, Estados Unidos, Alemania, Australia, los Países Bajos y Suecia rechazan el uso creciente de la IA por un margen de tres a uno.
Por el contrario, la aceptación de la IA supera significativamente la resistencia en mercados en desarrollo como Arabia Saudita, India, China, Kenia, Nigeria y Tailandia.
¿Qué impulsa la desconfianza en la industria de la IA generativa?
Entonces, ¿qué está impulsando esta desconfianza?
A nivel mundial, las preocupaciones por la privacidad (39%), la devaluación de la humanidad (36%) y las pruebas inadecuadas (35%) encabezan la lista de barreras para la adopción de la IA.
En Estados Unidos, los temores de daño social (61%) y amenazas al bienestar personal (57%) son particularmente agudos. Curiosamente, el desplazamiento laboral se ubica cerca del final de las preocupaciones tanto a nivel mundial (22%) como en Estados Unidos (19%).
Estos hallazgos se ven reforzados aún más por un reciente Encuesta del Instituto de Políticas de IA realizado por YouGov, que encontró que un asombroso 72% de los votantes estadounidenses abogan por un desarrollo más lento de la IA, en contraste con el apenas 8% que está a favor de acelerarlo.
La encuesta también reveló que el 62% de los estadounidenses expresan aprensión acerca de la IA, eclipsando al 21% que se siente entusiasmado.
Controversias recientes, como la filtración de más de 16.000 nombres de artistas vinculado al entrenamiento de los modelos de generación de imágenes de Midjourney y revelaciones internas en Microsoft y Googleno han hecho más que aumentar la preocupación del público sobre la industria de la IA.
Si bien titanes de la industria como Sam Altman, Brad Smith y Jensen Huang están ansiosos por avanzar en el desarrollo de la IA para el “bien común”, el público no necesariamente comparte el mismo fervor.
Para reconstruir la confianza, el informe Edelman recomienda que las empresas se asocien con el gobierno para garantizar un desarrollo responsable y ganarse la confianza del público mediante pruebas exhaustivas.
Los científicos y expertos todavía tienen autoridad, pero necesitan cada vez más entablar un diálogo público. Por encima de todo, las personas quieren tener una sensación de agencia y control sobre cómo las innovaciones emergentes afectarán sus vidas.
Como afirmó acertadamente Justin Westcott, presidente de tecnología global de Edelman, “Aquellos que prioricen la IA responsable, que se asocien de manera transparente con comunidades y gobiernos, y que devuelvan el control a las manos de los usuarios, no solo liderarán la industria sino que reconstruirán el puente”. de confianza que la tecnología ha perdido en algún momento del camino”.
¿Miedo a lo desconocido?
A lo largo de la historia de la humanidad, el surgimiento de tecnologías innovadoras ha ido acompañado a menudo de una compleja interacción de fascinación, adopción y aprensión.
No hay duda de que actualmente millones de personas utilizan la IA generativa con regularidad, y las encuestas muestran que alrededor de 1/6 de las personas En las economías digitalmente avanzadas se utilizan herramientas de IA a diario, y la gran mayoría al menos las ha probado.
Estudios de industrias individuales encuentran que las personas ahorran horas diariamente usando IA generativa, lo que reduce el riesgo de agotamiento y las cargas administrativas.
Al igual que otras tecnologías, ¿la IA generativa está viendo una repetición de este ciclo de aprensión en medio de su adopción?
Consideremos, por ejemplo, la llegada de la imprenta en el siglo XV. Esta tecnología revolucionaria democratizó el acceso al conocimiento, allanó el camino para la comunicación de masas y catalizó profundos cambios sociales, políticos y religiosos.
En medio de la rápida proliferación de materiales impresos, se temía la posibilidad de que se produjera desinformación, la erosión de la autoridad y la alteración de las estructuras de poder establecidas.
De manera similar, la Revolución Industrial de los siglos XVIII y XIX trajo avances sin precedentes en la manufactura, el transporte y las comunicaciones.
La máquina de vapor, el telégrafo y el sistema fabril transformaron el tejido de la sociedad, desencadenando nuevas posibilidades de productividad y progreso. Sin embargo, estas innovaciones también generaron preocupaciones sobre el desplazamiento de trabajadores, la concentración de riqueza y poder y los efectos deshumanizadores de la mecanización.
La IA generativa quizás sea representativa de una característica desconocida y potencialmente impredecible. El miedo que lo rodea no es un fenómeno enteramente nuevo sino más bien un eco de patrones históricos que han dado forma a nuestra relación con las innovaciones transformadoras.
Esta disonancia que rodea a la IA generativa refleja una tensión más profunda entre nuestro deseo innato de progreso y nuestro miedo a lo desconocido.
Los seres humanos nos sentimos atraídos por la novedad y el potencial de las nuevas tecnologías, pero también lidiamos con la incertidumbre y los riesgos que conllevan.
En su obra maestra “El ser y la nada” (1943), el filósofo francés Jean-Paul Sartre explora el concepto de “mala fe”, una forma de autoengaño en la que los individuos niegan su propia responsabilidad ante la ansiedad existencial.
En el contexto de la IA generativa, la adopción generalizada de la tecnología, a pesar de la creciente desconfianza, puede verse como una forma de mala fe, una forma de aprovechar los beneficios de la IA y al mismo tiempo evitar las difíciles cuestiones y los dilemas éticos que plantea.
Además, el ritmo y la escala del desarrollo de la IA generativa amplifican la disonancia entre adopción y desconfianza.
A diferencia de revoluciones tecnológicas anteriores que se desarrollaron a lo largo de décadas o siglos, el auge de la IA se está produciendo a una velocidad sin precedentes, superando nuestra capacidad para comprender sus implicaciones y desarrollar plenamente marcos de gobernanza adecuados.
Este rápido avance ha dejado a muchos con una sensación de vértigo, como si el suelo bajo sus pies se estuviera moviendo más rápido de lo que pueden adaptarse. También ha expuesto las limitaciones de nuestras estructuras legales, éticas y sociales existentes, que luchan por seguir el ritmo del poder transformador de la IA.
Debemos trabajar para crear un futuro en el que los beneficios de esta tecnología se realicen de una manera que defienda nuestros valores, proteja nuestros derechos y promueva el bien común.
El desafío es que “el bien común” es algo de inmensa subjetividad y oscuridad. Es una frase que empresas como OpenAI utilizan con frecuencia y tiene un tono dictatorial ligeramente desconcertante.
En cualquier caso, guiar la IA generativa hacia ese objetivo exigirá un diálogo abierto y honesto, la voluntad de afrontar cuestiones difíciles y el compromiso de construir puentes de comprensión y confianza.
El sistema legal también debe adaptarse para allanar el camino para un desarrollo justo y transparente de la IA que se aleje de esta era del Salvaje Oeste de extracción de datos y abuso de propiedad intelectual.
Entonces, podríamos ver que la confianza comienza a aumentar.