Ese famoso dicho: “Cuanto más sabemos, más no sabemos”, ciertamente suena cierto para la IA.
Cuanto más aprendemos sobre la IA, menos sabemos con certeza.
Los expertos y líderes de la industria a menudo se encuentran en desacuerdo sobre dónde se encuentra ahora la IA y hacia dónde se dirige. No logran ponerse de acuerdo sobre conceptos aparentemente elementales como la inteligencia de las máquinas, la conciencia y la seguridad.
¿Superarán algún día las máquinas el intelecto de sus creadores humanos? ¿Se está acelerando el avance de la IA hacia una singularidad tecnológica o estamos en la cúspide de un invierno de IA?
Y quizás lo más importante es ¿cómo podemos garantizar que el desarrollo de la IA siga siendo seguro y beneficioso cuando los expertos no pueden ponerse de acuerdo sobre lo que depara el futuro?
La IA está inmersa en una niebla de incertidumbre. Lo mejor que podemos hacer es explorar perspectivas y llegar a puntos de vista informados pero fluidos para una industria en constante cambio.
Primer debate: inteligencia artificial
Con cada nueva generación de modelos de IA generativa surge un renovado debate sobre la inteligencia artificial.
Elon Musk alimentó recientemente el debate sobre la inteligencia artificial cuando dijo: “La IA probablemente será más inteligente que cualquier ser humano el próximo año. Para 2029, la IA probablemente será más inteligente que todos los humanos juntos”.
La IA probablemente será más inteligente que cualquier ser humano el próximo año. Para 2029, la IA probablemente será más inteligente que todos los humanos juntos. https://t.co/RO3g2OCk9x
– Elon Musk (@elonmusk) 13 de marzo de 2024
Musk fue inmediatamente cuestionado por el científico jefe de IA y eminente investigador de IA de Meta, Yann LeCun, quien dijo: “No. Si fuera así, tendríamos sistemas de IA que podrían aprender por sí solos a conducir un coche en 20 horas de práctica, como cualquier joven de 17 años. Pero todavía no tenemos una conducción autónoma totalmente autónoma y confiable, a pesar de que nosotros (ustedes) tenemos millones de horas de datos de entrenamiento *etiquetados*”.
No.
Si fuera así, tendríamos sistemas de IA que podrían aprender por sí solos a conducir un coche en 20 horas de práctica, como cualquier joven de 17 años.Pero todavía no contamos con una conducción autónoma totalmente autónoma y confiable, a pesar de que nosotros (ustedes) tenemos millones de horas de datos de entrenamiento *etiquetados*.
—Yann LeCun (@ylectun) 14 de marzo de 2024
Esta conversación no es más que un microcosmos de un vacío ambiguo en opinión de los expertos y líderes de IA.
Es una conversación que conduce a una espiral interminable de interpretaciones con poco consensocomo lo demuestran las opiniones tremendamente contrastantes de tecnólogos influyentes durante el último año (información de Improvement the News):
- Geoffrey Hinton: La “inteligencia digital” podría superarnos en “5 a 20 años”.
- Yann LeCun: Es más probable que la sociedad obtenga una IA “a nivel de gato” o “a nivel de perro” años antes que la IA a nivel humano.
- Demis Hassabis: Es posible que logremos “algo como AGI o similar a AGI en la próxima década”.
- Gary Marcos: “Eventualmente alcanzaremos AGI… y muy posiblemente antes de finales de este siglo”.
- Geoffrey Hinton: “La IA actual como GPT-4 “eclipsa a una persona” en conocimiento general y pronto podría hacerlo también en razonamiento.
- Geoffrey Hinton: La IA está “muy cerca de eso ahora” y será “mucho más inteligente que nosotros en el futuro”.
- Elon Musk: “Tendremos, por primera vez, algo que será más inteligente que el ser humano más inteligente”.
- Elon Musk: “Me sorprendería que no tuviéramos AGI para (2029)”.
- Sam Altman: “Podríamos llegar a un AGI real en la próxima década”.
- Josué Bengio: Las “IA sobrehumanas” se lograrán “entre unos años y un par de décadas”.
- Dario Amodei: La IA “a nivel humano” podría ocurrir en “dos o tres años”.
- Sam Altman: La IA podría superar el “nivel de habilidad experta” en la mayoría de los campos dentro de una década.
- Gary Marcos: “No creo que estemos tan cerca de máquinas que sean más inteligentes que nosotros”.
Los principales líderes de la IA no están de acuerdo sobre cuándo la IA superará a la inteligencia humana. 2 o 100 años – ¿qué piensas *tú*? @ylecun @GaryMarcus @geoffreyhinton @Lo mismo https://t.co/59t8cKw5p5
-Max Tegmark (@tegmark) 18 de marzo de 2024
Ningún partido tiene razón o no de manera inequívoca en el debate sobre la inteligencia artificial. Depende de la interpretación subjetiva que cada uno haga de la inteligencia y de cómo los sistemas de IA se comparan con esa definición.
Los pesimistas pueden señalar los riesgos potenciales y las consecuencias no deseadas de la IA, enfatizando la necesidad de actuar con cautela. Sostienen que a medida que los sistemas de IA se vuelven más autónomos y poderosos, podrían desarrollar objetivos y comportamientos desalineados con los valores humanos, lo que conduciría a resultados catastróficos.
Por el contrario, los optimistas pueden centrarse en el potencial transformador de la IA, imaginando un futuro en el que las máquinas trabajen junto con los humanos para resolver problemas complejos e impulsar la innovación. Es posible que minimicen los riesgos, argumentando que las preocupaciones sobre la IA superinteligente son en gran medida hipotéticas y que los beneficios superan los riesgos.
El quid de la cuestión reside en la dificultad de definir y cuantificar la inteligencia, especialmente cuando se comparan entidades tan dispares como los humanos y las máquinas.
Por ejemplo, incluso un La mosca tiene circuitos neuronales avanzados y puede evadir con éxito nuestros intentos de aplastarla o atraparla, superándonos en este estrecho dominio. Este tipo de comparaciones son potencialmente ilimitadas.
Elija sus ejemplos de inteligencia y todos podrán tener razón o no.
Segundo debate: ¿la IA se está acelerando o desacelerando?
¿El avance de la IA se acelerará o se estabilizará y desacelerará?
Algunos argumentan que estamos en medio de una revolución de la IA, con avances que avanzan a pasos agigantados. Otros sostienen que el progreso se ha estancado y que el campo enfrenta desafíos trascendentales que podrían frenar la innovación en los próximos años.
La IA generativa es la culminación de décadas de investigación y miles de millones en financiación. Cuando ChatGPT aterrizó en 2022, la tecnología ya había alcanzado un alto nivel en los entornos de investigación, poniendo el listón muy alto y arrojando a la sociedad al fondo.
El revuelo resultante también generó una inmensa financiación para nuevas empresas de IA, desde Anthropic hasta Inflection y Stability AI hasta MidJourney.
Esto, combinado con enormes esfuerzos internos de los veteranos de Silicon Valley Meta, Google, Amazon, Nvidia y Microsoft, resultó en una rápida proliferación de herramientas de inteligencia artificial. GPT-3 se transformó rápidamente en el peso pesado GPT-4. Mientras tanto, a los competidores como los LLM les gusta claudio 3 Opus, Grok de xAI y Mistraly los modelos de código abierto de Meta también han dejado su huella.
Algunos expertos y tecnólogos, como Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis y Elon Musk, consideran que la aceleración de la IA apenas ha comenzado.
Musk dijo que la IA generativa era como “despertar al demonio”, mientras que Altman dijo que el control mental de la IA era inminente (lo que Musk ha demostrado con avances recientes en la tecnología). enlace neuronal; (ver más abajo cómo un hombre jugó una partida de ajedrez sólo con el pensamiento).
Por otro lado, expertos como Gary Marcus y Yann LeCun sienten que nos estamos topando con paredes de ladrillo, y que la IA generativa se enfrenta a un período introspectivo o “invierno”.
Esto sería el resultado de obstáculos prácticos, como el aumento de los costos de la energía, las limitaciones de la computación de fuerza bruta, la regulación y la escasez de materiales.
La IA generativa es costosa de desarrollar y mantener, y la monetización no es sencilla. Las empresas tecnológicas deben encontrar formas de mantener la inercia para que el dinero siga fluyendo hacia la industria.
Tercer debate: la seguridad de la IA
Las conversaciones sobre la inteligencia y el progreso de la IA también tienen implicaciones para la seguridad de la IA. Si no podemos ponernos de acuerdo sobre qué constituye inteligencia o cómo medirla, ¿cómo podemos garantizar que los sistemas de IA se diseñen y desplieguen de forma segura?
La ausencia de una comprensión compartida de la inteligencia dificulta el establecimiento de medidas de seguridad y directrices éticas adecuadas para el desarrollo de la IA.
Subestimar la inteligencia de la IA es subestimar la necesidad de controles y regulaciones de seguridad de la IA.
Por el contrario, sobreestimar o exagerar las capacidades de la IA distorsiona las percepciones y corre el riesgo de una regulación excesiva. Esto podría aislar el poder de las grandes empresas tecnológicas, que han demostrado su influencia en el cabildeo y en maniobras que superan la legislación. Y cuando cometen un error, pueden pagar las multas.
El año pasado, los prolongados debates X entre Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk y muchas otras figuras destacadas de la comunidad de la IA pusieron de relieve profundas divisiones en la seguridad de la IA. Las grandes empresas tecnológicas han trabajado arduamente para autorregularse, creando “directrices voluntarias” cuya eficacia es dudosa.
Los críticos argumentan además que la regulación permite a las Big Tech reforzar las estructuras de mercado, deshacerse de los disruptores y establecer las condiciones de juego de la industria a su gusto.
En ese lado del debate, LeCun sostiene que los riesgos existenciales de la IA han sido exagerados y las grandes empresas tecnológicas los están utilizando como cortina de humo para impulsar regulaciones que sofocarían la competencia y consolidarían el control.
LeCun y sus partidarios también señalan que los riesgos inmediatos de la IA, como la desinformación, las falsificaciones y los prejuicios, ya están perjudicando a las personas y requieren atención urgente.
altmanHassabis y Amodei son los que están haciendo un lobby corporativo masivo en este momento.
Ellos son los que intentan realizar una captura regulatoria de la industria de la IA.
Usted, Geoff y Yoshua están dando munición a quienes presionan para que se prohíba la I+D abierta en IA.Si…
—Yann LeCun (@ylectun) 29 de octubre de 2023
Por otro lado, Hinton, Bengio, Hassabis y Musk han dado la voz de alarma sobre los posibles riesgos existenciales de la IA.
Bengio, LeCun y Hinton, a menudo conocidos como los “padrinos de la IA” para el desarrollo de redes neuronales, aprendizaje profundo y otras técnicas de IA a lo largo de los años 90 y principios de los 2000, siguen siendo influyentes en la actualidad. Hinton y Bengio, cuyos puntos de vista generalmente coinciden, asistieron a una rara reunión reciente entre investigadores estadounidenses y chinos en el Diálogo Internacional sobre Seguridad de la IA en Beijing.
La reunión culminó con una declaración: “En lo más profundo de la Guerra Fría, la coordinación científica y gubernamental internacional ayudó a evitar una catástrofe termonuclear. La humanidad nuevamente necesita coordinarse para evitar una catástrofe que podría surgir debido a una tecnología sin precedentes”.
Hay que decir que Bengio y Hinton no están obviamente alineados financieramente con las Big Tech y no tienen motivos para exagerar los riesgos de la IA.
Hinton planteó este punto él mismo en una disputa con LeCun y el ex cofundador de Google Brain, Andrew Ng, destacando que dejó Google para hablar libremente sobre los riesgos de la IA.
De hecho, muchos grandes científicos han cuestionado la seguridad de la IA a lo largo de los años, incluido el fallecido profesional Stephen Hawking, que veía la tecnología como un riesgo existencial.
Andrew Ng afirma que la idea de que la IA podría extinguirnos es una conspiración de las grandes tecnologías. Un dato que no se ajusta a esta teoría de la conspiración es que dejé Google para poder hablar libremente sobre la amenaza existencial.
– Geoffrey Hinton (@geoffreyhinton) 31 de octubre de 2023
Esta mezcla turbulenta de intercambios polémicos deja poco espacio para que las personas ocupen el término medio, alimentando la imagen de la IA generativa como una tecnología polarizadora.
Mientras tanto, la regulación de la IA se ha convertido en una cuestión geopolítica, y Estados Unidos y China colaboran tentativamente en materia de seguridad de la IA a pesar de las crecientes tensiones en otros departamentos.
Entonces, así como los expertos no están de acuerdo sobre cuándo y cómo la IA superará las capacidades humanas, también difieren en sus evaluaciones de los riesgos y desafíos del desarrollo de sistemas de IA seguros y beneficiosos.
Los debates en torno a la inteligencia artificial no son sólo de principios o de naturaleza filosófica – también son una cuestión de gobernanza.
Cuando los expertos discrepan vehementemente incluso sobre los elementos básicos de la inteligencia y la seguridad de la IA, no se puede esperar que la regulación sirva a los intereses de las personas.
Crear consenso requerirá duras conclusiones por parte de los expertos, los desarrolladores de IA, los gobiernos y la sociedad en general.
Sin embargo, además de muchos otros desafíos, dirigir la IA hacia el futuro requerirá que algunos líderes y expertos en tecnología admitan que estaban equivocados. Y eso no va a ser fácil.