Una de las categorizaciones más difundidas hoy en día sobre el conocimiento y la incertidumbre no fue ideada por un filósofo, ni por un experto en complejidad, ni por un economista. La dijo en febrero de 2002 el exsecretario de Defensa de los Estados Unidos Donald Rumsfeld. Durante una reunión con su equipo, cuando le preguntaron por la posibilidad de existencia de armas nucleares en Iraq, Rumsfeld se refirió a “lo que no sabemos que no sabemos” (“unknown unknowns”).
El concepto se hizo famoso. Salieron libros de Teoría de la Decisión con “la matriz de Rumsfeld”. Están las cosas que sabemos que sabemos, las que sabemos que no sabemos, las que no sabemos que sabemos y el cuadrante más importante y voluminoso: el de lo que no sabemos que no sabemos. Hasta hubo un documental en 2013 sobre la crisis de Iraq que llevó ese nombre.
Cinco años después de la frase del exsecretario de Defensa, un divulgador le sumó volumen conceptual y la terminó de hacer famosa. Fue en 2007, con la publicación de El Cisne Negro, de Taleb, que se convirtió en una biblia para muchos en un mundo de cambio acelerado y mayor complejidad. Los cisnes negros de Taleb son eventos con impacto masivo que están en los extremos de la curva de probabilidades de ocurrencia, que nadie vio venir. Ex ante casi ni se mencionan, porque se le asignan probabilidades bajísimas, casi inexistentes. Ex post, cuando unimos los puntos hacia atrás, le aumentamos las chances de ocurrencia en retrospectiva.
El ejemplo más conocido de cisne negro que menciona el autor es de la voladura de las torres gemelas en 2001. Pero, a partir de allí estos animales raros proliferaron: cada cimbronazo en los mercados es un “cisne negro”, al Covid se le asignó esta etiqueta, los resultados electorales y batacazos de outsiders de la política también lo son, etcétera.
El problema del “ponele cisne negro a todo” es que, hilando fino, no todos los sucesos mencionados corresponden estrictamente a esta fenomenología. A veces no nos preparamos para un evento de alto impacto, no porque a priori tenga pocas probabilidades de ocurrencia, sino porque nos negamos a verlo, dados nuestros sesgos (por el sesgo de confirmación por ejemplo, ignoramos lo que contradice lo que pensamos) o, simplemente, porque no tenemos ni la menor idea de cómo lidiar con un determinado problema.
Nueve años después del libro de Taleb, en 2018, la autora Michele Wucker acuñó la figura del “rinoceronte gris”: un animal peligroso que se acerca lentamente, frente a lo cual no hacemos nada. En una entrevista, Wucker sostuvo que se abusó del uso del “cisne negro”, porque de alguna forma exime de culpas a muchos actores: si un manager de inversiones la pifia con una decisión y le hace perder plata a su cliente, puede gritar “¡cisne negro!” y quedar a salvo; total, nadie imaginaba que iba a pasar eso. Sucedió mucho en la crisis de hipotecas subprime de los Estados Unidos en 2008, un fenómeno que era insostenible, con precios de las propiedades por las nubes, que terminó explotando.
El “rinoceronte gris” de Wucker se hizo muy famoso en 2018, cuando recomendó el libro en su discurso de la asamblea anual del Partido Comunista chino Xi Jimping.
Para Wucker, hay un determinante cultural en cómo nos aproximamos y tratamos al riesgo entre oriente y occidente. El estilo chino de ver rinocerontes grises y no cisnes negros implica una intención de hacerse cargo y de lidiar con el problema que hay por delante.
Menos famoso que el cisne negro y que el rinoceronte gris, hay una tercera figura acuñada para caracterizar procesos muy inciertos. No le podemos decir “otro animal”, porque no lo es: se trata del “rey dragón” que propuso el experto francés en econofísica Didier Sornette. Los “reyes dragones” involucran eventos de impacto gigante (un rey) y de origen único (un “dragón”).
“A diferencia de los cisnes negros, estos reyes dragones son impredecibles desde la perspectiva limitada de los modelos estilizados del observador. La culpa del analista no viene de un mal cálculo o de un tema probabilístico, sino de un modelo en exceso simplificado, tal vez por pereza intelectual”, cuentan en su libro Automatizados los economistas y profesores d ela UTDT Eduardo Levy Yeyati y Darío Judzik.
Yeyati y Judzik se refieren específicamente a los cisnes, dragones y rinocerontes en uno de los últimos capítulos para caracterizar nuestra respuesta como sociedad ante los avances de la inteligencia artificial (el libro se centra en las consecuencias de la IA sobre el mercado de trabajo).
“Aún más que con la crisis financiera, la evolución y la penetración de la IA y sus efectos de sustitución tecnológica en el mundo del trabajo –y sus consecuencias distributivas y sociales– son tan visibles y obvias como un rinoceronte gris”, plantean los autores de Automatizados (Planeta). “Pensemos en ejércitos de trabajadores y usuarios de Internet entrenando a la máquina y al programa que eventualmente los sustituirá: ¿por qué no nos preparamos para ese momento?”, agregan.
Cuando se está cerca de que se cumplan dos años del lanzamiento de Chat GPT (eso fue en noviembre de 2022), como no ocurrió con otras olas tecnológicas en el pasado, la de la IAG no solo no parece amesetarse, sino que sigue corriendo velozmente. A la par, los ensayos para entender el fenómeno (e intuir por donde puede seguir la película de la respuesta social) son también cada vez más interesantes.
Uno de ellos, reciente, es del sociólogo de Estados Unidos y profesor de la Universidad de California Benjamin Bratton, que escribió sobre “Las cinco etapas del duelo de la IA”. Como sucede con un suceso sumamente traumático, con la IA la sociedad, según Bratton, también está atravesando sus propias “cinco etapas del duelo” o del trauma.
Bratton recuerda que Sigmund Freud hablaba de cambios copernicanos para referirse a aquellas instancias en las que se bajó al ser humano de su pedestal o centralidad (pasó con Copérnico, con Charles Darwin y con el psiconálisis). En su libro de 1969, la psiquiatra suiza Elizabeth Kúbler-Ross habla por primera vez de las cinco etapas del duelo: negación, enojo, intento de negociar, depresión y aceptación. Lo mismo, sostiene Bratton, está ocurriendo en 2024 con nuestra relación con la IA.
¿Tienen estos ensayos capacidad predictiva? En julio se cumplieron diez años del libro Super-inteligencia, de Nick Bostrom, de Oxford, uno de los textos más influyentes sobre esta temática. En su momento fue una obra recomendada por Elon Musk, Sam Altman y Bill Gates. Varias reseñas, al cumplirse una década, destacan la vigencia de Super-inteligencia y cómo Bostrom “la vio” en sus consideraciones sobre la llegada de una era con la IA protagónica y sus principales riesgos asociados, que se acerca como un rinoceronte gris.
Los comentarios están cerrados.