La teoría del cisne negro es una metafora que explica como el enfoque inductivo que solemos usar puede llevar a que hagamos asumciones que no son ciertas y que acabemos creando sistemas altamente frágiles sin darnos cuenta.
La teoría fue desarrollada por el inversor y autor Nassim Nicholas Taleb en su libro “Fooled by Randomness”, en el contexto economico, y mas tarde desarrollada en el libro “Cisne Negro”, para otro tipo de eventos.
La lógica del error inductivo se suele ilustrar con el ejemplo de que si nunca hemos visto cisnes de otro color que no sea el blanco, acabaremos asumiendo que es imposible que haya cisnes de otro color, hasta que aparezca un cisne negro.
El problema principal de este tipo de “problemas de la inducción”, es que suelen ser útiles como planteamiento y no ofrecen problema alguno en el día a día, lo cual aumenta nuestra confianza en ellos, hasta que llega un punto en el que dejan de ser ciertos y perdemos nuestro sistema.
El problema del pavo, o the turkey problem lo ilustra con un ejemplo
‘’Digamos que damos de comer a un pavo cada día. Cada comida que le demos llevará al pavo a pensar que es una ley de la naturaleza que le llegue comida cada día por miembros de la especie humana, que están “velando por sus intereses” como dirían los políticos. En la tarde antes del día de acción de gracias, le sucederá algo inesperado al pavo. Sufrirá una “revisión de sus creencias”.”
Este simple ejemplo por Taleb, basado en uno por Bertrand Russell, nos explica lo fácil que es asumir que lo que ha estado funcionando hasta ahora siga ocurriendo, sin entender que todo lo que tenemos es temporal, ya que el mundo está en un estado de cambio constante, y por lo tanto nunca podemos estar del todo seguros de lo que es cierto hasta que funcione.
En el caso del pavo, su “creencia” de que los humanos le seguirán dando alimento y que eran sus aliados, fue aumentando en confianza cada día, hasta que acabó costandole la vida.
En nuestros caso hemos visto una y otra vez cómo se generan burbujas económicas que acaban estallando y llevándose gran parte de nuestras posesiones, o como nuestro negocio va aumentando el dinero que produce hasta que de repente cese por completo, o como nuestra inversión en bitcoin puede subir un dia unicamente para caer al dia siguiente.
Según Nassim Nicholas Taleb, un Cisne Negro, es cualquier evento extremo, fuera de las expectativas típicas debido a que nada hasta ahora apunta hacia su existencia, y de gran impacto, que tenemos dificultad a la hora de detectar debido a su baja probabilidad, y nuestra tendencia a explicarlo a posteriori, lo cual reduce nuestra preocupación y capacidad de responder, al usar muchas veces razones equivocadas para explicarlo, y por lo tanto aumentar nuestra fragilidad ante ello.
De esta forma, la teoría del cisne negro, o black swan theory, de Nicholas Taleb, nos presenta las siguientes ideas:
- 1)El gran efecto de eventos de poca probabilidad pero alto riesgo sobre nuestra percepción, basada muchas veces en el sentido común, y como afectan a distintos campos
- 2)La dificultad a la hora de calcular la probabilidad, y por lo tanto entender, los eventos que pueden nacer como resultado de un cisne negro, y por lo tanto la fragilidad de nuestros sistemas mas típicos ante ellos
- 3)El efecto de nuestros sesgos, bias, a la hora de dificultar nuestra percepción del riesgo y probabilidad real de problemas de alto riesgo y baja probabilidad.
Como lidiar con los cisnes negros
Según Taleb, hay formas de reducir nuestra fragilidad ante los cisnes negros, y no se basa en intentar predecirlos, sino en crear sistemas antifragiles que sean robustos ante este tipo de situacion y que puedan usarla para crecer.
Uno de los consejos de Nassim, es que no dependamos tanto de la distribucion normal, algo que según el ha llevado a lo que llama el “Gran Fraude Intelectual”, por el cual nos basamos en la probabilidad y la ley de los grandes números para estudiar la “probabilidad esperada de ciertos eventos”, y al hacerlo perdemos de vista el peso del contexto en cada situación.
Y en concreto en el efecto del observador a la hora de percibir que es un cisne negro, de forma que para el pavo es un cisne negro ver que llega el dia de su muerte, pero no lo es para el carnicero. Lo cual indica que nuestra percepción y fragilidad ante los cisnes negros dependera de lo antifrágiles que sean los sistemas que estamos usando
Como crear sistemas antifragiles
Si estamos en el mundo laboral actualmente, es muy seguro que hayamos tenido que pasar el miedo e incertidumbre de la crisis del 2008. Pero esta no ha sido la única crisis en los últimos 20 años, primero tuvimos la crisis del dot.com en el 2000, seguida de la burbuja de la deuda del 2008, la caída del 2015 y ahora, la crisis del sector hostelero y de viajes del 2021.
Puede parecer que estos eventos no tienen relación alguna, más que las desastrosas consecuencias económicas, pero en realidad todas se basan en un mismo fenómeno, la fragilidad de un sistema y su rotura. Son muchos los negocios que han caído y quebrado, y para evitar que este sea nuestro futuro en la crisis actual y la próxima, la clave es crear sistemas antifragiles.
En este articulo explicamos las 8 claves de un sistema antifragil, según el creador del término Nassim Nicholas Taleb.
Usar normas simples
Cuanto más complejo sea un sistema más fácil será que aparezcan errores. Esto está relacionado con el concepto de redundancia y como aumentar las “capas de seguridad” no siempre implica aumentar la seguridad general del sistema.
Hacer uso de la redundancia
Aunque tener sistemas excesivamente complejos puede aumentar la fragilidad de un sistema, no tener “copias de seguridad” de los elementos de mayor importancia puede aumentar el riesgo asociado al sistema. Por eso siempre tenemos que ver hasta qué punto merece la pena la redundancia y asegurarnos de usarla solo cuando es imprescindible
Evitar el deseo de eliminar la aleatoriedad.
Un sistema en el que intentamos eliminar por completo la aleatoriedad es un sistema más frágil, porque crecerá mucho más de lo que debería gracias a que está controlado. En cambio si aceptamos la aleatoriedad, aunque nuestros sistemas podrían no estar tan optimizados, deberían ser más resilientes
Adoptar el método científico
La única forma de aprender y mejorar en un mundo lleno de aleatoriedad y en el que siempre estamos buscando relaciones de causalidad, es experimentar constantemente para encontrar las verdaderas reglas que lo dominan
Evitar riesgos que puedan sacarnos del juego
El objetivo es tomar riesgos calculados que nos permitan mejorar, pero que cuyo fallo no implique una caída extrema.
Usar la información sin ser consumido por la misma
Hoy en día se podría decir que tenemos demasiada información, en el sentido que es tanta que no podemos sacarle significado. Por lo que es mejor limitar la cantidad de información que tenemos y crear modelos que la puedan incorporar poco a poco para el uso práctico
Concentrarnos en evitar cosas que no funcionan, comparado con buscar cosas que funcionan
Este es un enfoque basado en mejorar nuestro criterio, es decir en aprender a hacer juicios del valor real de cada elemento, mas que en ser capaces de predecir el futuro. Es mucho más fácil adaptarse a las condiciones del momento que intentar hacer predicciones, y deberíamos sacarle partido.
Apreciar lo antiguo
Si algo ha funcionado hasta ahora, tiene que haber una razón para ello. Dedicarnos únicamente a buscar nuevas ideas e innovar puede tener un efecto negativo, si no tenemos una base que funcione de forma segura. Por eso, usar sistemas que funcionan, en lugar de reinventar la rueda es una gran forma de aumentar nuestra productividad y la fiabilidad de nuestros sistemas y crear el ambiente necesario para innovar.

Descubre nuestros mejores artículos en tus redes favoritas

Domina lo mejor de lo que otras personas han descubierto
Únete a Nuestra Newsletter y descubre las mejores ideas, conceptos y prácticas de una amplia gama de disciplinas.


Perder de vista detalles importantes en otras situaciones puede tener consecuencias desastrosas
El desastre del Challenger de 1986 en Estados Unidos es un ejemplo trágico. Antes del…
¿Cómo aprender de forma más efectiva?
¿Nos hemos preguntado cómo era un día en la vida de un Homo sapiens? La…
Crítica de Popper al historicismo
Otra pieza interesante del trabajo de Popper fue un ataque a lo que llamó «historicismo»:…
¿Qué es el método socrático?
El método socrático se puede utilizar para establecer la esencia mediante un análisis riguroso. Es…
Richard Feynman sobre la fragilidad de la opinión pública
“No sé qué le pasa a la gente: no aprenden entendiendo; aprenden de alguna otra…
Sesgos que actúan sobre la percepción de la información
Sesgo de confirmación: Lleva a que demos más peso a la información que confirma lo…
Karl Popper sobre la definición de ciencia
«Una teoría es parte de la ciencia empírica si y sólo si entra en conflicto…
El problema de los incentivos
En todo momento al recibir información de alguien debemos recordar que la información ofrecida está…
¿Cómo lidiar con problemas fuera de nuestra área de conocimiento?
Parte del objetivo de la maestría es entender los límites de nuestro conocimiento y métodos….
Toda ventaja es momentánea
Solemos asumir que cuando descubrimos algo o tenemos una buena idea, la ventaja que nos…
Elinor Ostrom sobre el peligro de depender de los modelos mentales
«Lo que hace que estos modelos sean tan peligrosos … es que las restricciones que…
Los peligros de depender de los modelos mentales
Necesitamos mapas y modelos como guías. Pero con frecuencia, no recordamos que nuestros mapas y…
¿Cuáles son los principales Sesgos Cognitivos y Bias en el mundo de los negocios?
Sesgo de acción Se debe a dos elementos, el optimismo excesivo y la sobreconfianza. En…
Alfred Korzybski El mapa no es el territorio
En 1931 el matemático Alfred Korzybski presentó un artículo en el que mostraba una posible…
Los modelos mentales son como el GPS
El objetivo de los mapas es mostrarnos información de un lugar para que sea fácil…
¿Cómo aprender a usar los modelos mentales?
Para aprender a sacar partido a los modelos mentales, debemos entender sus limitaciones. Esto significa…
Charlie Munger sobre la importancia de tener modelos mentales de alta calidad
“80 o 90 modelos importantes son suficientes para llevar el 90% del efecto necesario para…
La parábola del elefante y el hombre ciego
Un hombre ciego se acerca a un elefante. El hombre desconoce que es lo que…
La importancia de la multidisciplinariedad
La calidad de nuestro pensamiento es influenciada en gran medida por los modelos mentales que…
¿Cómo podemos optimizar el uso del sistema 2 Según Daniel Kahneman y Amos Tversky?
El Primer paso es Definir el problema No todo problema tiene como causa los sesgos…