¿Que es un cisne negro Según Nassim Nicholas Taleb?

La teoría del cisne negro es una metafora que explica como el enfoque inductivo que solemos usar puede llevar a que hagamos asumciones que no son ciertas y que acabemos creando sistemas altamente frágiles sin darnos cuenta.

La teoría fue desarrollada por el inversor y autor Nassim Nicholas Taleb en su libro  “Fooled by Randomness”, en el contexto economico, y mas tarde desarrollada en el libro “Cisne Negro”, para otro tipo de eventos.

La lógica del error inductivo se suele ilustrar con el ejemplo de que si nunca hemos visto cisnes de otro color que no sea el blanco, acabaremos asumiendo que es imposible que haya cisnes de otro color, hasta que aparezca un cisne negro.

El problema principal de este tipo de “problemas de la inducción”, es que suelen ser útiles como planteamiento y no ofrecen problema alguno en el día a día, lo cual aumenta nuestra confianza en ellos, hasta que llega un punto en el que dejan de ser ciertos y perdemos nuestro sistema.

El problema del pavo, o the turkey problem lo ilustra con un ejemplo

‘’Digamos que damos de comer a un pavo cada día. Cada comida que le demos llevará al pavo a pensar que es una ley de la naturaleza que le llegue comida cada día por miembros de la especie humana, que están “velando por sus intereses” como dirían los políticos. En la tarde antes del día de acción de gracias, le sucederá algo inesperado al pavo. Sufrirá una “revisión de sus creencias”.”

Este simple ejemplo por Taleb, basado en uno por Bertrand Russell, nos explica lo fácil que es asumir que lo que ha estado funcionando hasta ahora siga ocurriendo, sin entender que todo lo que tenemos es temporal, ya que el mundo está en un estado de cambio constante, y por lo tanto nunca podemos estar del todo seguros de lo que es cierto hasta que funcione.

En el caso del pavo, su “creencia” de que los humanos le seguirán dando alimento y que eran sus aliados, fue aumentando en confianza cada día, hasta que acabó costandole la vida.

En nuestros caso hemos visto una y otra vez cómo se generan burbujas económicas que acaban estallando y llevándose gran parte de nuestras posesiones, o como nuestro negocio va aumentando el dinero que produce hasta que de repente cese por completo, o como nuestra inversión en bitcoin puede subir un dia unicamente para caer al dia siguiente.

Según Nassim Nicholas Taleb, un Cisne Negro, es cualquier evento extremo, fuera de las expectativas típicas debido a que nada hasta ahora apunta hacia su existencia, y de gran impacto, que tenemos dificultad a la hora de detectar debido a su baja probabilidad, y nuestra tendencia a explicarlo a posteriori, lo cual reduce nuestra preocupación y capacidad de responder, al usar muchas veces razones equivocadas para explicarlo, y  por lo tanto aumentar nuestra fragilidad ante ello.

De esta forma, la teoría del cisne negro, o black swan theory, de Nicholas Taleb, nos presenta las siguientes ideas:

  • 1)El gran efecto de eventos de poca probabilidad pero alto riesgo sobre nuestra percepción, basada muchas veces en el sentido común, y como afectan a distintos campos
  • 2)La dificultad a la hora de calcular la probabilidad, y por lo tanto entender, los eventos que pueden nacer como resultado de un cisne negro, y por lo tanto la fragilidad de nuestros sistemas mas típicos ante ellos
  • 3)El efecto de nuestros sesgos, bias, a la hora de dificultar nuestra percepción del riesgo y probabilidad real de problemas de alto riesgo y baja probabilidad.

Como lidiar con los cisnes negros

Según Taleb, hay formas de reducir nuestra fragilidad ante los cisnes negros, y no se basa en intentar predecirlos, sino en crear sistemas antifragiles que sean robustos ante este tipo de situacion y que puedan usarla para crecer.

Uno de los consejos de Nassim, es que no dependamos tanto de la distribucion normal, algo que según el ha llevado a lo que llama el “Gran Fraude Intelectual”, por el cual nos basamos en la probabilidad y la ley de los grandes números para estudiar la “probabilidad esperada de ciertos eventos”, y al hacerlo perdemos de vista el peso del contexto en cada situación. 

Y en concreto en el efecto del observador a la hora de percibir que es un cisne negro, de forma que para el pavo es un cisne negro ver que llega el dia de su muerte, pero no lo es para el carnicero. Lo cual indica que nuestra percepción y fragilidad ante los cisnes negros dependera de lo antifrágiles que sean los sistemas que estamos usando

Como crear sistemas antifragiles

Si estamos en el mundo laboral actualmente, es muy seguro que hayamos tenido que pasar el miedo e incertidumbre de la crisis del 2008. Pero esta no ha sido la única crisis en los últimos 20 años, primero tuvimos la crisis del dot.com en el 2000, seguida de la burbuja de la deuda del 2008, la caída del 2015 y ahora, la crisis del sector hostelero y de viajes del 2021.

Puede parecer que estos eventos no tienen relación alguna, más que las desastrosas consecuencias económicas, pero en realidad todas se basan en un mismo fenómeno, la fragilidad de un sistema y su rotura. Son muchos los negocios que han caído y quebrado,  y para evitar que este sea nuestro futuro en la crisis actual y la próxima, la clave es crear sistemas antifragiles.

En este articulo explicamos las 8 claves de un sistema antifragil, según el creador del término Nassim Nicholas Taleb.

Usar normas simples 

Cuanto más complejo sea un sistema más fácil será que aparezcan errores. Esto está relacionado con el concepto de redundancia y como aumentar las “capas de seguridad” no siempre implica aumentar la seguridad general del sistema.

Hacer uso de la redundancia

Aunque tener sistemas excesivamente complejos puede aumentar la fragilidad de un sistema, no tener “copias de seguridad” de los elementos de mayor importancia puede aumentar el riesgo asociado al sistema. Por eso siempre tenemos que ver hasta qué punto merece la pena la redundancia y asegurarnos de usarla solo cuando es imprescindible

Evitar el deseo de eliminar la aleatoriedad. 

Un sistema en el que intentamos eliminar por completo la aleatoriedad es un sistema más frágil, porque crecerá mucho más de lo que debería gracias a que está controlado. En cambio si aceptamos la aleatoriedad, aunque nuestros sistemas podrían no estar tan optimizados, deberían ser más resilientes

Adoptar el método científico

La única forma de aprender y mejorar en un mundo lleno de aleatoriedad y en el que siempre estamos buscando relaciones de causalidad, es experimentar constantemente para encontrar las verdaderas reglas que lo dominan

Evitar riesgos que puedan sacarnos del juego

El objetivo es tomar riesgos calculados que nos permitan mejorar, pero que cuyo fallo no implique una caída extrema.

Usar la información sin ser consumido por la misma 

Hoy en día se podría decir que tenemos demasiada información, en el sentido que es tanta que no podemos sacarle significado. Por lo que es mejor limitar la cantidad de información que tenemos y crear modelos que la puedan incorporar poco a poco para el uso práctico

Concentrarnos en evitar cosas que no funcionan, comparado con buscar cosas que funcionan

Este es un enfoque basado en mejorar nuestro criterio, es decir en aprender a hacer juicios del valor real de cada elemento, mas que en ser capaces de predecir el futuro. Es mucho más fácil adaptarse a las condiciones del momento que intentar hacer predicciones, y deberíamos sacarle partido.

Apreciar lo antiguo 

Si algo ha funcionado hasta ahora, tiene que haber una razón para ello. Dedicarnos únicamente a buscar nuevas ideas e innovar puede tener un efecto negativo, si no tenemos una base que funcione de forma segura. Por eso, usar sistemas que funcionan, en lugar de reinventar la rueda es una gran forma de aumentar nuestra productividad y la fiabilidad de nuestros sistemas y crear el ambiente necesario para innovar.

Descubre nuestros mejores artículos en tus redes favoritas

Domina lo mejor de lo que otras personas han descubierto

Únete a Nuestra Newsletter y descubre las mejores ideas, conceptos y prácticas de una amplia gama de disciplinas.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *