¿Por qué son un problema los falsos positivos?

¿Qué es un Falso Positivo en Investigación?

La presión de publicar resultados “positivos” lleva a algunos investigadores a manipular un poco los datos. A pesar de que su misión sea en muchos casos intentar llegar a la “verdad”, se sabe que no son pocos los que cambian los métodos estadísticos que usan para asegurarse de conseguir resultados significativos. 

Una de las formas en que lo hacen es la “prueba múltiple”, que es cuando los investigadores repiten las pruebas hasta que obtienen los resultados que desean. Cuanto más repite un investigador una prueba, mayor es la posibilidad de que obtenga falsos positivos, resultados que parecen confirmar una hipótesis pero que se deben a un error fortuito. 

Esto puede pasar porque en muchos casos el número de muestras con el que trabajan es pequeño, muchas veces inferior a 50. Esto significa que la probabilidad de que cualquier muestra presente valores significativamente diferentes de la población es alta, cuanto menor sea la muestra, mayor será el efecto de la variabilidad de cada individuo y menor sera el efecto corrector de la regresión a la media. Esta es la razón por la que podemos lanzar una moneda 10 veces y conseguir cara las diez, aún cuando la probabilidad de cara y cruz son iguales. Es porque no tenemos una muestra suficientemente grande como para entender el comportamiento real del fenómeno.

Para entender por qué esto es un problema, echemos un vistazo a un estudio realizado por un equipo de investigadores de renombre en 2009. Se utilizaron imágenes cerebrales para ver qué áreas del cerebro de un sujeto se iluminaban cuando se les mostraba una serie de fotografías de personas expresando diferentes emociones. 

El problema era que el «sujeto» era un salmón. De los 8.064 sitios medidos en el cerebro del pez, 16 mostraron una respuesta a las fotografías. Algo que entra sin duda dentro de lo que se consideran falsos positivos. 

Los falsos positivos no son un problema en sí mismos, son parte del proceso, el problema son las conclusiones que se sacan de ello. Y que se publiquen principalmente los resultados positivos, y casi nunca se tenga en cuenta los negativos,  ha llevado a un bias positivo dentro de la literatura científica. El público, e incluso otros científicos, ven los estudios que parecen respaldar una hipótesis, no los que no lo hacen. 

Esto afecta cómo se interpretan los resultados, por ejemplo, podríamos sorprendernos si un estudio descubriera que comer hamburguesas aumenta el riesgo de cáncer. Pero, si supiéramos que 20 estudios previos no encontraron ningún vínculo, nuestra sorpresa probablemente no sería tanta. 

Entre la excesiva presión académica, la impresionante cantidad de información que se produce y nuestra preferencia por las historias sensacionalistas es casi imposible que no haya “fake news” de vez en cuando. 

El sesgo positivo es lo que llevó a John Ioannidis, profesor de estadística en la Universidad de Stanford, a escribir un artículo en el que afirmaba que «los resultados de las investigaciones publicadas son falsos». Aunque Ioanmdis estaba siendo provocativo de forma intencionada, su idea sirve como una advertencia para no dar por sentado los hallazgos de la investigación solo porque están publicados en una revista científica. 

Descubre nuestros mejores artículos en tus redes favoritas

Domina lo mejor de lo que otras personas han descubierto

Únete a Nuestra Newsletter y descubre las mejores ideas, conceptos y prácticas de una amplia gama de disciplinas.

Lista de Sesgos Cognitivos

La Prueba Social (Social Proof) ¿Que es? ¿Cómo funciona? y ¿Cómo sacarle partido?

¿Que es una buena decisión?y ¿Por qué no somos tan racionales como nos gustaría pensar?

Modelos Mentales : El Modelo de la Oferta y la Demanda

El Bias de Anclaje, o Efecto Ancla ¿Que es? ¿Por qué importa? y ¿Cómo evitarlo?

Sesgo Retrospectivo, bias de confirmación a posteriori (Hindsight Bias)

El Efecto Dunning Kruger : Porque a Veces no nos Damos Cuenta de Nuestra Propia Incompetencia

El Experimento de la Cárcel de Stanford Dilemas Sociales, Cooperación y traición en el experimento de la Cárcel (The Prisoner Experiment)

El Bias del Efecto Espectador ¿Realidad o mentira?

¿Qué es la Necesidad de Cognición (Need for Cognition)?

Bias de la insensibilidad al tamaño de muestra

La Falacia o Sesgo de Conjunción

El Ego y el Proceso de Decisión

Heurística de disponibilidad

¿Qué son los Sistemas 1 y Sistema 2 de Daniel Kahneman y Amos tversky?

La falacia de la planificación

Immanuel Kant, Ética Kantiana, y el concepto de justicia

Sesgo de Intervención (Bias de Intervención)

Sesgo de Confirmación

El efecto exposición, o la clave de la economía de la atención

El efecto Von Restorff, o efecto de aislamiento

La Falacia del Jugador, falacia de Montecarlo, o falacia del apostador

Bias o sesgo cognitivo de las Manos Calientes

El Efecto Ikea ¿Qué es y cómo nos afecta?

¿Qué es La meta-cognición?

El efecto de la Pendiente resbaladiza

Ley de las consecuencias no deseadas

El sesgo Cognitivo o Bias del poder

¿Gresham y la falacia de frecuencias?

Pensamiento Contrafactual o Pensamiento Contrafáctico (Counterfactual Thinking)

Sesgo del Resultado o Outcome Bias

¿Qué es el problema de linda de daniel Kahneman y Amos Tversky?

Falacia de la Frecuencia Base o Sesgo de la Frecuencia Base

¿Qué es el Apilamiento Motivacional o Motivation Crowding?

¿Que es un bien de Giffen?

El dilema del tranvía

El Dilema del Innovador, o como institucionalizar la innovación

La estructura de las revoluciones científicas por Thomas Khun

Fatiga de decisión ¿Que es y cómo reducir su efecto? Según Daniel H. Pink

La Tragedia de los Comunes, o tragedia de los bienes comunales por Garrett Hardin

Pensadores destacados

Charlie Munger

Dan Ariely

Herbert A. Simon

John Stuart Mill

Bertrand Russell: Cómo Evitar Tomar Malas Decisiones

Noam Chomsky

Ayn Rand

Michael Pollan

Malcolm Gladwell

Robert Cialdini

Garret Hardin

Richard Feynman