¿Qué es un Falso Positivo en Investigación?
La presión de publicar resultados “positivos” lleva a algunos investigadores a manipular un poco los datos. A pesar de que su misión sea en muchos casos intentar llegar a la “verdad”, se sabe que no son pocos los que cambian los métodos estadísticos que usan para asegurarse de conseguir resultados significativos.
Una de las formas en que lo hacen es la “prueba múltiple”, que es cuando los investigadores repiten las pruebas hasta que obtienen los resultados que desean. Cuanto más repite un investigador una prueba, mayor es la posibilidad de que obtenga falsos positivos, resultados que parecen confirmar una hipótesis pero que se deben a un error fortuito.
Esto puede pasar porque en muchos casos el número de muestras con el que trabajan es pequeño, muchas veces inferior a 50. Esto significa que la probabilidad de que cualquier muestra presente valores significativamente diferentes de la población es alta, cuanto menor sea la muestra, mayor será el efecto de la variabilidad de cada individuo y menor sera el efecto corrector de la regresión a la media. Esta es la razón por la que podemos lanzar una moneda 10 veces y conseguir cara las diez, aún cuando la probabilidad de cara y cruz son iguales. Es porque no tenemos una muestra suficientemente grande como para entender el comportamiento real del fenómeno.
Para entender por qué esto es un problema, echemos un vistazo a un estudio realizado por un equipo de investigadores de renombre en 2009. Se utilizaron imágenes cerebrales para ver qué áreas del cerebro de un sujeto se iluminaban cuando se les mostraba una serie de fotografías de personas expresando diferentes emociones.
El problema era que el «sujeto» era un salmón. De los 8.064 sitios medidos en el cerebro del pez, 16 mostraron una respuesta a las fotografías. Algo que entra sin duda dentro de lo que se consideran falsos positivos.
Los falsos positivos no son un problema en sí mismos, son parte del proceso, el problema son las conclusiones que se sacan de ello. Y que se publiquen principalmente los resultados positivos, y casi nunca se tenga en cuenta los negativos, ha llevado a un bias positivo dentro de la literatura científica. El público, e incluso otros científicos, ven los estudios que parecen respaldar una hipótesis, no los que no lo hacen.
Esto afecta cómo se interpretan los resultados, por ejemplo, podríamos sorprendernos si un estudio descubriera que comer hamburguesas aumenta el riesgo de cáncer. Pero, si supiéramos que 20 estudios previos no encontraron ningún vínculo, nuestra sorpresa probablemente no sería tanta.
Entre la excesiva presión académica, la impresionante cantidad de información que se produce y nuestra preferencia por las historias sensacionalistas es casi imposible que no haya “fake news” de vez en cuando.
El sesgo positivo es lo que llevó a John Ioannidis, profesor de estadística en la Universidad de Stanford, a escribir un artículo en el que afirmaba que «los resultados de las investigaciones publicadas son falsos». Aunque Ioanmdis estaba siendo provocativo de forma intencionada, su idea sirve como una advertencia para no dar por sentado los hallazgos de la investigación solo porque están publicados en una revista científica.

Descubre nuestros mejores artículos en tus redes favoritas

Domina lo mejor de lo que otras personas han descubierto
Únete a Nuestra Newsletter y descubre las mejores ideas, conceptos y prácticas de una amplia gama de disciplinas.


Lista de Sesgos Cognitivos
La Prueba Social (Social Proof) ¿Que es? ¿Cómo funciona? y ¿Cómo sacarle partido?
¿Que es una buena decisión?y ¿Por qué no somos tan racionales como nos gustaría pensar?
Modelos Mentales : El Modelo de la Oferta y la Demanda
El Bias de Anclaje, o Efecto Ancla ¿Que es? ¿Por qué importa? y ¿Cómo evitarlo?
Sesgo Retrospectivo, bias de confirmación a posteriori (Hindsight Bias)
El Efecto Dunning Kruger : Porque a Veces no nos Damos Cuenta de Nuestra Propia Incompetencia
El Bias del Efecto Espectador ¿Realidad o mentira?
¿Qué es la Necesidad de Cognición (Need for Cognition)?
Bias de la insensibilidad al tamaño de muestra
La Falacia o Sesgo de Conjunción
El Ego y el Proceso de Decisión
¿Qué son los Sistemas 1 y Sistema 2 de Daniel Kahneman y Amos tversky?
La falacia de la planificación
Immanuel Kant, Ética Kantiana, y el concepto de justicia
Sesgo de Intervención (Bias de Intervención)
El efecto exposición, o la clave de la economía de la atención
El efecto Von Restorff, o efecto de aislamiento
La Falacia del Jugador, falacia de Montecarlo, o falacia del apostador
Bias o sesgo cognitivo de las Manos Calientes
El Efecto Ikea ¿Qué es y cómo nos afecta?
El efecto de la Pendiente resbaladiza
Ley de las consecuencias no deseadas
El sesgo Cognitivo o Bias del poder
¿Gresham y la falacia de frecuencias?
Pensamiento Contrafactual o Pensamiento Contrafáctico (Counterfactual Thinking)
Sesgo del Resultado o Outcome Bias
¿Qué es el problema de linda de daniel Kahneman y Amos Tversky?
Falacia de la Frecuencia Base o Sesgo de la Frecuencia Base
¿Qué es el Apilamiento Motivacional o Motivation Crowding?
El Dilema del Innovador, o como institucionalizar la innovación
La estructura de las revoluciones científicas por Thomas Khun
Fatiga de decisión ¿Que es y cómo reducir su efecto? Según Daniel H. Pink
La Tragedia de los Comunes, o tragedia de los bienes comunales por Garrett Hardin