La mayoría de nosotros creemos que la estadística es una serie de fórmulas, gráficos y tablas interminables. Lo que muchas veces no vemos es que, detrás de cada porcentaje hay una decisión, una política pública, una familia o una persona que llega (o no) a fin de mes. No es exagerado decir que los datos gobiernan -silenciosamente- buena parte de nuestra vida cotidiana.
Para la investigación cuantitativa, medir no es solamente contar, sino que es definir con precisión qué es lo que se cuenta y para qué se lo cuenta. Sobre la base de Hernández-Sampieri (2022), podemos decir que una variable mal operacionalizada puede invalidar todo un estudio desde antes de comenzarlo. El error no está en el cálculo, sino en la pregunta.
Tomemos un ejemplo: el Instituto Nacional de Estadística y Censos -de la República Argentina- o INDEC, publica la tasa de desocupación y con ella no solo informa un número sino que está delimitando quién es “desocupado”, cuándo, cuántos y bajo qué supuestos metodológicos. Esa definición afecta las comparaciones históricas, las decisiones presupuestarias y también los discursos políticos (INDEC, 2023).
La tentación habitual es buscar relaciones rápidas, generar una noticia con un número, usar dos fenómenos (variables) y ver si se "mueven" juntas para hablar de causa y efecto, pero la estadística es más prudente. Pearson (1896) ya advertía que la correlación, en sí misma, no equivale a explicar. La causalidad requiere de teorías, diseños y control. Sin eso, los porcentajes y gráficos seducen, pero muchas veces mienten.
En las ciencias sociales este problema toma otra notoriedad porque los fenómenos no son estables: cambian con el contexto, cambian con el tiempo y cambian con las decisiones. Por eso los modelos multivariados además de ser una sofisticación técnica, son una necesidad epistemológica: generar una explicación más amplia, más inclusiva para tratar de explicar a un fenómeno. Contrariamente a ello, diría que reducir la realidad a una sola variable dependiente y una independiente (aunque es más fácil), casi nunca es lo correcto.
Según Kahneman (2011), los mayores sesgos no provienen de los datos, sino de quienes los interpretan. El autor mostró que, en muchas ocasiones, incluso expertos tienden a ver patrones donde solo hay casualidad. De allí que el análisis cuantitativo exige algo más difícil que saber calcular, exige aprender a desconfiar de esa primera intuición.
Quizás por eso la buena metodología incomode: Obligue a justificar cada una de las decisiones, a mostrar los supuestos, a admitir las limitaciones y, sobre todo, a aceptar que los números no hablan solos: Hablan con la voz de quien los interroga. Cuando a la estadística se la usa con rigor, deja de ser un tecnicismo y pasa a ser una una herramienta ética.
Dicho de otra forma, la estadística permite discutir desigualdades, evaluar políticas y anticipar posibles escenarios sin prometer verdades absolutas... La estadística si promete mejores preguntas. Es tal vez ese su mayor valor: hacernos acordar que medir es una forma de mirar, y que toda mirada implica una responsabilidad.
Fuentes:
Hernández-Sampieri, R., Fernández-Collado, C., & Baptista, P. (2022). Metodología de la investigación (7.ª ed.). McGraw-Hill.
INDEC. (2023). Mercado de trabajo. Tasas e indicadores socioeconómicos. Instituto Nacional de Estadística y Censos.
Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
Pearson, K. (1896). Mathematical contributions to the theory of evolution. III. Regression, heredity, and panmixia. Philosophical Transactions of the Royal Society of London, 187, 253–318.
