Más allá de la superficie digital: La brecha entre el dato y la acción en la investigación social contemporánea

 ¿El problema de su investigación es un exceso de información o una carencia de sentido? En la actual era de la datificación, nos enfrentamos a una paradoja intelectual sin precedentes: nunca antes habíamos tenido tanta capacidad para registrar el comportamiento humano y, sin embargo, pocas veces nos ha resultado tan difícil comprender las razones profundas que lo movilizan. Existe una creencia seductora, casi mística, en la capacidad del dato por sí solo para dictar políticas, optimizar mercados y resolver crisis humanitarias. Pero la realidad empírica nos devuelve una imagen distinta. El dato, por masivo que sea, solo nos dice qué está pasando en una superficie técnica; son las ciencias sociales las que deben explicar por qué sucede y, lo más importante, para qué sirve ese conocimiento en la construcción de lo público y lo común. Esta brecha entre el dato y la acción no es un fallo técnico que se resuelva con más potencia de cálculo; es una fractura epistemológica que exige recuperar la mirada crítica y la curaduría con sentido social.

El espejismo del cuarto paradigma: Una crítica a la retórica del dato libre de teoría

La emergencia del fenómeno conocido como Big Data ha sido frecuentemente caracterizada por expertos como un "giro computacional" o incluso como el surgimiento de un "cuarto paradigma" de la ciencia.1 Bajo esta premisa, se postula que la ciencia tradicional, impulsada por hipótesis y marcos teóricos (el tercer paradigma de Popper), está siendo desplazada por una forma de indagación impulsada exclusivamente por los datos, donde los patrones emergen de forma espontánea a través de algoritmos masivos.1 Esta retórica suele acompañarse de una visión objetivista que presenta al dato como algo neutral, omnicomprensivo y "libre de teoría".1

Sin embargo, desde una perspectiva metodológica rigurosa, esta neutralidad es insostenible. La recolección de datos no es un acto pasivo; es una intervención mediada por decisiones subjetivas sobre qué infraestructura utilizar, qué variables priorizar y qué grupos incluir o excluir.1 Al enfatizar excesivamente el volumen y la tecnología, se ha descuidado una miopía epistemológica fundamental: la idea de que los datos pueden hablar por sí mismos.1 En realidad, la producción de conocimiento sigue siendo un proceso subjetivo y teóricamente informado. La interpretación no es un paso opcional que sigue al análisis de datos; es el tejido mismo que permite que un conjunto de registros digitales se convierta en saber científico.1


Dimensión Epistemológica

Perspectiva Tradicional

Perspectiva del "Big Data" (Riesgos)

Naturaleza del Conocimiento

Hipotético-deductiva: la teoría guía la observación.

Inductivista: los patrones emergen del volumen.

Causalidad vs. Correlación

Busca entender los mecanismos causales (el "por qué").

Prioriza la correlación estadística (el "qué").

Representatividad

Basada en muestreos controlados y rigurosos.

Basada en el supuesto (falso) de .

Neutralidad

El investigador reconoce su posicionamiento.

Retórica de objetividad técnica e imparcialidad algorítmica.

Finalidad

Explicación y comprensión del fenómeno social.

Predicción y optimización de comportamientos.1


Esta transición hacia un modelo basado en la correlación ha provocado lo que algunos autores llaman una "embriaguez de la previsión", donde la capacidad de predecir resultados ha sustituido a la necesidad de comprender la complejidad humana.3 En sectores como la justicia o las políticas públicas, esto genera una ilusión de control que puede ignorar las desigualdades estructurales subyacentes que no están capturadas en los formatos de datos "ordenados".3

La ontología de la traza digital y la nueva división del conocimiento

Para entender por qué el dato no conduce automáticamente a la acción, debemos analizar la ontología de lo que llamamos "dato". Un dato no es un objeto estático; es una relación.1 Representa un rastro dejado por una interacción humana en una plataforma digital, capturado por una empresa o institución con fines específicos.4 Por lo tanto, el Big Data no debe ser visto como un género de conocimiento independiente, sino como una revolución metodológica inserta en procesos evolutivos de la tecnología y la epistemología.1

Esta revolución ha redibujado la dinámica del poder en la producción de saber. Hemos pasado de una brecha digital de acceso (quién tiene internet) a una brecha digital de datos (quién tiene la capacidad de producir conocimiento a partir de ellos).1 En este nuevo escenario, los "ricos en datos" suelen ser corporaciones privadas que actúan como nuevos guardianes o gatekeepers del descubrimiento de conocimiento, mientras que la academia y los sectores sociales quedan relegados a una periferia con acceso limitado o nominal.1 El problema de la acción radica aquí: si los datos que deberían guiar la política pública están bajo llave o son procesados por cajas negras algorítmicas con fines de lucro, la posibilidad de una acción orientada al bien común se desvanece.1

Además, la supuesta exhaustividad de los grandes conjuntos de datos es un límite matemático, no una realidad social. Los datos masivos suelen ser "sucios", fragmentados y carentes del contexto necesario para que un tomador de decisiones actúe con prudencia.5 La acción requiere no solo información, sino una validación de la arquitectura de esos datos mediante fundamentos que solo las ciencias sociales, con su énfasis en lo cualitativo y lo contextual, pueden proporcionar.7

El rescate del contexto: Thick Data como imperativo metodológico

Cuando las organizaciones, ya sean gubernamentales o corporativas, intentan actuar basándose únicamente en el Big Data, a menudo se encuentran con resultados estériles. Esto se debe a que los grandes conjuntos de datos son, por definición, "delgados" (Thin Data): carecen de la profundidad de significado, las emociones y los modelos de mundo que los seres humanos asignan a sus acciones.8 La analista Tricia Wang introdujo el concepto de "Thick Data" (datos densos) para describir el conocimiento cualitativo derivado de la investigación etnográfica que permite ver los patrones humanos con resolución completa.9

Mientras que el Big Data busca la escala y la generalización, el Thick Data se sumerge en la complejidad irreductible de las historias individuales y colectivas. El riesgo de un mundo gobernado solo por el Big Data es que las decisiones se optimicen para métricas derivadas de algoritmos, olvidando las experiencias reales de las personas.9 La integración de ambos, lo que algunos denominan "analítica mixta", es lo que permite que el dato trascienda hacia una acción efectiva y humana.8


Característica

Big Data (Datos Masivos)

Thick Data (Datos Densos)

Formatos

Numérico, estructurado, digital.

Narrativo, visual, experiencial.

Metodología

Machine Learning, estadística masiva.

Etnografía, observación participante, entrevistas.

Fortaleza

Revela patrones a gran escala (qué ocurre).

Revela el contexto y la motivación (por qué ocurre).

Punto de vista

Externo, macro-sistémico.

Interno, desde la vida cotidiana.

Rol en la Acción

Automatización, predicción y escalabilidad.

Inspiración, identificación de necesidades no expresadas.5


La acción en política pública es un ejemplo claro de esta necesidad. Un gobierno puede saber, a través de Big Data, que hay un aumento en la deserción escolar en un distrito específico. Pero esa información es insuficiente para diseñar una intervención. ¿Los estudiantes desertan por falta de transporte, por violencia en el hogar, por la necesidad de trabajar o por un currículo que no resuena con su cultura local? Solo el Thick Data puede responder a estas preguntas y permitir que la acción sea precisa y no un simple disparo estadístico al aire.5

Curaduría de datos: La práctica de dotar de sentido al caos

Si aceptamos que el conocimiento no se genera solo por la acumulación de datos, debemos reconocer la importancia de la curaduría. En las ciencias sociales, la curaduría de datos no es una tarea de archivo técnica; es una forma de "hacer sentido" (meaning-making) que asegura que la información sea interpretable y reutilizable en contextos distintos a los de su origen.10 Los curadores de datos —investigadores, bibliotecarios, analistas éticos— actúan bajo el mantra de que "el conocimiento no se cura solo".11

La curaduría con sentido social implica ir más allá de la limpieza de bases de datos para abordar cinco áreas fundamentales que transforman el dato en un bien público 11:

  1. Fomento de la curiosidad: Proporcionar un abanico diverso de fuentes que invite a la reflexión independiente, en lugar de alimentar burbujas de confirmación.11

  2. Alfabetización informacional: Dotar a los usuarios de las habilidades necesarias para entender cómo se llegó a una conclusión científica.11

  3. Validación de fuentes: Distinguir entre opiniones marginales y evidencias robustas derivadas de estudios a gran escala.11

  4. Hermenéutica del dato: Contextualizar los hallazgos según los cambios sociales. Por ejemplo, ser madre soltera en 1946 es una experiencia radicalmente distinta a serlo en 2026, y la curaduría debe reflejar estos cambios de significado para que el dato siga siendo útil.11

  5. Transparencia procesal: Ser explícito sobre los sesgos y limitaciones del diseño de investigación, permitiendo que otros cuestionen y repliquen el trabajo.11

Este proceso es vital para el cumplimiento de los principios FAIR (Findable, Accessible, Interoperable, Reusable). Sin una curaduría profesional, los datos corren el riesgo de convertirse en "ruido digital" o, peor aún, en herramientas de desinformación que parecen tener autoridad científica pero carecen de rigor metodológico.12

La crisis del razonamiento humanitario: Cuando el dato sobrepasa la acción

Uno de los campos donde la brecha entre el dato y la acción es más crítica es el de la ayuda humanitaria. En situaciones de conflicto o desastre, la necesidad de actuar rápidamente ha llevado a una proliferación de conjuntos de datos masivos. Sin embargo, los profesionales en el terreno a menudo reportan una sensación de "sobrecarga de información" sin que esto se traduzca en una mejor toma de decisiones.14 Se ha pasado de una escasez de datos a una "anarquía estadística", donde diferentes organizaciones producen cifras contradictorias sobre el mismo fenómeno, como ocurrió con las tasas de mortalidad en el conflicto de Darfur.15

El problema reside en que los datos masivos a menudo carecen de "corazón" o de una conexión con la realidad ética del terreno.7 La digitalización de la razón humanitaria corre el riesgo de priorizar lo que es medible sobre lo que es controversial o desafiante políticamente.14 Por ejemplo, es fácil contar camiones de comida que entran en una zona de guerra, pero es mucho más difícil medir el impacto del trauma psicosocial o la erosión de los derechos humanos. Cuando la acción se guía solo por lo cuantificable, se terminan atendiendo los síntomas logísticos mientras se ignoran las raíces estructurales del sufrimiento.16


Desafío en Datos Humanitarios

Impacto en la Acción

Solución desde la Ciencia Social

Anarquía Estadística

Decisiones basadas en cifras contradictorias o sesgadas.

Estandarización metodológica y validación independiente.15

Falta de Traductores

Los analistas de datos y los trabajadores de campo no hablan el mismo idioma.

Fomento de perfiles híbridos que comprendan el contexto y la técnica.7

Riesgos de Privacidad

Filtraciones de datos en zonas de conflicto que pueden costar vidas.

Protocolos de ética de datos centrados en la protección del sujeto.7

Sesgo Lingüístico

Algoritmos entrenados en inglés que fallan al procesar dialectos locales.

Inversión en talentos locales e infraestructura de datos contextualizada.18

Obsesión por el Piloto

Muchos proyectos experimentales pero pocos sistemas a largo plazo.

Enfoque en la sostenibilidad y el fortalecimiento de capacidades locales.18


La acción humanitaria efectiva requiere pasar del "lugar del dato" al "lugar del análisis", donde la información se convierta en saber útil para la protección de la dignidad humana.14 Esto solo es posible si se integran "traductores de datos" que puedan interpretar la frialdad de las estadísticas a la luz de las necesidades urgentes y los contextos políticos volátiles.7

Justicia, algoritmos y el problema de la "caja negra"

La aplicación de algoritmos en el sistema de justicia criminal y en la seguridad pública es otro terreno donde la brecha entre el dato y la acción revela sus aristas más peligrosas. El uso de datos para identificar puntos calientes de criminalidad o evaluar el riesgo de reincidencia parece una solución técnica eficiente. Sin embargo, si estos algoritmos se entrenan con datos históricos que reflejan sesgos raciales o de clase, el resultado no será una justicia más objetiva, sino una discriminación automatizada.19

El concepto de "sesgo algorítmico" nos recuerda que la IA no opera en un vacío. Los algoritmos son entrenados en el mundo tal cual es, con todas sus inequidades sistémicas.19 Cuando un juez toma una decisión basada en una puntuación de riesgo generada por una "caja negra" (un sistema cuyo funcionamiento interno es inescrutable), la responsabilidad y el debido proceso se ven comprometidos.19 La acción judicial pierde su carácter humano y reflexivo para convertirse en una ejecución de patrones estadísticos que castigan la pobreza o la procedencia étnica en lugar del hecho delictivo individual.20

Para cerrar esta brecha, la ciencia social propone una "ética aplicada" que sea machine-centric pero con un profundo entendimiento de los prejuicios sociales.20 Esto implica realizar evaluaciones de impacto de sesgos, asegurar la transparencia de los modelos y, sobre todo, garantizar que la tecnología no desplace la autonomía humana, sino que la complemente.20

El papel del científico social en la gobernanza del dato

Ante este panorama, la labor del científico social especializado en metodología se vuelve indispensable. Su función no es solo recolectar datos, sino actuar como un "terapeuta de datos" o un curador ético que pueda navegar las complejidades de lo humano.7 La gobernanza efectiva del dato requiere una comprensión de que los desafíos no son técnicos, sino sociales: quién es dueño de la información, cómo se garantiza el consentimiento en entornos vulnerables y qué decisiones estamos delegando a las máquinas.3

La curaduría de datos con sentido social debe ser vista como un proceso de gestión sistemática a lo largo de todo el ciclo de vida del dato.6 No basta con "limpiar" una base de datos; hay que "curarla" en el sentido etimológico de curare (cuidar). Esto incluye proteger la privacidad de los sujetos, asegurar la interoperabilidad entre sistemas y, fundamentalmente, mantener viva la conexión entre el registro digital y la persona de carne y hueso que lo generó.18


Etapa de Curaduría

Tareas Principales

Objetivo de Conocimiento

Colección y Evaluación

Identificación de fuentes, verificación de ética y legalidad.

Asegurar la integridad original del material.22

Procesamiento y Limpieza

Estandarización de formatos, eliminación de errores, anonimización.

Hacer el dato manejable sin perder su esencia narrativa.22

Enriquecimiento (Metadatos)

Creación de diccionarios de datos, anotación contextual.

Facilitar la interpretación por parte de otros investigadores.6

Validación y Calidad

Evaluación de consistencia y representatividad.

Mitigar sesgos antes de la fase de análisis.11

Preservación y Acceso

Almacenamiento a largo plazo bajo principios FAIR.

Garantizar que el conocimiento sea un recurso democrático y perdurable.6


Hacia una metodología de la acción: Conclusiones para una nueva práctica

La brecha entre el dato y la acción no se cerrará simplemente con mejores algoritmos o mayor capacidad de almacenamiento. Se cerrará cuando volvamos a situar la pregunta por el sentido en el centro de la investigación social. El dato nos dice qué sucede, pero solo la metodología crítica nos explica por qué y nos da las herramientas para decidir para qué queremos ese saber.

La investigación social contemporánea debe resistir la tentación de un empirismo ciego que confunde la correlación con la verdad. Al mismo tiempo, no puede ignorar el potencial revolucionario de los nuevos métodos digitales. La clave está en una síntesis que reconozca que la ciencia es una empresa social; que el dato es una construcción relacional y que la curaduría es un acto político de cuidado del conocimiento.

Debemos pasar de una cultura de la "predicción de patrones" a una cultura de la "curaduría de sentidos". Solo así los datos masivos dejarán de ser ruido digital para convertirse en la base de una acción pública, humanitaria y socialmente justa. La invitación no es a recolectar menos datos, sino a pensar más sobre ellos. A fin de cuentas, en el corazón de cada bit de información, late una historia humana esperando ser comprendida, no solo procesada.

Obras citadas

  1. Big Data and the Little Big Bang: An Epistemological (R ... - Frontiers, fecha de acceso: marzo 30, 2026, https://www.frontiersin.org/journals/big-data/articles/10.3389/fdata.2020.00031/full

  2. How to study Big Data epistemology in the social sciences? - Rajapinta, fecha de acceso: marzo 30, 2026, https://rajapinta.co/2017/01/27/how-to-study-big-data-epistemology-in-the-social-sciences/

  3. Sociology between big data and research frontiers, a challenge for ..., fecha de acceso: marzo 30, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC8897736/

  4. Epistemology, methods and theories of communication in the Big Data Era: a critical panorama of social media research - OpenEdition Journals, fecha de acceso: marzo 30, 2026, https://journals.openedition.org/cs/330?lang=fr

  5. Lab Long Read: Human-centred policy? Blending 'big data' and 'thick data' in national policy, fecha de acceso: marzo 30, 2026, https://openpolicy.blog.gov.uk/2020/01/17/lab-long-read-human-centred-policy-blending-big-data-and-thick-data-in-national-policy/

  6. Transforming Research with Data Curation Practices - Center for Open Science, fecha de acceso: marzo 30, 2026, https://www.cos.io/blog/data-curation

  7. 10 big data science challenges facing humanitarian organizations - UNHCR Innovation, fecha de acceso: marzo 30, 2026, https://www.unhcr.org/innovation/10-big-data-science-challenges-facing-humanitarian-organizations/

  8. Integrating Big Data and Thick Data to Transform Public Services Delivery, fecha de acceso: marzo 30, 2026, https://www.businessofgovernment.org/sites/default/files/Integrating%20Big%20Data%20and%20Thick%20Data%20to%20Transform%20Public%20Services%20Delivery_0.pdf

  9. Why Big Data Needs Thick Data. Integrating Qualitative and… | by ..., fecha de acceso: marzo 30, 2026, https://medium.com/ethnography-matters/why-big-data-needs-thick-data-b4b3e75e3d7

  10. A study on formalizing the knowledge of data curation activities across different fields - PMC, fecha de acceso: marzo 30, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC11045097/

  11. New Guide Recognizes the Value of Good Curation - Social Science ..., fecha de acceso: marzo 30, 2026, https://www.socialsciencespace.com/2025/10/new-guide-recognizes-the-value-of-good-curation/

  12. Data Curation: Introducing a Competency Framework for the Social Sciences, fecha de acceso: marzo 30, 2026, https://ijdc.net/index.php/ijdc/article/view/889

  13. Data Curation Service, fecha de acceso: marzo 30, 2026, https://data.research.cornell.edu/data-management/archiving-and-preservation/data-curation-services/

  14. Full article: You Already Know Enough: Certainty and Ignorance in Data-Driven Humanitarianism - Taylor & Francis, fecha de acceso: marzo 30, 2026, https://www.tandfonline.com/doi/full/10.1080/14650045.2025.2463005

  15. Making sense of shaky data in humanitarian crises - PMC, fecha de acceso: marzo 30, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC12206765/

  16. A systematic literature review on the use of big data analytics in humanitarian and disaster operations - PMC, fecha de acceso: marzo 30, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC9936938/

  17. Unlocking justice: the crucial role of data in the criminal justice system - unodc, fecha de acceso: marzo 30, 2026, https://www.unodc.org/unodc/frontpage/2024/April/unlocking-justice_-the-crucial-role-of-data-in-the-criminal-justice-system.html

  18. How AI Is Changing Humanitarian Aid: Risks and Opportunities - cadus.org, fecha de acceso: marzo 30, 2026, https://www.cadus.org/en/blog-en/how-ai-is-changing-humanitarian-aid/

  19. Artificial intelligence and algorithmic bias: implications for health systems - PMC - NIH, fecha de acceso: marzo 30, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC6875681/

  20. AI bias: exploring discriminatory algorithmic decision-making models and the application of possible machine-centric solutions adapted from the pharmaceutical industry - PMC, fecha de acceso: marzo 30, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC8830968/

  21. Algorithmic Bias as a Core Legal Dilemma in the Age of Artificial Intelligence: Conceptual Basis and the Current State of Regulation - MDPI, fecha de acceso: marzo 30, 2026, https://www.mdpi.com/2075-471X/14/3/41

  22. The 3 Vital Stages of Data Curation - Rancho BioSciences, fecha de acceso: marzo 30, 2026, https://ranchobiosciences.com/blog/primary-data-curation-stages

  23. Data curation: A conceptual framework for the study of data quality - Research Collection, fecha de acceso: marzo 30, 2026, https://www.research-collection.ethz.ch/bitstreams/cdb35052-04d5-4ffe-bf0a-014a10b3d047/download

  24. What Is Data Curation? Why Is It Important? - Alation, fecha de acceso: marzo 30, 2026, https://www.alation.com/blog/what-is-data-curation/

Comentarios

Entradas más populares de este blog

Epistemología de la Alteridad y la Estructura: Un Análisis Crítico de las Fronteras entre Sociología y Antropología en la Investigación Chilena