El imperativo de la reflexividad: Ética, tentación y praxis de la Inteligencia Artificial en la investigación de las Ciencias Sociales

 La irrupción de la inteligencia artificial generativa (IAGen) ha dejado de ser una promesa tecnológica para convertirse en una realidad disruptiva que redefine los cimientos de la producción científica global. En el ámbito de las ciencias sociales, esta transformación no se limita a la optimización de procesos técnicos, sino que alcanza dimensiones ontológicas y epistemológicas fundamentales. La inteligencia artificial debe entenderse, ante todo, como un instrumento cultural: un producto artificial creado a partir del procesamiento de objetos de la cultura humana, lo que implica que su uso no es neutral y requiere una aproximación ética exhaustiva.1 Esta tecnología, arraigada en infraestructuras financieras y geopolíticas específicas —principalmente centradas en Silicon Valley, China y la Unión Europea—, conlleva implicaciones que van desde el impacto ambiental del consumo energético y de agua hasta la reconfiguración de la autoridad del conocimiento.1

En el contexto de la investigación académica, la presión por la productividad, frecuentemente denominada como la cultura del "publicar o perecer", ha exacerbado la tentación de utilizar la IA como un atajo en lugar de un complemento. Este fenómeno plantea un desafío crítico a la integridad científica, especialmente en disciplinas donde la profundidad analítica y la vigilancia epistemológica son esenciales para captar la complejidad de los fenómenos humanos.3 El uso responsable de estas herramientas no solo demanda transparencia en el reporte de su aplicación, sino una reevaluación de la noción de autoría y una defensa férrea de la reflexividad del investigador.5

Fundamentos Epistemológicos: De la Vigilancia Crítica a la "Epistemolog-IA"

La integración de la IA en las ciencias sociales ha dado lugar a lo que se define como "Epistemolog-IA", un campo de reflexión que examina cómo las herramientas algorítmicas alteran las bases teóricas del desarrollo científico.2 La epistemología tradicional, entendida como el ejercicio reflexivo sobre la validez y los límites del conocimiento, se enfrenta hoy a una herramienta que, aunque fascinante, plantea incógnitas sobre la transparencia y la reproducibilidad del saber.2

La Paradoja de Moravec y la Deshumanización del Conocimiento

Un concepto central para comprender las limitaciones de la IA en la investigación social es la Paradoja de Moravec. Esta establece que las tareas lógicas y computacionales de alto nivel requieren poca computación, mientras que las habilidades sensoriales y motoras de bajo nivel requieren recursos computacionales enormes.2 Trasladado a la investigación social, esto significa que la IA puede procesar volúmenes masivos de datos estadísticos con facilidad, pero fracasa estrepitosamente al intentar captar el juicio moral, la empatía o el contexto profundo que surge en una entrevista etnográfica o en la observación participante.2

La dependencia excesiva de la IA conlleva el riesgo de una "humanidad hackeada", un estado donde la mente se vuelve inactiva debido a la rutina tecnológica y la ausencia de desafíos intelectuales.2 En disciplinas como la sociología y la antropología, la autoridad del conocimiento ha residido históricamente en el experto humano y en instituciones que garantizan la rigurosidad. La delegación de la producción de conocimiento a máquinas plantea preguntas urgentes sobre la deshumanización del saber y la pérdida del juicio crítico.2

Vigilancia Epistemológica y Reflexividad

Siguiendo a Pierre Bourdieu, mantener una vigilancia epistémica en la investigación significa preguntarse constantemente qué es hacer ciencia y saber qué hace el científico con sus objetos de estudio.3 La reflexividad se distingue de la mera reflexión en cuanto opera como una crítica a los mecanismos de producción de verdad y a los fundamentos gnoseológicos.3

En el proceso de investigación social, la reflexividad debe ser un ejercicio continuo que rompa con las concepciones tradicionales de investigación, promoviendo nuevas formas de abordaje.3 La IA, al basarse en patrones estadísticos y en lo predecible, tiende a reforzar el pensamiento paradigmático que reproduce visiones determinadas del mundo, a menudo ciegas a la heterogeneidad y la divergencia.3 El investigador debe, por tanto, actuar como un agente de vigilancia que armonice el uso de herramientas tecnológicas con un proceso ininterrumpido de autocrítica.3

El Impacto de la IA en las Fases de la Investigación Científica

La IA ha transformado cada etapa del ciclo de vida de un proyecto de investigación en ciencias sociales, desde la concepción de la idea hasta la publicación final. Sin embargo, el impacto no es uniforme y varía significativamente según el nivel de experiencia del investigador y la naturaleza de la tarea.


Fase de la Investigación

Aplicación de la IA

Impacto Identificado

Riesgo Principal

Generación de ideas

Brainstorming y superación del bloqueo creativo.

Los estudiantes la usan más en esta fase inicial.8

Superficialidad y falta de originalidad.7

Revisión de literatura

Resumen y síntesis de grandes volúmenes de artículos.

Mejora la eficiencia en la búsqueda de fuentes.8

Sesgos algorítmicos y omisión de fuentes divergentes.2

Análisis de datos

Procesamiento de lenguaje natural (NLP) y minería de datos.

72% de impacto positivo en la rapidez del análisis.12

"Caja negra" y pérdida de matices cualitativos.4

Redacción y edición

Mejora de estilo, gramática y traducción.

Los docentes la emplean principalmente en esta etapa final.8

Plagio inadvertido o pérdida de la voz autoral.14

Evaluación por pares

Revisión automatizada y detección de patrones.

Puede identificar inconsistencias pero carece de juicio moral.14

Deshonestidad académica y evaluaciones sesgadas.4


La Tentación del Atajo y el Síndrome de la Hoja en Blanco

Uno de los mayores desafíos éticos para el científico social contemporáneo es la tentación de utilizar la IA para superar el "síndrome de la hoja en blanco" de manera mecánica. Si bien la IAGen puede ofrecer una hoja de ruta clara para evitar el bloqueo, existe el peligro de que el investigador pase demasiado rápido a la acción sin haber "amasado" el problema.7 Albert Einstein afirmaba que, ante un problema, dedicaría 55 minutos a pensar en la pregunta y solo 5 minutos a la solución; la IA invierte este proceso, proporcionando respuestas inmediatas que pueden ser irrelevantes si la pregunta inicial no ha sido cuestionada.7

El proceso de investigación social es, por definición, lento y sinuoso; requiere tiempo para que las verdades se revelen y para que el investigador desarrolle una disposición intelectual que se pule a lo largo de los años.6 La tentación de la inmediatez que ofrece la IA puede atrofiar esta capacidad de "pasar tiempo con los problemas", resultando en investigaciones que, aunque parezcan impresionantes, carecen de una base conceptual sólida.7

Desafíos Éticos y la Responsabilidad de la Autoría

La cuestión de quién es el autor en un mundo asistido por IA desafía las nociones tradicionales de propiedad intelectual y ética académica. La postura mayoritaria en las revistas científicas y organismos internacionales es clara: la IA no puede ser considerada autora ni asumir responsabilidad jurídica o moral sobre los contenidos generados.2

Transparencia y Reporte de Uso

Para garantizar la integridad académica, es imperativo que los investigadores reporten de forma efectiva y detallada cómo han incorporado la IA en sus textos.5 Este reporte no debe limitarse a una mención genérica, sino que debe dejar evidencia de la ruta seguida para que otros puedan comprender y, eventualmente, replicar el uso dado.5 La honestidad académica implica evitar la falta de atribución de ideas, la falsificación de fuentes y la manipulación de datos generados algorítmicamente.10

Existe, además, un riesgo significativo relacionado con la cesión de derechos. Al utilizar plataformas de IA propietarias, los investigadores podrían estar cediendo, de manera inadvertida, derechos morales o patrimoniales sobre sus textos a las corporaciones dueñas de dichas plataformas.15 Este es un punto crítico de soberanía científica, especialmente en regiones como América Latina, donde se busca que la tecnología esté al servicio del bien social y no subordinada a intereses comerciales externos.20

Sesgos Algorítmicos y Justicia Social

Los sistemas de IA se entrenan con datos que reflejan las desigualdades y prejuicios presentes en la sociedad. Si estos sesgos no son reconocidos y corregidos por el investigador social, la IA puede perpetuar y amplificar las inequidades existentes.2 Por ejemplo, en estudios de sociología urbana o criminología, el uso de datos predictivos sesgados puede derivar en resultados discriminatorios para minorías étnicas o comunidades marginadas.2

La ética de la IA debe, por tanto, considerar aspectos de justicia política, económica y ambiental.1 La economía de datos y las regulaciones sobre el uso de datos de terceros son fundamentales para proteger la privacidad y la dignidad humana.1 Los investigadores deben ser ciudadanos responsables que busquen no solo ser consumidores de tecnología, sino posibilitadores de usos imaginativos que contribuyan al desarrollo sostenible y la equidad.1

La IA en el Análisis Cualitativo: Riesgos de Deshumanización

En disciplinas como la antropología y la sociología cualitativa, el análisis profundo de los discursos y las prácticas sociales es el núcleo de la producción de conocimiento. La IA ofrece herramientas poderosas para la transcripción y codificación, pero su aplicación plantea riesgos severos de pérdida de matices.

El Valor de "Lo No Dicho"

El análisis cualitativo humano se centra a menudo en lo que no se dice: los silencios, las omisiones, las vacilaciones y las entonaciones que denotan ironía o sarcasmo.13 La transcripción literal y el análisis hermenéutico restituyen esta riqueza que la IA tiende a ignorar al buscar patrones de eficacia estadística y fórmulas predecibles.7 El significado reside tanto en lo que se enuncia como en lo que se deja sin decir; el investigador debe transitar infatigablemente en el círculo hermenéutico entre las partes y el todo, una tarea que requiere una consciencia que la IA no posee.23

Triangulación Humana como Estrategia de Validación

Para contrarrestar la tendencia de la IA a la homogeneización del conocimiento, la metodología de la investigación social propone la triangulación. Esta técnica facilita el uso de múltiples métodos, fuentes de datos e investigadores para la validación de los hallazgos.24 En un entorno asistido por IA, la triangulación metodológica se vuelve vital: el investigador puede usar la IA para identificar patrones en grandes volúmenes de datos (análisis cuantitativo o Big Data) y luego contrastar esos hallazgos mediante técnicas cualitativas profundas (entrevistas, observación) para garantizar la validez interna del estudio.24


Tipo de Triangulación

Aplicación con IA

Beneficio Metodológico

Metodológica

Combinar análisis de redes (NodeXL) con entrevistas en profundidad.

Compensa la rigidez algorítmica con la profundidad humana.25

De Investigadores

Uso de IA por diferentes especialistas para analizar un mismo fenómeno.

Fomenta la interdisciplinariedad y reduce sesgos individuales.24

De Datos

Cruzar predicciones de IA con registros históricos y observación directa.

Valida la precisión de los modelos algorítmicos frente a la realidad social.24

Teórica

Probar hipótesis rivales utilizando diferentes modelos de lenguaje.

Evaluación del poder explicativo de diversas teorías frente a los datos.24


Herramientas Tecnológicas y su Aplicación en Ciencias Sociales

La selección de la herramienta adecuada es un paso crítico que debe considerar las necesidades específicas del proyecto y los constraints institucionales.30 En las ciencias sociales, algunas herramientas han pasado de ser software estadístico tradicional a plataformas complejas que integran aprendizaje automático.

Clasificación de Herramientas de IA para Investigadores Sociales

A continuación, se presenta una comparativa de herramientas destacadas y su utilidad en la investigación social:


Herramienta

Función Principal

Aplicabilidad en Ciencias Sociales

Capacidad de IA

NVivo / ATLAS.ti

Análisis cualitativo.

Codificación de entrevistas y grupos focales.

Incorporación de codificación automática y análisis de sentimientos.27

IBM SPSS

Análisis cuantitativo.

Estadística social y modelado predictivo.

Algoritmos de machine learning para descubrir patrones ocultos.27

NodeXL

Análisis de redes.

Visualización de dinámicas en redes sociales online.

Cálculo de métricas de centralidad y detección de comunidades.27

Scite / ResearchRabbit

Gestión bibliográfica.

Análisis de redes de citas y descubrimiento de literatura.

Evaluación de la credibilidad mediante el contexto de las citas.30

Sonix

Transcripción.

Conversión de audio/video a texto para etnografía.

Alta precisión multilingüe y sellos de tiempo automáticos.30

Crimson Hexagon

Social Listening.

Análisis de grandes volúmenes de datos de opinión pública.

Análisis de sentimientos y tendencias de conversación a escala.27


Es fundamental evaluar cuál de estas herramientas se adapta mejor a los objetivos del estudio. Por ejemplo, mientras que Sonix es excelente para la recolección de datos primarios, Elicit o ResearchRabbit son más útiles en la fase de fundamentación teórica.27 Sin embargo, ninguna de estas aplicaciones sustituye la interpretación humana; funcionan como asistentes que aumentan la capacidad de procesamiento de información que supera la retención humana.11

El Marco Regulatorio: El Caso de Chile y la ANID

En el ámbito latinoamericano, Chile ha emergido como un referente en la gobernanza ética de la IA. El Ministerio de Ciencia, Tecnología, Conocimiento e Innovación (MinCiencia) ha liderado la actualización de la Política Nacional de Inteligencia Artificial, centrada en principios de ética, inclusión y responsabilidad.22

Iniciativas del MinCiencia y la Agencia Nacional de Investigación y Desarrollo (ANID)

El gobierno chileno ha impulsado un marco regulatorio integral que permite la investigación y el desarrollo responsable de la IA, respetando los derechos fundamentales.22 En 2024, se publicó la "Circular N°711" y la "Guía para el uso de Inteligencia Artificial en el sector público", estableciendo por primera vez lineamientos claros para el Estado y las instituciones asociadas.31

La ANID ha integrado la IA como una disciplina transversal y ha orientado sus fondos (como Fondecyt e IDeA I+D) hacia proyectos que no solo usen la tecnología, sino que también investiguen sus impactos sociales, ambientales y éticos.22 Existe un énfasis particular en:

  • Formación de Capital Humano: Fomentar la capacitación permanente en el uso ético de la IA para académicos y estudiantes.22

  • Género y Diversidad: Promover la eliminación de sesgos en los modelos algorítmicos y bonificar proyectos dirigidos por mujeres para cerrar brechas históricas.33

  • Sostenibilidad Ambiental: Fomentar el desarrollo de infraestructuras de IA que utilicen energías renovables y tengan bajo consumo de recursos.22

El Manual de "Mejor Trabajo en Investigación"

El MinCiencia presentó recientemente el "Manual de Recomendaciones de la Agenda Mejor Trabajo en Investigación", que aborda la dimensión humana del sistema científico.35 Aunque se enfoca en la estabilidad laboral, el bienestar y la salud mental, su relevancia para la IA radica en el combate al "agobio laboral".35 Un investigador agobiado por la presión de resultados es más propenso a ceder ante la tentación de un uso deshonesto o superficial de la IA. El manual busca, por tanto, crear condiciones de "trabajo decente" donde la investigación pueda florecer de manera ética y reflexiva.35

El Futuro de la Producción Científica en Ciencias Sociales

La convergencia entre la IA y la ética en la investigación augura un futuro donde la toma de decisiones éticas podría estar integrada en los propios algoritmos.14 Sin embargo, la esencia de la ciencia social seguirá residiendo en la capacidad de cultivar una cultura de investigación que valore la integridad y la transparencia por encima de los resultados meramente impresionantes.14

Hacia una Soberanía Científica Regional

La "Declaración de Santiago", suscrita por rectores de macrouniversidades de América Latina, hace un llamado a fortalecer la soberanía científica frente a las métricas y rankings internacionales que a menudo ignoran el impacto social local.21 En esta era de transformación digital, las universidades públicas deben alzarse como referentes del pensamiento crítico frente a la desinformación y el cuestionamiento del conocimiento científico.21 La IA debe ser concebida estrictamente como una herramienta al servicio de las personas y no como un fin que convierta a los investigadores en simples operarios técnicos.21

Educación y Alfabetización Digital

La formación de los futuros científicos sociales debe incluir la IA no solo como una herramienta técnica, sino como un objeto de estudio crítico. Es necesario fortalecer las bases curriculares para incorporar habilidades de comprensión y análisis de la IA desde la educación básica hasta la formación doctoral.22 En Chile, la alianza "Futuros docentes en IA" entre el CRUCH y el sector privado es un ejemplo de cómo se busca integrar estas capacidades de manera transversal en las carreras de pedagogía, asegurando que la próxima generación de educadores pueda guiar un uso ético y responsable de la tecnología.33

Conclusiones para una Praxis Responsable

El uso de la IA en la creación de papers científicos en ciencias sociales no es un destino inevitable al que debamos someternos sin crítica, sino una frontera que debemos habitar con vigilancia epistemológica. La tentación del atajo y la rapidez no debe oscurecer el proceso lento y sinuoso que caracteriza al pensamiento sociológico y antropológico de calidad.

Para los investigadores actuales, el camino hacia un uso responsable implica:

  1. Asumir la Autoría Total: Reconocer que la responsabilidad moral y legal del contenido es intransferible. La IA es un asistente, no un co-autor.2

  2. Transparencia Metodológica: Reportar con rigor cómo y para qué se utilizó la herramienta, permitiendo la trazabilidad y la replicabilidad del proceso.5

  3. Reflexividad Constante: No permitir que la automatización sustituya el juicio crítico. El investigador debe seguir siendo el garante de la profundidad y el contexto de sus hallazgos.3

  4. Compromiso Social: Utilizar la IA para abordar los grandes desafíos de nuestro tiempo —pobreza, cambio climático, desigualdad— sin perpetuar los sesgos que estas mismas herramientas pueden contener.1

La inteligencia artificial tiene el potencial de transformar las ciencias sociales, dotando a los investigadores de capacidades sin precedentes para analizar la complejidad humana. Sin embargo, este potencial solo se materializará si mantenemos la ética y la reflexividad en el centro de nuestra praxis, recordando que el objetivo final de la ciencia no es solo producir datos, sino comprender y mejorar la condición humana en un mundo cada vez más automatizado.

Obras citadas

  1. Reflexiones sobre el uso Ético de la Inteligencia Artificial - UNESCO, fecha de acceso: marzo 20, 2026, https://www.unesco.org/es/articles/reflexiones-sobre-el-uso-etico-de-la-inteligencia-artificial

  2. EPISTEMOLOG-IA: LA CONFLUENCIA DE LA ... - Dialnet, fecha de acceso: marzo 20, 2026, https://dialnet.unirioja.es/descarga/articulo/9726345.pdf

  3. La importancia de la epistemología y reflexividad en la investigación científica - Revistas UNAM, fecha de acceso: marzo 20, 2026, https://revistas.unam.mx/index.php/eutopia/article/download/47263/42546/127716

  4. Inauguración. Conferencia: Uso ético y responsable de la IA durante la investigación doctoral - YouTube, fecha de acceso: marzo 20, 2026, https://www.youtube.com/watch?v=C7ebRaArNVU

  5. Guía para uso y reporte de inteligencia artificial en revistas científico ..., fecha de acceso: marzo 20, 2026, https://www.revistas.una.ac.cr/index.php/EDUCARE/article/view/19830/31541

  6. Redalyc.La reflexividad sobre los procesos de enseñanza y aprendizaje de la investigación en ciencias sociales, fecha de acceso: marzo 20, 2026, https://www.redalyc.org/pdf/5155/515552365004.pdf

  7. IA y el síndrome de la hoja en blanco; Diego Luque en EMPRESAS EN ACCIÓN - YouTube, fecha de acceso: marzo 20, 2026, https://www.youtube.com/watch?v=sIDAj7A9Ww8

  8. La inteligencia artificial en la investigación científica: una revisión sistemática trienal, fecha de acceso: marzo 20, 2026, https://ve.scielo.org/scielo.php?script=sci_arttext&pid=S2739-00632026000303010

  9. Riesgos éticos de la Inteligencia Artificial en Instituciones de Educación Superior: Una perspectiva a través de las Representaciones Sociales. - CIECEM 2024, fecha de acceso: marzo 20, 2026, https://2024.ciecem.org/ponencia/riesgos-eticos-de-la-inteligencia-artificial-en-instituciones-de-educacion-superior-una-perspectiva-a-traves-de-las-representaciones-sociales/

  10. Recomendaciones para el uso crítico de la IA generativa ... - Zenodo, fecha de acceso: marzo 20, 2026, https://zenodo.org/records/12728627/files/02-%20Recomendaciones%20para%20el%20uso%20cri%CC%81tico%20de%20la%20IA%20generativa%20en%20la%20elaboracio%CC%81n%20de%20tesis%20de%20grado.pdf?download=1

  11. el impacto de la inteligencia artificial en la sociedad: una revisión sistemática de su influencia en ámbitos sociales, económicos y tecnológicos - Ciencia Latina Revista Científica Multidisciplinar, fecha de acceso: marzo 20, 2026, https://ciencialatina.org/index.php/cienciala/article/download/16468/23559/

  12. Vista de El Reto de la Inteligencia Artificial ante la Investigación en ..., fecha de acceso: marzo 20, 2026, https://revistas.pucese.edu.ec/hallazgos21/article/view/688/731

  13. Estrategias y prácticas cualitativas de investigación social - Biblioteca Hegoa, fecha de acceso: marzo 20, 2026, https://biblioteca.hegoa.ehu.eus/downloads/20427/%2Fsystem%2Fpdf%2F3862%2FEstrategias_y_practicas_cualitativas_de_investigacion_social.pdf

  14. Uso seguro de la IA en investigación y redacción académica - scientify RESEARCH, fecha de acceso: marzo 20, 2026, https://www.scientifyresearch.org/blog/etica-ia-investigacion-redaccion-academica/

  15. Uso ético de herramientas de IA en investigación social - Resonancias, fecha de acceso: marzo 20, 2026, https://www.iis.unam.mx/blog/uso-etico-de-herramientas-de-ia-en-investigacion-social/

  16. La IA en lo Público | Uso responsable y ético de herramientas con IA - YouTube, fecha de acceso: marzo 20, 2026, https://www.youtube.com/watch?v=n1vVTwN_LHY

  17. Política respecto del uso de la Inteligencia Artificial - Revista CENTRA de Ciencias Sociales, fecha de acceso: marzo 20, 2026, https://centracs.es/revista/inteligencia

  18. ¿Se puede superar el «síndrome de la hoja en blanco» con la ayuda de la inteligencia artificial? - El Arte de Gestionar Proyectos, fecha de acceso: marzo 20, 2026, https://elartedegestionarproyectos.com/se-puede-superar-el-sindrome-de-la-hoja-en-blanco-con-la-ayuda-de-la-inteligencia-artificial/

  19. Recomendaciones para elaborar una política de IA para revistas científicas y académicas, fecha de acceso: marzo 20, 2026, https://www.youtube.com/watch?v=x65NpuHKaQA

  20. LA INTELIGENCIA ARTIFICIAL AL SERVICIO DEL BIEN SOCIAL EN AMÉRICA LATINA Y EL CARIBE: - IADB Publications, fecha de acceso: marzo 20, 2026, https://publications.iadb.org/publications/spanish/document/La-inteligencia-artificial-al-servicio-del-bien-social-en-America-Latina-y-el-Caribe-Panor%C3%A1mica-regional-e-instant%C3%A1neas-de-doce-paises.pdf

  21. Declaración de Santiago: Macrouniversidades de la región exigen nuevo trato para la educación pública - Radio Universidad de Chile, fecha de acceso: marzo 20, 2026, https://radio.uchile.cl/2026/03/14/declaracion-de-santiago-macrouniversidades-de-la-region-exigen-nuevo-trato-para-la-educacion-publica/

  22. Ley Chile - Decreto 12 (28-ene-2025) M. de Ciencia, Tecnología, Conocimiento e Innovación - BCN, fecha de acceso: marzo 20, 2026, https://www.bcn.cl/leychile/navegar?idNorma=1210664

  23. IA, Machine Learning & Método en Ciencias Sociales y Salud - Revista Científica Arbitrada, fecha de acceso: marzo 20, 2026, https://editorialalema.org/libros/index.php/alema/article/download/46/50

  24. Triangulación: Una herramienta adecuada para las investigaciones en las ciencias administrativas y contables - Portal AmeliCA, fecha de acceso: marzo 20, 2026, https://portal.amelica.org/ameli/journal/221/2211026002/html/

  25. la triangulación metodológica - Dialnet, fecha de acceso: marzo 20, 2026, https://dialnet.unirioja.es/descarga/articulo/5331864.pdf

  26. Triangulación de métodos en ciencias sociales como fundamento en la investigación universitaria en Latinoamérica - Revistas UCLA, fecha de acceso: marzo 20, 2026, https://revistas.uclave.org/index.php/mayeutica/article/download/4480/2858/4678

  27. 10 herramientas de inteligencia artificial para la investigación social ..., fecha de acceso: marzo 20, 2026, https://isdfundacion.org/2023/06/05/10-herramientas-de-inteligencia-artificial-para-la-investigacion-social-y-de-mercados/

  28. CONFERENCIA MAGISTRAL LA TRIANGULACIÓN COMO ANÁLISIS EN LA INVESTIGACIÓN CUALITATIVA - YouTube, fecha de acceso: marzo 20, 2026, https://www.youtube.com/watch?v=lRSA2YcaRD4

  29. La triangulación metodológica (Pasos para una comprensión dialéctica de la combinación de métodos) - SciELO Cuba, fecha de acceso: marzo 20, 2026, http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0864-34662018000200431

  30. Las 5 mejores herramientas de IA para científicos investigadores en 2025 - Sonix, fecha de acceso: marzo 20, 2026, https://sonix.ai/ai/es/mejor-ai-para-investigadores/

  31. Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, fecha de acceso: marzo 20, 2026, https://www.minciencia.gob.cl/archivos/sharing/1773173214/4752/

  32. Concurso IDeA I+D 2025 - ANID, fecha de acceso: marzo 20, 2026, https://anid.cl/concursos/concurso-idea-id-2025/

  33. Inteligencia Artificial - MinCiencia, fecha de acceso: marzo 20, 2026, https://www.minciencia.gob.cl/areas/inteligencia-artificial/Inteligencia-Artificial/

  34. Concurso IDeA I+D Tecnologías Avanzadas 2025 - ANID, fecha de acceso: marzo 20, 2026, https://anid.cl/concursos/concurso-idea-id-tecnologias-avanzadas-2025/

  35. CRUCH recibe manual del MinCiencia con recomendaciones para ..., fecha de acceso: marzo 20, 2026, https://consejoderectores.cl/2026/03/05/cruch-recibe-manual-del-minciencia-con-recomendaciones-para-fortalecer-la-labor-investigativa-en-las-universidades/

  36. Ministerio De Ciencia Presenta Manual De Recomendaciones De La Agenda “Mejor Trabajo En Investigación” - MinCiencia, fecha de acceso: marzo 20, 2026, https://www.minciencia.gob.cl/noticias/ministerio-de-ciencia-presenta-manual-de-recomendaciones-de-la-agenda-mejor-trabajo-en-investigacion/

  37. Inicia “Futuros docentes en IA”: alianza público-privada para integrar la inteligencia artificial en carreras de pedagogía, fecha de acceso: marzo 20, 2026, https://consejoderectores.cl/2026/03/06/inicia-futuros-docentes-en-ia-alianza-publico-privada-para-integrar-la-inteligencia-artificial-en-carreras-de-pedagogia/

  38. Consejo de Rectores de las Universidades Chilenas, Author at Consejo de Rectoras y Rectores de las Universidades Chilenas, fecha de acceso: marzo 20, 2026, https://consejoderectores.cl/author/cruch/

Comentarios

Entradas más populares de este blog

Epistemología de la Alteridad y la Estructura: Un Análisis Crítico de las Fronteras entre Sociología y Antropología en la Investigación Chilena