Fantasmas digitales, algoritmos morales y el desafío de enseñar ética en la era poshumana

Para citar o enlazar este item, por favor use el siguiente identificador: http://dspace.ups.edu.ec/handle/123456789/31957
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.authorVikram, Amitabh-
dc.date.accessioned2026-01-30T13:28:12Z-
dc.date.available2026-01-30T13:28:12Z-
dc.date.issued2026-01-
dc.identifier.urihttp://dspace.ups.edu.ec/handle/123456789/31957-
dc.description.abstractEste artículo analiza las implicaciones éticas derivadas de las tecnologías digitales (TIC) y las infraestructuras algorítmicas en la educación contemporánea, especialmente la inteligencia artificial (IA), los sistemas de clasificación basados en datos y los incentivos orientados al beneficio económico. Examina cómo estos factores transforman la conducta moral de estudiantes y docentes. A partir del concepto de “fantasmas digitales”, entendido como las huellas de autoría, intención y autenticidad que persisten en obras mediadas o generadas por IA, se sostiene que los modelos educativos actuales propician una forma de responsabilidad poshumana marcada por la erosión de la rendición de cuentas tradicional. Mediante viñetas empíricas, se exploran ejemplos de decadencia ética, como la inflación algorítmica de citas, las tesis redactadas con modelos lingüísticos de gran escala y un escándalo ocurrido en julio de 2025: la compraventa de filiaciones institucionales a través de LinkedIn. Estos casos evidencian el rumbo preocupante que sigue la educación, donde la ética se diluye en los intersticios de un sistema tecnológicamente integrado. Cuanto más dependen las instituciones de plataformas y métricas digitales, mayor es el riesgo para la integridad y la responsabilidad académica. En este contexto, urge reconsiderar el significado práctico de la integridad y redefinir los marcos de responsabilidad ante las transformaciones tecnológicas que reconfiguran la idea misma de lo humano.//T he article tracks how AI sorting tools and profit-seeking metrics quietly rewrite the ethical rulebook of the university. Introducing the concept of “digital ghosts” to describe the artefactual traces of authorship, intent, and authenticity produced by technology-mediated work, it contends that current educational models encourage a posthuman form of responsibility characterized by weakened accountability. Through empirical vignettes—including algorithm-driven citation inflation, dissertations constructed with large language models, and a July 2025 incident in which institutional affiliations were openly sold on LinkedIn—the article documents an academy where ethical judgment is displaced by platform logic and metrics, and where growing dependence on dashboards increases integrity risks for students and faculty alike. It explains how algorithmic infrastructures reshape authorship and evaluation, examines the consequences across academic roles, and proposes a program to restore accountability that pairs provenance and audit-ready practices with pedagogy integrating technical literacy and ethical reasoning. The article concludes that academic integrity must be deliberately redesigned for digitally mediated scholarship rather than assumed to remain intact.spa
dc.language.isospaspa
dc.rightsopenAccessspa
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 Ecuador*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/ec/*
dc.subjectÉtica digital; Digital Ethicsspa
dc.subjectintegridad académica; Academic Integrityspa
dc.subjecteducación poshumana; Posthuman Educationspa
dc.subjectalgoritmos morales; Moral Algorithmsspa
dc.subjectcapitalismo de vigilancia; Surveillance capitalismspa
dc.subjectética de la virtud; Virtue Ethicsspa
dc.titleFantasmas digitales, algoritmos morales y el desafío de enseñar ética en la era poshumanaspa
dc.typeArticlespa
Pertenece a las colecciones: Núm. 40 (enero-junio 2026)

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
Sophia_n40_art.2_Vikram.pdf1,03 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons