e-ISSN: 2215-4078
Vol. 13 (1), enero – junio, 2025
https://doi.org/10.15359/rnh.13-1.20217
Recibido: 30/07/2024 Revisado: 17/08/2024 Aceptado: 17/02/2025
Licencia: CC BY NC SA 4.0

portada

Phrónesis y principio de precaución en el contexto de las prácticas asociadas al Big Data

Phronesis and the Precautionary Principle in the Context of Practices Associated with Big Data

Phrónesis e princípio de precaução no contexto das práticas associadas ao Big Data

Lic. Roberto Zárate Sánchez

Maestrando de la Universidad Nacional

https://ror.org/01t466c14

Heredia, Costa Rica

roberto.zarate.sanchez@est.una.ac.cr

https://orcid.org/0009-0009-8817-6273

Resumen

Introducción. En esta investigación se estudia la relación entre el principio de precaución y la phrónesis aristotélica en el contexto de las prácticas asociadas al Big Data, esto con el fin de analizar su pertinencia teórica y práctica. Lo anterior, en el marco del nuevo humanismo, el cual pretende reflexionar, de manera crítica, en torno a las actividades humanas contemporáneas y sus posibles orientaciones éticas. Metodología. Para la consecución de ese propósito, se realiza una revisión bibliográfica de tipo narrativo, mediada por la definición de tres categorías clave: phrónesis, principio de precaución y Big Data. Resultados. En cuanto a los resultados, es posible indicar que se puede establecer una relación teórica clara, especialmente a partir del filósofo Marcos (2018), entre la phrónesis y el principio de precaución; además, teniendo en cuenta los problemas que plantea el Big Data, tales como la mercantilización e instrumentalización de los datos, la discriminación algorítmica, la privacidad o la presencia de sesgos lógicos en el análisis, la phrónesis y el principio de precaución se consideran pertinentes. Conclusiones. Se puede concluir que el principio de precaución y la phrónesis son pertinentes para la práctica del Big Data y sus procesos asociados, además de que su relación teórica es clara. Sin embargo, es importante indicar que, en el nivel práctico, existen muchas limitaciones para su implementación: predominancia de la deontología, las dinámicas basadas en la racionalidad instrumental y los diferentes contextos políticos. Este artículo se estructura en cinco partes: una introducción, en la que se plantea el problema de investigación; los principales antecedentes, así como la justificación, la cual se centra en la relación de la temática del artículo con el nuevo humanismo; la metodología, el marco teórico, enfocado en las categorías señaladas previamente; el análisis de los resultados de la revisión bibliográfica narrativa y, por último, las conclusiones.

Palabras clave: Big Data, nuevo humanismo, phrónesis, principio de precaución.

Abstract

Introduction. This research examines the relationship between the precautionary principle and Aristotelian phronesis in the context of practices associated with Big Data, aiming to analyze their theoretical and practical relevance. This analysis is situated within the framework of new humanism, which seeks to critically reflect on contemporary human activities and their ethical orientations. Methodology. To achieve this purpose, a narrative literature review is conducted, guided by the definition of three key categories: phronesis, precautionary principle, and Big Data. Results. It is possible to establish a clear theoretical relationship, particularly drawing from philosopher Marcos (2018), between phronesis and the precautionary principle. Additionally, considering the challenges posed by Big Data—such as the commodification and instrumentalization of data, algorithmic discrimination, privacy issues, and the presence of logical biases in analysis—phronesis and the precautionary principle are deemed relevant. Conclusions. It can be concluded that the precautionary principle and phronesis are pertinent to the practice of Big Data and its associated processes, and their theoretical relationship is evident. However, it is important to note that there are many practical limitations to their implementation, including the predominance of deontological approaches, dynamics based on instrumental rationality, and varying political contexts. This article is structured in five parts: an introduction that outlines the research problem, key background information and justification, focused on the article’s connection to new humanism; the methodology, the theoretical framework centered on the previously mentioned categories, the analysis of the results from the narrative literature review and, finally, the conclusions.

Keywords: Big data, new humanism, phronesis, precautionary principle.

Resumo

Introdução. Esta pesquisa examina a relação entre o princípio da precaução e a phrónesis aristotélica no contexto das práticas associadas ao Big Data, com o objetivo de analisar sua relevância teórica e prática. Essa análise está situada no âmbito do novo humanismo, que busca refletir criticamente sobre as atividades humanas contemporâneas e suas possíveis orientações éticas. Metodologia. Para alcançar esse objetivo, foi realizada uma revisão bibliográfica narrativa, mediada pela definição de três categorias-chave: phrónesis, princípio da precaução e Big Data. Resultados. Em relação aos resultados, é possível estabelecer uma relação teórica clara, especialmente a partir do filósofo Marcos (2018), entre a phrónesis e o princípio da precaução; além disso, considerando os problemas que o Big Data apresenta, como a mercantilização e instrumentalização dos dados, a discriminação algorítmica, a privacidade e a presença de vieses lógicos na análise, a phrónesis e o princípio da precaução são considerados pertinentes. Conclusões. Pode-se concluir que o princípio da precaução e a phrónesis são pertinentes para a prática do Big Data e seus processos associados, além de que sua relação teórica é clara. No entanto, é importante indicar que, a nível prático, existem muitas limitações para sua implementação: predominância da deontologia, assim como as dinâmicas baseadas na racionalidade instrumental e os diferentes contextos políticos. Este artigo está estruturado em cinco partes: uma introdução que apresenta o problema de pesquisa, os principais antecedentes, bem como a justificação, que se centra na relação do artigo com o novo humanismo; a metodologia, o marco teórico, focado nas categorias mencionadas anteriormente, a análise dos resultados da revisão bibliográfica narrativa e, por último, as conclusões.

Palavras-chave: Big data, novo humanismo, phrónesis, princípio da precaução.

1. Introducción

En El Círculo, novela de Eggers (2013), Mae, personaje central del libro, se ve envuelta en una serie de dinámicas empresariales relacionadas con la utilización de los datos y la omnipresencia tecnológica. La compañía para la que trabaja genera identidades virtuales unificadas, con base en una idea de trasparencia, lo que implica, en su caso, llevar una cámara las 24 horas del día. La novela es distópica y de ciencia ficción, sin embargo, plantea una serie de interrogantes al respecto de la tensión existente entre el avance tecnológico, los datos y las personas: ¿cómo se ha modificado la condición humana mediante la intermediación de los datos?, ¿de qué manera está permeada por la tecnología y los conjuntos de datos la construcción de la identidad de las personas?, ¿qué implicaciones éticas y políticas plantea en relación con la autonomía? y ¿quiénes se benefician de la utilización de los datos?

En relación con lo anterior, autoras como Zuboff (2020), Noble (2018), Cortina (2021) y Origgi (2018) han señalado algunos problemas relevantes: la mercantilización de los datos, así como su instrumentalización, primacía de los valores asociados a la rentabilidad sobre las preocupaciones éticas, construcción de la autoimagen, la identidad y la reputación1, pérdida de autonomía y agencia, su utilización para el desarrollo de políticas, tanto desde el sector público como el privado y la influencia de las grandes compañías tecnológicas, entre otros.

Sobre estos problemas, un caso claro fue la filtración de los Papeles de Facebook2, documentos expuestos por parte de Haugen (2023), exempleada de la empresa. La investigación inicial fue llevada a cabo por The Wall Street Journal (13 de setiembre del 2021)3 y en ella, se demostraba la manera en la que Facebook sabía que muchas de sus acciones, centradas en el manejo de datos, posiblemente causaban daño y ocasionaban, incluso, polarización y violencia. Uno de los principales hallazgos (BBC, 27 de setiembre del 2021), fue que Instagram, según una investigación interna, tenía consecuencias claras en la construcción de la autoimagen y, por tanto, en la autoestima de las personas adolescentes, no obstante, Facebook señaló que la investigación era preliminar e inexacta.

También, Haugen (2023) escribió La Verdad sobre Facebook, donde explica las razones que la llevaron a realizar la filtración. A lo largo de este libro, la autora expone diversos comportamientos éticamente reprobables de empleados de la compañía, subrayando la importancia del papel de las personas profesionales en las áreas relacionadas con Big Data. Además, Haugen (2023) señala que la cultura organizacional y la gobernanza de la empresa impedían cualquier cambio, ya que ignoraban muchos riesgos prevenibles. En palabras de la autora:

(…) la filosofía constantemente pasó por alto los problemas prevenibles hasta que fue demasiado tarde. Es difícil medir el impacto de detener un incendio antes de que estalle, y las culturas corporativas demasiado inclinadas a navegar por números “objetivos” en lugar del juicio humano corren el riesgo de crear “bomberos pirómanos”. (p. 270)

Lo anterior se puede concatenar con otros problemas vinculados a la práctica de los diferentes procesos relacionados al Big Data: la opacidad epistémica (Martén, 2023)4, la presencia de sesgos, falacias, paradojas y errores lógicos (Zárate, 2024), por ejemplo, el Cherry Picking5 y el Overfitting6, especialmente en las capas de análisis y visualización, los problemas éticos y políticos asociados a la recolección y utilización de los datos, así como a la privacidad, además de las acciones centradas en el carácter instrumental, que se toman de acuerdo con determinados datasets7 (Ekbia, Mattioli, Kouper, Arave, Ghazinejad, Bowman, Ratandeep, Tsou, Weingart y Sugimoto, 2015).

En este contexto, Narayanan, Huey y Felten (2016), por ejemplo, señalan que, al menos en los casos concretos relacionados a la privacidad, se debe emplear un Precautionary Approach, es decir, un abordaje centrado en la precaución, ya que muchos de los riesgos asociados a la privacidad son, hasta cierto punto, desconocidos:

Due to the ad hoc de-identification methods applied to currently released datasets, the chances of re-identification depend highly on the progress of re-identification tools and the auxiliary datasets available to an adversary. The probability of a privacy violation in the future is essentially unknowable. In general, a precautionary approach deals with uncertain risk by placing the burden of proof that an action is not harmful on the person taking the action. Here, we argue for a weak version of the precautionary approach, in which the idea that the burden of proof falls on data releasers guides policies that incentivize them not to default to full, public releases of datasets using ad hoc de-identification methods. (p. 358)

Debido a los métodos de desidentificación improvisados aplicados a los datos actualmente publicados, las posibilidades de reidentificación dependen en gran medida del progreso en herramientas y conjuntos de datos auxiliares disponibles para un adversario. La probabilidad de futuras violaciones de privacidad es esencialmente desconocida. En general, un enfoque precautorio aborda el riesgo incierto al exigir que aquellos que realizan acciones prueben que no son perjudiciales. Aquí, abogamos por una versión moderada del enfoque precautorio, donde la responsabilidad recae en quienes publican datos, lo que orienta políticas que desincentivan la publicación completa y pública de conjuntos de datos mediante métodos de desidentificación improvisados8.

Este es, sin lugar a duda, uno de los principales antecedentes de la investigación. Es relevante señalar que, tal y como exponen Kuc-Czarnecka y Olczyk (2020), la ética ha sido un tema poco abordado dentro de la literatura del Big Data, ya que, según la investigación realizada por las autoras, la cual consistió en un análisis bibliométrico de 872 artículos, en el cual concluyeron que es un aspecto marginal y analizado con escasa profundidad, a pesar de que existen muchos problemas relevantes en el contexto del Big Data.

Castro y McLaughlin (2016), por ejemplo, señalan que el principio de precaución, en el área general de la inteligencia artificial (de ahora en adelante IA) y, por tanto, de la utilización de datos de forma algorítmica, implica una afrenta para el progreso; además, Brown (2013) considera que es un principio poco útil, ya que crea trabas innecesarias.

No obstante, a pesar de esto, se han desarrollado algunos trabajos relevantes. Por ejemplo, Richterich (2018) plantea, a partir de un análisis documental, algunos de los principales retos para el Big Data, proponiendo una postura crítica, capaz de estudiar las prácticas ligadas a la privacidad, la investigación científica, los sesgos algorítmicos y el uso de los datos en el nivel empresarial. La autora, además, propone que los principios, leyes y reglamentos son insuficientes, por lo que señala que es fundamental una ética del discurso, esto en el sentido de Habermas (1987).

Otro ejemplo es el trabajo de Ogbuke, Yusuf, Dharma y Mercangoz (2020), quienes han identificado problemas en relación con las diferentes cadenas de suministro en el nivel empresarial y la manera en la que emplean los datos, ya que, en ocasiones, están vinculados a temas atinentes a la privacidad. El artículo es un análisis bibliométrico de 120 trabajos sobre Big Data.

Por su parte, Chang (2021), en una investigación relacionada con el uso de cantidades masivas de datos para la planificación urbana y la gestión de ciudades inteligentes, plantea que es fundamental explorar los problemas éticos asociados al Big Data y realiza un análisis desde diferentes posturas. Es muy similar a lo planteado por Richterich (2018), en el sentido de que es insuficiente una ética basada en principios o leyes.

Un trabajo muy importante es el Richardson, Peter y Carter (2021), quienes reafirman la idea de las investigaciones señaladas antes: la reflexión en torno a los aspectos éticos del Big Data es escasa. Las conclusiones del artículo se refieren a la necesidad de considerar las implicaciones del análisis y el tratamiento de los datos en los contextos sociales y culturales, así como la importancia de los procesos educativos de las personas que trabajan con Big Data y el papel de las comunidades académicas.

No existen investigaciones que estudien, en el contexto de estos debates, el papel de la phrónesis, en sentido aristotélico, para las prácticas asociadas al Big Data, sin embargo, se considera la formación del carácter y la subjetividad como un eje central. Además, se puede afirmar que la mayoría de investigaciones suele ser bibliométrica y de análisis de la literatura, sin embargo, en el nivel filosófico, se ha profundizado poco.

Por otra parte, con respecto al principio de precaución, más allá de la propuesta concreta de Narayanan, Huey y Felten (2016), es importante tener en cuenta que, en sentido legal y normativo, este principio se ha visto influenciado por lo que Bradford (2012) ha llamado el Efecto Bruselas, el cual se entiende como el poder de influencia, en ocasiones subestimado, que la Unión Europea (UE) ejerce a través de sus instituciones y normas legales, así como la manera en la que exporta, con éxito, esa influencia al resto del mundo. Actualmente, la UE discute un reglamento general9 de IA10, en el que se plantea lo siguiente:

La propuesta se fundamenta en los marcos jurídicos existentes y es proporcionada y necesaria para alcanzar sus objetivos, ya que sigue un enfoque basado en los riesgos y únicamente impone cargas normativas cuando es probable que un sistema de IA entrañe altos riesgos para los derechos fundamentales y la seguridad. (Comisión Europea, 2021)

Al afirmar que, de manera implícita, se plantea el principio de precaución en el reglamento general de IA de la UE y desde el llamado Efecto Bruselas, se puede considerar como un lineamiento que tiene influencia a la hora de formular legislación y normativa.

No obstante, tal y como afirma el filósofo belga Coeckelberg (2021), al hablar de la ética atinente a procesos asociados al Big Data, los cuales, en muchos casos, están relacionados con la IA, es fundamental que las orientaciones no se queden solamente en el marco normativo o principialista; sino que, al contrario, aborden aspectos vinculados a la formación profesional y al desarrollo de ciertas cualidades que no son mecánicas, pues permiten entender, de manera crítica, los contextos y las dinámicas cambiantes. Es una consideración muy cercana a la ética de la virtud, la cual, de acuerdo con Slote (2011), se puede comprender como una propuesta que, a diferencia del utilitarismo o de la deontología11, no se centra en deberes, leyes o principios, sino en la formación del carácter a partir de la adquisición de ciertos hábitos. Es un enfoque orientado a la construcción de una determinada subjetividad.

En relación con lo anterior, específicamente en las consideraciones teóricas, para el filósofo Marcos (2018), en términos de la ética de la virtud, el principio de precaución es compatible con la phrónesis de la tradición aristotélica. Cabe señalar que este ligamen ha sido poco estudiado, por lo que la presente investigación es de carácter exploratorio; es decir, no existe ningún trabajo que analice la pertinencia de la phrónesis y el principio mencionado, de manera conjunta, en las prácticas de Big Data. Sin embargo, la línea de investigación de Coeckelberg (2021) es muy importante, ya que las normas y principios son insuficientes y requieren de una contraparte, la cual no debe ser mecánica o rígida; además, Kristjánsson (2023) sostiene que la phrónesis se ha convertido, de manera reciente, en una categoría de mucho interés.

Por tanto, la presente investigación plantea el siguiente problema: ¿es pertinente tomar en cuenta el principio de precaución y la phrónesis, de forma concatenada, como orientaciones para la práctica del Big Data? Otras preguntas, de segundo orden, son las siguientes: ¿cómo se puede traducir el principio de precaución, a través de la phrónesis, en acciones referentes a la práctica concreta del Big Data? y ¿qué dificultades podría encontrar para su aplicación? En síntesis, se analiza la pertinencia teórica y práctica de integrar la phrónesis y el principio de precaución en los diferentes procesos relacionados al Big Data.

Por otra parte, es importante tener en cuenta que la investigación es muy relevante para el nuevo humanismo, el cual, a partir de la reflexión de Baraona, Mora y Sancho (2017), se puede entender como una reflexión contextualizada, esto es, no esencialista, que intenta construir una ética para la vida social e individual y que, a su vez, intenta investigar y comprender el papel y la interacción de los diversos saberes, conocimientos y disciplinas que emergen de distintas tradiciones.

En otras palabras, da cuenta de la complejidad del saber y de la necesidad del diálogo interdisciplinario y transdiciplinario, el cual, en el marco de la propuesta tridimensional de Baraona, Mora y Sancho (2017), se debe entender a partir de los paradigmas emergentes que abandonan el mecanicismo e integran modelos complejos. Cabe señalar que las dimensiones que forman parte de esta propuesta son la ético-filosófica, la cognoscitiva y la sociocultural. La primera se refiere a la necesidad de superar el antropocentrismo; la segunda, a la construcción de modelos complejos y la tercera, al desarrollo de prácticas humanas que propicien la solidaridad.

Además, dentro de las discusiones sobre el Big Data ha surgido una preocupación desde el humanismo, ya que, tal como afirma Arrubla (2020), se ha dado, a partir de las nuevas tecnologías y el mundo digital, una modificación relativa a la comprensión del sujeto y de lo que se entiende por humano. En esta línea, Castro (2017) afirma que se debe reflexionar en torno a la idea de un humanismo digital, ya que, para el autor, el Big Data es un producto cultural y narrativo que no es ajeno a las humanidades, pues siempre conlleva teoría y no es un mero proceso técnico. El Big Data implica epistemología, ética y política. En esto se relaciona con el modelo tridimensional del nuevo humanismo, el cual propone el desarrollo de modelos complejos que integren diferentes aspectos de la realidad social y cultural.

Teniendo en cuenta lo anterior, este artículo plantea un análisis de los aspectos éticos relacionados a la práctica del Big Data, enmarcando este proceso, en ocasiones asumido desde una perspectiva meramente instrumental12, en dinámicas más amplias, es decir, considerando sus implicaciones y su carácter político, lo que, a su vez, responde a las problemáticas ejemplificadas al inicio de esta introducción con las referencias a autoras como Zuboff (2020), Noble (2018), Cortina (2021) y Origgi (2018), así como a los libros El Círculo de Eggers (2013) y la Verdad sobre Facebook de Haugen (2023).

Además, una característica muy importante del nuevo humanismo es que no abandona las tradiciones antiguas, sino que las intenta incorporar, de manera crítica y contextualizada, en discusiones contemporáneas. En este caso específico, se reflexiona en torno a la phrónesis y su relación con el principio de precaución en el marco de las discusiones sobre Big Data, lo que, tal y como se expone más adelante, especialmente considerando a Hinkelammert y Mora (2006), es una reflexión de mucha relevancia para entender el papel de las personas en las dinámicas de las sociedades permeadas por los datos, así como su instrumentalización y tecnificación.

2. Apuntes metodológicos

La investigación se basa en una revisión bibliográfica para explorar diversas perspectivas sobre los conceptos relacionados a la phrónesis, el principio de precaución, el Big Data y sus problemas asociados, con el fin de establecer una relación entre estas categorías. Siguiendo a Moresi y Pinho (2021), en términos generales se puede entender como la recopilación y el análisis de información presente en otras investigaciones acerca de un tema específico a partir de la identificación de categorías clave.

En este caso, se lleva a cabo una revisión bibliográfica de tipo narrativo, la cual, de acuerdo con Zillmer y Díaz (2018), es una reflexión amplia con respecto a un tema específico y a un conjunto de categorías relacionadas, que no necesariamente plantea resultados cuantitativos o métodos de recolección. Según las autoras mencionadas, es un tipo de revisión con importantes potencialidades: incluye una fundamentación teórica y contextual, lo que permite integrar diferentes tipos de información de diversas fuentes; exige habilidades críticas y de reflexividad, para integrar las diferentes áreas analizadas; además, ayuda a identificar y seleccionar referencias y métodos para futuras investigaciones.

También, tal y como se expuso al plantear el problema y sus antecedentes, es una investigación exploratoria, la cual, teniendo en cuenta lo expuesto por Ramos (2020), intenta identificar las características de un fenómeno poco estudiado. En este caso, sin lugar a duda, la producción académica y científica en torno al Big Data es muy grande; sin embargo, la relación entre la phrónesis y el principio de precaución en torno a esta herramienta ha sido muy poco analizada. Por tanto, una revisión de tipo narrativo permite acercarse de manera amplia a un tema poco trabajado.

Por otra parte, en el nivel de paradigma de investigación, Loue (2002) propone un abordaje híbrido entre la ética de la virtud y el principialismo13 para analizar la pertinencia del principio de precaución y de la phrónesis en las diferentes prácticas asociadas a procesos de Big Data, propuesta que, a su vez, está asociada con la del filósofo Marcos (2018). Con respecto a lo anterior, es importante tener en cuenta que la ética de la virtud, a diferencia de la deontología y del utilitarismo, se concentra en los agentes que toman decisiones y realizan acciones y, por tanto, reflexiona sobre el carácter y la subjetividad. En esta misma línea, Beauchamp y Childress (1994) han afirmado que los principios y las virtudes son compatibles, sin embargo, plantean un desafío en cuanto a que operan en dimensiones ontológicas14 diferentes, ya que los primeros buscan influir en normas y las segundas se centran en el carácter.

3. Consideraciones teóricas

Teniendo en cuenta las características señaladas con respecto a la revisión bibliográfica narrativa, se exponen los principales conceptos vinculados a la investigación: el concepto de Big Data, el principio de precaución y la phrónesis.

3.1 Big Data

En la actualidad, una de las narrativas más populares se refiere al Big Data, el cual, de acuerdo con Saeed y Husamaldin (2021), se suele caracterizar a partir de una serie de atributos que se han llamado las “3V”: volumen, variedad y valor. La primera es muy importante para entender qué es el Big Data, ya que este se caracteriza por tener un tamaño que no es compatible con los métodos tradicionales de procesamiento de información, como por ejemplo Excel, el cual utiliza bases de datos de carácter relacional, es decir, estructurados en tablas y columnas (Kotzé y van Viljon, 2015). Con respecto a la variedad, el Big Data, a diferencia de los métodos tradicionales, toma en cuenta datos semiestructurados, así como no estructurados y lenguajes de programación como NoSQL. En relación con el valor, se considera que se deben utilizar datos debidamente tratados y de calidad.

Es importante tener en cuenta que el Big Data no es sinónimo de automatización algorítmica. Usualmente, cuando las personas utilizan el término Big Data, lo hacen pensando en las prácticas empresariales de compañías como Google o Facebook, además de las recomendaciones personalizadas, sin embargo, el Big Data es un conjunto de datos sobre un fenómeno o tema específico, el cual no siempre se automatiza, sino que se puede emplear para la investigación o la toma de decisiones en las empresas. Por ejemplo, de acuerdo con Diebold (2012), el término Big Data se acuñó, posiblemente, en el contexto de discusiones sobre econometría en los noventa. Es fundamental tener en cuenta, por tanto, que hay muchos procesos asociados al Big Data: toma de decisiones, investigación, automatización, construcción de arquitecturas, tratamiento y análisis de los datos, Machine Learning15, entre otros.

Por otra parte, con respecto a los problemas relacionados al Big Data, uno importante es su representación como proceso objetivo y neutral. Un ejemplo claro es el proyecto de ley 23771, ya que, en las definiciones, específicamente en el término de responsabilidad algorítmica, se señala que recae en los agentes de Inteligencia Artificial (IA)16, los cuales, según el proyecto de ley, se pueden entender como un “sistema informático que utiliza técnicas de inteligencia artificial para realizar tareas específicas”17. En otras palabras, de acuerdo con el proyecto de ley mencionado, no hay responsabilidad humana en torno a los datos con los que se entrenan a estos sistemas. Esto es muy problemático, ya que se pueden reproducir representaciones basadas en prejuicios, pues, tal y como plantea Noble (2018), en su libro Algoritmos de Opresión, existen sesgos algorítmicos y discriminación.

La propuesta de ley denota una incomprensión de las dinámicas científicas y tecnológicas, ya que, como apunta Marcos (2018), no existen los cálculos infalibles, puesto que no hay predicciones exactas, ni dispositivos informáticos que sean objetivos. Siempre, siguiendo al filósofo español, deben tomarse en consideración los aspectos políticos y que la ciencia, como señala Oreskes (2021), se basa en sus dinámicas de consenso. No se puede, como en el proyecto de ley 23771, pretender que las decisiones y las responsabilidades, por ejemplo, en torno a los datos con los que se entrena a estos sistemas, deban ser asumidas por una estructura informática.

En el nivel epistemológico, de acuerdo con Martén (2023), existe un problema de opacidad epistémica, ya que este se refiere a ciertos procesos de Big Data y Machine Learning que funcionan como una “caja negra”, es decir, existe un input y un output, sin embargo, no se tiene claridad de cómo sucede esto. En palabras del autor:

(…) se comprenden los detalles en un sentido computacional o algorítmico, pero no se comprende el nivel semántico de estas herramientas. La parte semántica hace referencia a que no se comprende cómo funciona el modelo una vez ha sido entrenado; no se comprende en muchos casos por qué da énfasis a ciertas características sobre otras, por qué los pesos y sesgos con los que se optimiza son los adecuados para, por ejemplo, determinar que una imagen es un gato y no un caballo. (p. 36)

Es relevante señalar que la presente investigación está centrada en el Big Data, no obstante, al ser un importante insumo del Machine Learning18, existen muchos puntos de intersección, dado que es un proceso asociado y uno de los principales usos que se les da a estos grandes conjuntos de datos. Por tanto, se emplea una conceptualización más amplia en torno al concepto de Big Data, pues permite reflexionar sobre los problemas que se deberían tomar en cuenta desde la phrónesis y el principio de precaución.

Por otra parte, retomando algunos de los aspectos atinentes al Big Data, a la hora de interpretar los datos, se toman decisiones y se obtienen resultados que pueden incidir en errores lógicos y epistemológicos (Coeckelberg, 2021). El libro Spurious correlations19 de Vigen (2015), por ejemplo, plantea la manera en la que, al interpretar y analizar datos, se pueden establecer relaciones que no implican causalidad. Un ejemplo claro es la llamada falacia de incompletitud o Cherry Picking, la cual consiste en seleccionar solo una parte del conjunto de datos, especialmente el que funciona para sostener una determinada narrativa o interés.

En el nivel político, el Big Data se enmarca en lo que Zuboff (2020) ha llamado capitalismo de la vigilancia, a saber, una estructura social, política y económica basada en la mercantilización de los datos personales, con todas las implicaciones que esto posee en términos de agencia y autonomía.

Asimismo, Echeverría (2003) señala que, en las sociedades caracterizadas por las dinámicas tecnocientíficas, se puede presentar una cosificación e instrumentalización de las personas, así como un proceso de tecnificación, el cual se puede relacionar, en la actualidad, con la automatización a partir de los procesos de algoritmos que son alimentados por el Big Data: identidades virtuales y cámaras de resonancia, publicidad personalizada, visibilidad constante, entre otros.

3.2 Phrónesis y principio de precaución

En primera instancia, es importante tener en cuenta que el principio de precaución se planteó, en el contexto ambiental, en la década de los años ochenta20, específicamente relacionado a la protección de los bosques. De acuerdo con Marcos (2018), el principio propone que, ante la presencia de indicios que denoten que una actividad o producto podría llegar a ser perjudicial para el medio ambiente o la salud humana, incluso en ausencia de evidencia científica, se deben implementar medidas preventivas para mitigar o evitar dichos riesgos.

Resulta pertinente mencionar que, en la década de los años ochenta, significó un hito en la gestión forestal, ya que permitió su incorporación en la toma de decisiones y, además, se refleja en instrumentos internacionales como el Protocolo de Kioto (1998), el Convenio sobre la Diversidad Biológica (1992), el Acuerdo de París (2015), así como en la Ley europea de IA (2021).

Cabe señalar que el principio de precaución se ha extendido a un espectro cada vez más amplio de situaciones: lo ambiental (García, 2020), la agricultura y los cultivos ilícitos (Cristancho, 2022), la contaminación electromagnética (Vargas, 2020), la edición genética (Sartea, 2022), el manejo de pandemias (Zanini, 2020), el ruido de las olas (Morelle, 2020), la IA y la robótica (Lledó y Monge, 2020), entre otros.

Marcos (2018) plantea una pregunta muy relevante: si el conocimiento es incierto21 y las acciones arriesgadas, ¿qué se puede hacer? En este caso, al hablar de riesgo, es posible tomar en cuenta lo señalado por Echeverría (2003), ya que las sociedades contemporáneas están caracterizadas por dinámicas de especulación y contienda económica, además de la predominancia del interés instrumental. Esto es muy similar a lo propuesto por Beck (1998), hace algunas décadas, en su libro La sociedad del riesgo22.

Es importante destacar que, según Echeverría (2003), la tecnociencia se define como un proceso económico, social y político en el que la ciencia y la tecnología están integradas de manera indivisible. Este fenómeno se desarrolla en contextos donde predomina el sector privado y se fomenta la creación de mercados, así como la colaboración de equipos interdisciplinarios que incluyen áreas como la gestión de proyectos y el mercadeo. Además, Ibarra (2021) sugiere que el proyecto baconiano de la modernidad, reflejado en los intereses tecnocientíficos, consiste en el dominio de la naturaleza en aras del progreso y solo puede ser viable si se incorporan cláusulas y precauciones adecuadas. Las crisis ecológicas, los problemas políticos y las desigualdades sociales y de acceso al conocimiento demuestran que el proyecto baconiano, tal y como se ha desarrollado, no es sostenible. Además, la idea de progreso que propone ha sido ampliamente criticada23.

Para Marcos (2018), una respuesta a la pregunta planteada anteriormente es el principio de precaución, ya que este funciona como un engranaje entre la ciencia y la política. El filósofo español lo aborda en términos generales, por lo que se debe tomar en consideración a Coeckelberg (2021), quien plantea que, en la IA y la ciencia de datos, las reflexiones éticas no se pueden agotar en los principios o en las normas legales, sino que deben integrarse en el carácter y en la experiencia práctica concreta. Siguiendo lo expuesto en los apuntes metodológicos, se debe intentar establecer puentes entre el principialismo y la ética de la virtud.

Marcos (2018) sugiere que el principio de precaución puede relacionarse con la phrónesis: “el principio de precaución tiene mucho en común con la prudencia aristotélica; podríamos decir que es una forma de la misma” (p. 178). El autor destaca que esta idea está presente en la obra de Kourilsky y Viney (2000), quienes incluso plantean la posibilidad de reemplazar el principio de precaución por uno de prudencia. Sin embargo, esto podría desatender la dimensión de la virtud y el carácter, enfocándose únicamente en aspectos legales y normativos. Además, la gran diferencia entre ambos es que el primero (el principio de precaución) asume la precaución, aun cuando no existe certeza o evidencia científica, mientras que el segundo (la prudencia) se enfoca en la información disponible. Por otra parte, la phrónesis, en el caso del presente artículo, se ha ubicado en el plano de la virtud, por lo que no se la plantea como un principio o norma.

Por otra parte, es crucial tener en cuenta que, según Blanco (2018), el concepto de phrónesis se establece por primera vez en el Protréptico (2010), una obra juvenil de Aristóteles24 de la cual solo existen fragmentos. Según Seggiaro (2010), en ese momento, Aristóteles aún no habría distinguido claramente entre las virtudes, por lo que no había una diferenciación clara entre el conocimiento práctico y teórico. Siguiendo al autor citado, posteriormente la phrónesis, como se desarrolla en la Metafísica (2020) y la Ética a Nicómaco (2020), adquiere un sentido más maduro y relacional, interpretándose no a la manera de un mero conocimiento, sino como una sabiduría práctica y, por ende, política.

De acuerdo con Navas (2012), la phrónesis es una actitud que, acompañada de la razón, se relaciona con el discernimiento de lo que es beneficioso o perjudicial para el ser humano. En este contexto, se enfoca en obtener y considerar una amplia gama de perspectivas al evaluar una situación o “estado de cosas”. Es un conocimiento contextual y, además, está centrado en la búsqueda de una vida buena. Según Marcos (2018), la phrónesis se puede entender, en español, como prudencia, palabra que es una contracción de la palabra latina providentia, sin embargo, considera que es de carácter práctico y, por tanto, no se debe definir de manera rígida.

En el caso del presente artículo de investigación, se entiende como una virtud que no es mecánica, sino que consiste en la capacidad de discernir, de manera contextual y relacional, los riesgos y consecuencias de las acciones, tomando en cuenta su orientación hacia una vida buena, esto en sentido ético.

Por otra parte, Coeckelberg (2021), en Ética de la Inteligencia Artificial, indica que es fundamental que se reflexione en torno a qué es una vida buena en el contexto de la IA y la ciencia de datos, así como el papel que debe desempeñar. Incluso, el filósofo belga plantea que los avances tecnológicos deben ir orientados a generar vidas con significado. Sin embargo, esto conlleva algunos problemas e interrogantes: ¿qué es una vida buena y con significado?, ¿cómo se define y quién lo hace?, ¿qué tensiones existen entre estas formulaciones y, por ejemplo, las dinámicas sociales, económicas y políticas dominantes? Es lógico asumir que no es la misma para un ejecutivo de Facebook que para una mujer Inuit.

Considerando las ideas expuestas por Hinkelammert en El Sujeto y la Ley (2003) y Hacia una economía para la vida. Preludio a una reconstrucción de la economía (2006, junto a Mora), podría argumentarse a partir de las preocupaciones que dieron origen al principio de precaución, que una buena vida es aquella que no pone en peligro las condiciones para que esta sea posible y que no se basa en una mera reproducción instrumental del capital25; es decir, acciones que, como se indicó con Marcos (2018), conservan la vida, el ambiente y la salud humana.

4. Análisis: relevancia de la phrónesis y el principio de precaución en el contexto del Big Data y sus procesos asociados

Es crucial considerar que el principio de precaución está integrado en las discusiones sobre Big Data e IA, lo cual se relaciona con el Efecto Bruselas. Por otro lado, ya existen enfoques precautorios en Big Data, especialmente en lo que respecta a la protección de la privacidad. Además, es relevante ampliar lo expuesto en torno a Coeckelberg (2021) con respecto a la IA y la ciencia de datos, ya que este sostiene que la ética está corporeizada dentro de una forma de vida y un contexto social específico. En palabras del autor (2021):

[…] es un problema para los diseñadores de políticas relacionadas con la IA que piensan que la ética de esta puede abordarse en su totalidad mediante una lista de principios o mediante métodos legales y técnicos específicos. No cabe duda de que necesitamos métodos, procedimientos y operaciones, pero no son suficientes por sí solos: la ética no funciona como una máquina. (p. 149)

El principio de precaución, por tanto, necesita de alguna contraparte ética en el sentido de formación de carácter, la cual, de acuerdo con Marcos, puede ser la phrónesis. Lo anterior, permite afirmar que existe una justificación teórica para considerar a esta virtud de tradición aristotélica como una posible orientación ética en el contexto de las diferentes prácticas relacionadas al Big Data.

Esto puede ser reforzado a partir de Coeckelberg (2021), quien al final de Ética de la Inteligencia Artificial, plantea que se necesita sabiduría práctica: “Tal saber podría conformarse a partir de procesos cognitivos abstractos y de análisis de datos, pero también a partir de experiencias corporeizadas, relacionales y situacionales, de lidiar con otras personas, con la materialidad y con entornos naturales distintos” (p. 171). Es un conocimiento que, como la ética de la virtud, no se puede explicitar del todo.

Este conocimiento, permitiría comprender, en cada caso específico, la manera en la que se debe responder y prever los riesgos asociados a los problemas, por ejemplo, las implicaciones políticas que la utilización de determinado dataset podría tener en la autoimagen de las personas, en el fomento de sesgos discriminatorios o en los resultados de los procesos de automatización.

Al considerar aspectos relacionados con una buena vida, se podría fomentar la reflexión sobre la primacía de las personas sobre los datos. Esto implicaría que la privacidad, la autonomía y el bienestar no deberían estar subordinados a consideraciones de rentabilidad o a intereses instrumentales. En primer lugar, en la práctica profesional, al tener conciencia de los procesos de interpretación involucrados en los datos, se podría propiciar una postura más responsable ante errores como el Cherry Picking. En segundo lugar, una toma de decisiones que contemple los riesgos y las consecuencias de las acciones. Por último, sería conveniente que las personas que construyen arquitecturas, basadas en la automatización, o que emplean estos datos para procesos de Machine Learning, puedan evitar, a partir de un conocimiento integral de los datos que utilizan, un posicionamiento crítico, la reproducción de representaciones discriminatorias o el fomento de la polarización.

Lo anterior, tiene una estrecha relación con la propuesta del nuevo humanismo, especialmente con respecto a la dimensión sociocultural, ya que esta plantea que se deben construir sociedades, cuya base sea la solidaridad y no la competencia. Esto implica que las prácticas asociadas al Big Data y al Machine Learning no deben reproducir representaciones racistas, misóginas o con fundamento en el edadismo. Tal como señala Iturmendi (2023), los datos empleados para construir algoritmos han tenido repercusiones en la elección de personas en ámbitos laborales o el otorgamiento de créditos, ya que, en ambos casos, se discriminó a mujeres y afrodescendientes.

El tratamiento del Big Data que se utiliza para los algoritmos o el Machine Learning es realizado por personas, además que los datos son históricos y reproducen estereotipos que han sido dominantes en el nivel social y político. Hay que tener en cuenta que, en las sociedades contemporáneas algunos sectores son estructuralmente racistas y misóginos. Un ejemplo concreto fue el ocurrido con Google y su algoritmo de reconocimiento facial, el cual, en el 2015, categorizó a una pareja de personas afrodescendientes como “gorilas” (El País, 15 de enero del 2018).

Por otra parte, es fundamental tener en cuenta que el nuevo humanismo propone una práctica filosófica que tome en cuenta la complejidad. En este caso, implica que el Big Data se entienda no solamente como un mero conjunto de datos, sino que, al contrario, se deba caracterizar como una narrativa que se enmarca en un contexto y que, en calidad de práctica científica, tiene intereses. Además, con respecto al proyecto baconiano, a la tecnociencia y a la idea del progreso, no hay prácticas técnicas que sean neutrales o situadas en el vacío.

El Big Data es una herramienta que puede ser muy útil para las preocupaciones ecológicas del nuevo humanismo, ya que, Farley, Dawson, Goring y Williams (2018) afirman que se ha convertido en un instrumento para comprender, de mejor forma, el comportamiento animal, los cambios ambientales y la biodiversidad, lo que, a su vez, permite tomar decisiones fundamentadas para la protección y la conservación. Esto está vinculado a la idea propuesta a partir de la phrónesis y el principio de precaución atinente al cuidado de las condiciones de la vida. Asimismo, este caso demuestra que el Big Data puede utilizarse de diferentes maneras y finalidades.

Efectivamente, es fundamental que el Big Data se relacione con las pretensiones teóricas y prácticas del nuevo humanismo que se han defendido en este artículo, planteándolas desde la phrónesis, como conocimiento reflexivo y crítico.

En el caso específico de Facebook, considerando lo expuesto por Haugen (2023), se podría tomar el ejemplo de las investigaciones en torno a la salud de adolescentes por el uso de Instagram: la defensa de Facebook fue que los resultados eran preliminares; siguiendo el principio de precaución y la phrónesis, se debieron frenar las acciones empresariales de flexibilización del control sobre los diferentes contenidos, en muchas ocasiones, tendientes a polarizar y a desinformar, y que, posiblemente, contribuían en el incremento de casos relacionados a depresión y ansiedad en personas menores de edad, hasta que se pudieran desarrollar más estudios científicos.

Por otra parte, cabe señalar que, en el caso costarricense, los conceptos de prudencia y precaución no están presentes en el Código de Ética del Colegio de Profesionales en Informática y Computación (2013), ni tampoco en el Reglamento de Ética del Colegio de Profesionales en Ciencias Económicas26 (2003). De igual forma, no existe ninguna investigación que indague si en las carreras que imparten temas relacionados al Big Data, se plantean estos componentes éticos en el nivel curricular.

Lo anterior, en el sentido de que no hay una comprensión clara de la forma en la que se abordan los temas éticos en relación con el Big Data en el contexto de los procesos educativos universitarios y técnicos en el ámbito costarricense. El presente artículo plantea que es fundamental que se incorporen elementos que vayan más allá de la deontología o el establecimiento de principios y que, por tanto, exista una reflexión en torno a la ética de la virtud y el concepto de phrónesis. La pedagogía debe propiciar la prudencia, fomentar una perspectiva crítica y contextualizada, además de tener una visión humanista.

No obstante, es crucial tener en cuenta que existen numerosos desafíos, dado que las dinámicas tecnocientíficas de investigación y su orientación hacia la creación de mercados pueden generar tensiones entre los intereses empresariales y la ética profesional, tal y como se ilustra en el caso de los Papeles Facebook, donde, tomando como referencia a Haugen (2023), las disposiciones estuvieron orientadas al ocultamiento.

Estos aspectos, con Castro y McLaughlin (2016), se asumen, desde algunos posicionamientos, como obstáculos para el desarrollo de la IA en general, es decir, según esta postura, hay que permitir que el desarrollo y la innovación se den sin trabas, lo cual es una apuesta muy riesgosa, existen muchos problemas relacionados al Big Data y sus usos.

Por otro lado, en ocasiones, como se menciona en el proyecto de ley 23771, la responsabilidad se atribuye únicamente a los agentes de inteligencia artificial, definidos por la ley como sistemas informáticos. Esto implica que, si los datos utilizados para alimentar un algoritmo están sesgados y perpetúan representaciones discriminatorias, las personas encargadas de obtener y procesar esos datos, no tendrían ninguna responsabilidad según esta legislación. Este enfoque es simplista, ya que omite la necesidad de reflexionar sobre la ética profesional, al considerar que los sistemas autónomos son los únicos responsables. Esta postura ignora las complejidades inherentes a la producción del conocimiento científico.

Según lo planteado por Coeckelbergh (2021), la ética debe ser encarnada, lo que implica que las personas profesionales que trabajan con Big Data y sus procesos asociados, deben integrar esta disposición en su carácter y subjetividad, a través de procesos formativos y experienciales. Este desafío es significativo, especialmente considerando que, al menos en el caso costarricense, los enfoques predominantes hacia la ética profesional suelen ser deontológicos y no necesariamente basados en la ética de la virtud. Esto podría generar tensiones con la propuesta del principio de precaución, traducido a una ética de la virtud mediante la phrónesis.

5. Conclusiones

Las narrativas con respecto al Big Data y los datos en general, están presentes en las sociedades contemporáneas de manera omnipresente y, por tanto, están enmarcadas en contextos y dinámicas sociales, económicas y políticas determinados, lo que ha implicado el surgimiento de la reflexión ética y filosófica en torno a estos procesos, siendo la ética profesional y la regulación normativa dos importantes aspectos. Las orientaciones han estado dirigidas a lo normativo y legal, sin embargo, siguiendo al filósofo belga Coeckelbergh (2021), una ética de la ciencia de datos y de la IA debe tomar en cuenta algunos criterios que permitan a las personas tomar decisiones de manera crítica y contextualizada en diferentes entornos. Un intento importante es el de establecer “puentes” entre los principios éticos normativos y la ética de la virtud.

En relación con principio de precaución, se observa su presencia en los debates sobre regulaciones y normativas en el ámbito del Big Data y la IA en general. Además, según la propuesta de Marcos (2018), este principio, comúnmente abordado desde una perspectiva legal y regulatoria, puede traducirse en la práctica ética a través del concepto aristotélico de phrónesis. Teniendo en cuenta los problemas asociados al Big Data, se puede afirmar que un carácter prudencial posibilita la mitigación de riesgos, así como una práctica que toma en cuenta los aspectos relacionados a la discriminación algorítmica y la opacidad epistémica, entendida como la incomprensión del nivel semántico de las herramientas empleadas.

Con respecto al nuevo humanismo, en este artículo se plantea que la phrónesis y el principio de precaución son relevantes para la dimensión socio-cultural, ya que propician prácticas en las que, de forma crítica, se eviten sesgos discriminatorios. Además, se propone una postura en la que se asume al Big Data y sus prácticas asociadas desde la complejidad, esto es, no como un mero proceso técnico; al contrario, como insumo mediado por diferentes narrativas, intereses y contextos sociopolíticos.

Por otra parte, no todo el desarrollo de Big Data está asociado a las grandes compañías tecnológicas, ya que, de una u otra forma, la mayoría de empresas ha empezado a utilizar grandes conjuntos de datos para la automatización o la toma de decisiones. La phrónesis se puede tomar en cuenta para recolectar y analizar datos, evitar prácticas como la de la falacia incompleta o Cherry Picking. Lo anterior, puede entrar en tensión con las dinámicas empresariales, ya que pueden ser intencionales e interesadas.

En términos de aplicabilidad, cabe señalar que existe un reto importante, ya que, al menos en el caso costarricense, la ética profesional se plantea desde una serie de códigos y lineamientos deontológicos, mientras que, por otra parte, la phrónesis aristotélica tiene su fundamento en la ética de la virtud. Investigaciones posteriores podrían reflexionar en torno a la posibilidad de incluir y propiciar, mediante procesos educativos, la construcción de un carácter que tome en cuenta la phrónesis como parte fundamental de la práctica de las personas profesionales que trabajan con Big Data. Además, sería importante explorar qué reflexiones éticas se plantean en la actualidad o se podrían proponer curricularmente en el nivel universitario dentro de bachilleratos, licenciaturas, maestrías y especializaciones.

Por tanto, es posible afirmar que, al menos en el nivel teórico, existe una relación clara entre la phrónesis y el principio de precaución, en el marco de los problemas planteados por Coeckelbergh (2021) en torno a la necesidad de concatenar lo normativo y la formación del carácter, por lo que se concluye que esta relación es pertinente para los diversos procesos y problemas asociados al Big Data. Sin embargo, se debe señalar que, en el nivel práctico u operacional, la phrónesis entra en tensión con las dinámicas tecnocientíficas, políticas y económicas. En consecuencia, es necesario que estas se construyan, a partir de procesos formativos y educativos, no solo mediante códigos deontológicos o principios normativos.

Referencias

Adorno, T. (2003). Consignas. Amorrortu.

“Archivos de Facebook”: 5 revelaciones de los documentos de la red social filtrados en la prensa. (27 de septiembre del 2021). BBC Mundo. https://www.bbc.com/mundo/noticias-58713594

Aristóteles. (2020). Ética a Nicómaco. Editorial Gredos.

Aristóteles. (2020). Metafísica. Editorial Gredos.

Aristóteles. (2010). Protéptico. (S. González, Trad.). Eikasía. Revista de Filosofía, 30, 1-22. https://old.revistadefilosofia.org/30-01.pdf

Arrubla, R. (2020). Humanismo digital y sociedad postdisciplinaria. Editorial Arreandina.

Asamblea Legislativa de Costa Rica (2023). Expediente 23771. Ley de regulación de la Inteligencia Artificial en Costa Rica.

Baraona, M., Mora, J., & Sancho, M. (2017). El Nuevo Humanismo como proyecto emancipatorio. Revista Estudios, 34, 332-360. https://revistas.ucr.ac.cr/index.php/estudios/article/view/29468

BBC News Mundo. (27 de septiembre del 2021). “Archivos de Facebook”: 5 revelaciones de los documentos de la red social filtrados en la prensa. BBC News Mundo. https://www.bbc.com/mundo/noticias-58713594

Beauchamp, T. L., & Childress, J.F. (1994). Principles of biomedical ethics (4th ed.). Oxford University Press.

Blanco, E. (2018). El concepto de “phrónesis”: desde Aristóteles hasta Francisco de Suárez. Mutatis Mutandis: Revista Internacional de Filosofía, 1(10), 79-98. https://doi.org/10.69967/07194773.v1i10.28

Bradford, A. (2012). The Brussels Effect. Northwestern University Law Review, 107(1), 1-68. https://scholarlycommons.law.northwestern.edu/nulr/vol107/iss1/1

Beck, U. (1998). La sociedad del riesgo. Editorial Paidós.

Brooks, D. (4 de febrero del 2013). The Philosophy of Data. New York Times. Edición en español. https://www.nytimes.com/2013/02/05/opinion/brooks-the-philosophy-of-data.html

Brown, T. (9 de julio de 2013). The precautionary principle: A blunt instrument. The Guardian. https://www.theguardian.com/science/political-science/2013/jul/09/precautionary-principle-blunt-instrument

Camino, J. (2022). ¿Qué es la ontología? Consideraciones histórico-crítica. Revista latinoamericana de filosofía, 48(2), 175-200. https://www.memoria.fahce.unlp.edu.ar/art_revistas/pr.16980/pr.16980.pdf

Castro, D., & McLaughlin, M. (2016). Ten Ways the Precautionary Principle Undermines Progress in Artificial Intelligence. Information Technology & Innovation Foundation. https://itif.org/publications/2019/02/04/ten-ways-precautionary-principle-undermines-progress-artificial-intelligence/

Castro, A. (2017). Big Data en las humanidades digitales. Nuevas conversaciones en el contexto académico global. Editado por Anuario AC/E de cultura digital. https://www.accioncultural.es/es/anuario2017

Chang, V. (2021). An ethical framework for big data and smart cities. Technological Forecasting and Social Change, 165, 1-11. https://doi.org/10.1016/j.techfore.2020.120559

Chappell, B. (25 de octubre del 2021). The Facebook Papers: What you need to know about the trove of insider documents. npr. https://www.npr.org/2021/10/25/1049015366/the-facebook-papers-what-you-need-to-know

Coeckelbergh, C. (2021). Ética de la Inteligencia Artificial. Editorial Cátedra.

Coeckelbergh, C. (2023) La Filosofía Política de la Inteligencia Artificial. Editorial Cátedra.

Colegio de Profesionales en Informática y Computación. (2013). Código de Ética. Colegio de Profesionales en Informática y Computación. https://cpic.or.cr/wp-content/uploads/2024/10/CodigodeEticaCPIC.pdf

Colegio de Profesionales en Ciencias Económicas. (2003). Reglamento de Ética Profesional. Colegio de Profesionales en Ciencias Económicas. https://www.colegiocienciaseconomicas.cr/archivos-de-usuario/Reglamento%20de%20Etica.pdf

Comisión Europea. (2021). Propuesta de reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión. https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52021PC0206

Convención sobre la Diversidad Biológica. (1992). Convenio sobre la diversidad biológica. https://www.cbd.int/doc/legal/cbd-es.pdf

Cortina, A. (2021). Ética cosmopolita: Una apuesta por la cordura en tiempos de pandemia. Editorial Paidós.

Cristancho, J. (2022). El principio de precaución en la jurisprudencia de la Corte Constitucional colombiana y la política pública de erradicación de cultivos ilícitos. Revista de Derecho, 25, 92-116. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2722973

Diebold, F. (2012). On the Origin(s) and Development of “Big Data”: The Phenomenon, the Term, and the Discipline. PIER Working Paper Archive, 12-037, 1-8. https://dx.doi.org/10.2139/ssrn.2152421

Echeverría, J. (2003). La revolución tecnocientífica. Editorial Titivillus.

Eggers, D. (2013). The Circle. Knopf.

Ekbia, H., Mattioli, M., Kouper, I., Arave, G., Ghazinejad, A., Bowman, T., Ratandeep, V., Tsou, A., Weingart, S. & Sugimoto, C. (2015). Big data, Bigger Dilemmas: A Critical Review. Journal of the Association for Information Science and Technology, 66(8), 1-39. DOI: 10.1002/asi.23294.

Farley, S., Dawson, A., Goring, S. & Williams, J. (2018) Situating Ecology as a Big-Data Science: Current Advances, Challenges, and Solutions. BioScience, 68(8), 563-576, https://doi.org/10.1093/biosci/biy068

García, M. (2020). El principio de precaución como fundamento del derecho ambiental. Editorial de la Universidad Externado de Colombia. https://doi.org/10.57998/bdigital.handle.001.3444

Habermas, J. (1987). The Theory of Communicative Action. Editorial Beacon.

Hall, R. (2016). Casuística y principialismo. Dilemata, 20, 33–48. https://www.dilemata.net/revista/index.php/dilemata/article/view/421

Haugen, F. (2023). La verdad sobre Facebook. Editorial Deusto.

Hinkelammert, F. (2003). El sujeto y la ley. El retorno del sujeto reprimido. EUNA.

Hinkelammert, F., & Mora, H. (2006). Hacia una economía para la vida. Preludio a una reconstrucción de la economía. Editorial Tecnológica de Costa Rica.

Ibarra, A. (2018). El error baconiano ¿qué hay de la naturaleza? En C. Beltrán y A. Velasco (Eds.). Aproximaciones a la Filosofía Política de la Ciencia. (pp. 183-210). UNAM, Dirección General de Publicaciones y Fomento Editorial.

Iturmendi, J. (2023). La discriminación algorítmica y su impacto en la dignidad de la persona y los derechos humanos. Especial referencia a los inmigrantes. Deusto Journal of Human Rights 12, 257-284. https://doi.org/10.18543/djhr.2910

Kristjánsson, K. (2023). Phrónesis, metaemociones y educación del carácter [Phronesis, metaemotions, and character education]. Revista Española de Pedagogía, 81(286), 437-456. https://doi.org/10.22550/REP81-3-2023-01

Kourilsky, P. & Viney, G. (2000). Le principe de précaution. Éditions Jacob.

Kuc-Czarnecka, M., & Olczyk, M. (2020). How ethics combine with big data: a bibliometric analysis. Humanit Soc Sci Commun 7(137), 1-9. https://doi.org/10.1057/s41599-020-00638-0

Lledó, F., & Monje, O. (2020). Ética y robótica: Principios éticos para la inteligencia artificial y la robótica. Revista de Derecho, Empresa y Sociedad (REDS), 16, 16-27.

Loue, S. (2002). Textbook of Research Ethics: Theory and Practice. Springer.

Marcos, A. (2018). La filosofía política de la ciencia y el principio de precaución. En C. Beltrán y A. Velasco (Eds.), Aproximaciones a la Filosofía Política de la Ciencia (pp. 155-182). UNAM, Dirección General de Publicaciones y Fomento Editorial.

Martén, S. (2023). El problema epistemológico de los Big Data en la producción de conocimiento científico. [Tesis de Maestría en Filosofía]. Universidad de Costa Rica.

Morelle, E. (2020). El ruido en el mar: ¿es necesario abordarlo desde el principio de precaución? Bioderecho.es, 12, 1-11. https://doi.org/10.6018/bioderecho.459071

Moresi, E., & Pinho, I. (2021). Proposta de abordagem para refinamento de pesquisa bibliográfica. Investigação Qualitativa em Ciências Sociais: Avanços e Desafios 9, 11-20. https://publi.ludomedia.org/index.php/ntqr/article/view/344/347

Narayanan, A., Huey, J., & Felten, E.W. (2016). A Precautionary Approach to Big Data Privacy. En S. Gutwirth, R. Leenes, P. De Hert (Eds.), Data Protection on the Move. Law, Governance and Technology Series 24 (pp. 357-385). Springer. https://doi.org/10.1007/978-94-017-7376-8_13

Navas, N. (2012). Phrónesis y Hermenéutica. Apuntes Filosóficos 21(40), 67-86. http://saber.ucv.ve/ojs/index.php/rev_af/article/view/2967

Noble, S. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.

Ocaña, Y., & Fuster, D. (2021). The bibliographical review as a research methodology. Revista Tempos e Espaços en Educao 14(33), 1-15. https://doi.org/10.20952/revtee.v14i33.15614

Ogbuke, N. J., Yusuf, Y. Y., Dharma, K., & Mercangoz, B. A. (2020). Big data supply chain analytics: ethical, privacy and security challenges posed to business, industries and society. Production Planning & Control, 33(2–3), 123–137. https://doi.org/10.1080/09537287.2020.1810764

Oreskes, N. (2021) ¿Por qué confiar en la ciencia? Ediciones Universitarias de Valparaíso.

Origgi, G. (2018). Reputation. Princeton University Press.

Pachón, D. (2010). Crítica y redefinición de la categoría de progreso. Hacia una “forma-vida-orgánica”. Ciencia Política, 5(9), 130-153. https://revistas.unal.edu.co/index.php/cienciapol/article/view/17018

Pantoja, L. (2012). Deontología y código deontológico del educador social. Pedagogía social: revista interuniversitaria, 19, 65-79. https://dialnet.unirioja.es/servlet/articulo?codigo=3827746

Parlamento Europeo y Consejo de la Unión Europea. (2021). Reglamento del Parlamento Europeo y del Consejo relativo a la inteligencia artificial (Ley Europea de IA). https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A52021PC0206

Ramos, C. (2020). Los alcances de una investigación. CienciAmérica 9(3), 1-6. http://dx.doi.org/10.33210/ca.v9i3.336

Richardson, M., Petter, S., & Carter, M. (2021). Five Ethical Issues in the Big Data Analytics Age. Communications of the Association for Information Systems 49(18), 430-477. https://doi.org/10.17705/1CAIS.04918

Richterich, A. (2018). The Big Data Agenda. Knowledge Unlatched. https://doi.org/10.16997/book14

Salas, J. (15 de enero del 2018). Google arregla su algoritmo ‘racista’ borrando a los gorilas. El País. https://elpais.com/tecnologia/2018/01/14/actualidad/1515955554_803955.html

Sartea, C. (2022). Edición genética humana entre el deber de curar, la libertad de investigación científica y el principio de precaución: una lectura de la opinión del Comité Nacional de Bioética italiano. Revista de Derecho y Genoma Humano: Genética, Biotecnología y Medicina Avanzada, 56(1), 157-168. https://doi.org/10.14679/1325

Saeed, N., & Husamaldin, L. (2021). Big Data Characteristics (V’s) in Industry. Iraqi Journal of Industrial Research, 8(1), 1-9. https://doi.org/10.53523/ijoirVol8I1ID52

Secretaría de la Convención Marco de las Naciones Unidas sobre el Cambio Climático. (2015). Acuerdo de París. https://unfccc.int/sites/default/files/resource/cop21_esp.pdf

Secretaría de la Convención Marco de las Naciones Unidas sobre el Cambio Climático. (1998). Protocolo de Kioto. https://unfccc.int/resource/docs/convkp/kpspan.pdf

Seggiaro, C. (2010). La Concepción de Phrónesis en el Protréptico de Aristóteles. Revista venezolana de Estudios Clásicos 11, 1-15. http://erevistas.saber.ula.ve/index.php/praesentia/article/view/1089

Slote, M. (2010). Virtue ethics. En J. Skorupski (Ed.), The Routledge companion to ethics (pp. 478-489). Routledge. https://api.pageplace.de/preview/DT0400.9781136964220_A24325751/preview-9781136964220_A24325751.pdf

The Facebook Files. (13 de setiembre del 2021). The Wall Street Journal. https://www.wsj.com/articles/the-facebook-files-11631713039

Vargas, I. (2020). Contaminación electromagnética y principio de precaución: de norma crepuscular a criterio jurídico vinculante. Revista Guillermo Ockham, 18(1), 55-67. https://www.redalyc.org/articulo.oa?id=105368880006

van Viljon, A., & Kotzé, E. (01 de mayo de 2015). How big is big data and where will you find it? ResearchGate. https://www.researchgate.net/publication/287221669_How_big_is_big_data_and_where_will_you_find_it

Vigen, T. (2015). Spurious correlations. Hachette Books.

Zanini, S. (2020). Covid-19 y la relación hombre-naturaleza: el equilibrio violado. Reflexiones sobre la gestión de la complejidad de las pandemias: de la protección de los ecosistemas al principio de precaución. DA. Derecho Animal. Forum of Animal Law Studies, 11(4), 129-140. https://doi.org/10.5565/rev/da.542

Zárate, R. (2024). Explorando los desafíos lógicos en la visualización y análisis de datos en arquitecturas de Big data: un enfoque en falacias, sesgos y paradojas. Revista Nacional de Administración, 15(1), 103-115. https://doi.org/10.22458/rna.v15i1.5150

Zillmer, J., & Díaz, B. (14 de mayo del 2018). Revisión Narrativa: elementos que la constituyen y sus potencialidades. Journal of Nursing and Health 8(1), 1-2. https://periodicos.ufpel.edu.br/index.php/enfermagem/article/view/13654

Zuboff, S. (2020). La era del capitalismo de la vigilancia. Editorial Paidós.


  1. 1 Por ejemplo, los datos que se almacenan sobre diferentes servicios: calificaciones de Uber, encuestas de satisfacción, reseñas sobre personas docentes de las universidades, entre otros. Con respecto a la última, la plataforma MisProfesores.com es un caso claro.

  2. 2 Los Papeles de Facebook o Facebook Papers fueron, tal y como afirma Chappell (25 de octubre del 2021), una serie de documentos filtrados por Frances Haugen, una exempleada de la compañía, en los que se revelaba la manera en la que Facebook conocía las consecuencias de sus políticas empresariales en la polarización, la salud mental de las personas menores de edad, así como en la desinformación.

  3. 3 Fue una serie de artículos, presentados en diferentes fechas y sistematizados por The Wall Street Journal en una sola entrada titulada The Facebook Files: A Wall Street Journal investigation (13 de setiembre del 2021). Se puede consultar en el siguiente enlace: https://www.wsj.com/articles/the-facebook-files-11631713039

  4. 4 En muchos casos a partir de la intersección entre Big Data y Machine Learning.

  5. 5 Es una práctica en la que se selecciona, de un conjunto de datos, los que refuerzan y consolidan una determinada narrativa, es decir, la que es funcional para ciertos intereses. Es una escogencia sesgada y con poca objetividad. En el ámbito del análisis de Big Data, por ejemplo, con un mismo conjunto de datos, dos equipos pueden llegar a conclusiones diferentes, debido al Cherry Picking.

  6. 6 “En términos generales, se refiere a un sesgo en el que se asume que un modelo estadístico y matemático debe corresponderse casi totalmente con su conjunto de entrenamiento o con su dataset” (Zárate, 2024, p. 110).

  7. 7 Según los autores citados, la utilización de los datos personales se puede considerar, desde algunas posturas, como un acto de explotación.

  8. 8 Traducción propia.

  9. 9 Se puede consultar en el siguiente enlace: https://www.euaiact.com/

  10. 10 Como se expone más adelante, se interseca con el tema del Big Data y sus prácticas.

  11. 11 Puede entenderse como una teoría ética centrada en los deberes que son moralmente obligatorios por sí mismos, independientemente de las consecuencias. Esta noción se conecta con su etimología, derivada de los términos griegos ‘deón’ (deber) y ‘logos’ (discurso o estudio), lo que refleja su enfoque en los principios morales fundamentales (Pantoja, 2012).

  12. 12 De acuerdo con Baraona, Mora y Sancho (2017), una de las cuatro crisis que interpelan al nuevo humanismo, es la crisis de la civilización, la cual se caracteriza por la instrumentalización, trivialización y tecnificación de la vida social humana.

  13. 13 Siguiendo a Hall (2016), el principialismo es un enfoque ético deductivo que guía la toma de decisiones, a partir de principios universales, los cuales son aplicados a situaciones concretas. Se suele contraponer a la propuesta casuística, la cual es inductiva y plantea una toma de decisiones con base en precedentes históricos, contextos sociales y opiniones de personas expertas. El principialismo, por tanto, justifica sus conclusiones mediante principios generalizables.

  14. 14 La ontología, tal como afirma Camino (2022), se puede entender como la indagación contextualizada sobre el ente de una cosa. En este caso, una virtud y un principio tienen una significación distinta.

  15. 15 Especialmente cuando el Big Data se convierte en un insumo para estos procesos.

  16. 16 El proyecto de ley no especifica a qué tipo de IA se refiere, por lo que lo aborda de forma muy general.

  17. 17 Es importante tener en cuenta que, el proyecto de ley, redactado con ayuda de ChatGPT, está orientado a la IA, de manera general, en otras palabras, no especifica e incluye todo tipo de procesos asociados: datos, algoritmos, sistemas informáticos, entre otros. Posee mucha ambigüedad y, debido a esto, poca aplicabilidad. Es necesario destacar que fue presentado en mayo del 2023. Al momento de redacción de este artículo de investigación, el proyecto de ley se encuentra en comisión. Se puede consultar el estado de la discusión en el siguiente enlace: https://delfino.cr/asamblea/proyecto/23771

  18. 18 Entendido como una actividad orientada a crear algoritmos y modelos que permiten a las computadoras aprender y tomar decisiones a partir de datos, sin necesidad, en muchas ocasiones, de una programación explícita para cada tarea específica.

  19. 19 El autor establece, a partir de conjuntos de datos, diferentes correlaciones: las películas de Nick Cage y los accidentes en piscinas o el consumo de mantequilla y la energía producida a partir del viento en Lituania. Algunos de estos ejemplos se pueden consultar en el siguiente enlace: https://tylervigen.com/spurious-correlations

  20. 20 En la década de 1980, de acuerdo con Marcos (2018), Estados Unidos y Alemania vieron surgir preocupaciones sobre la conservación de sus bosques, motivadas por desafíos ambientales como la deforestación, la contaminación del aire, la acidificación del suelo, así como la lluvia ácida. En ambos países, estas preocupaciones generaron un aumento en la legislación y políticas destinadas a proteger y gestionar los bosques de manera sostenible, priorizando la prevención de daños graves incluso sin evidencia científica concluyente sobre riesgos específicos.

  21. 21 En este caso relacionado a la falibilidad de la ciencia.

  22. 22 El autor plantea que, debido a la predominancia de los intereses económicos, el cálculo de riesgos y peligros se torna un aspecto marginal dentro de la toma de decisiones.

  23. 23 Según Pachón (2010), la idea de progreso ha estado permeada por la dominación colonial y el eurocentrismo, lo que ha implicado una racionalidad instrumental que ha puesto en peligro las condiciones para la vida. Cabe señalar que este tipo de críticas han estado presentes desde hace mucho tiempo. Adorno (2003), filósofo alemán, empleó, para caracterizar al progreso, la figura de un gigante que arrastra todo a su paso.

  24. 24 Traducción de S. González (2010) publicada en Eikasía. Revista de Filosofía.

  25. 25 Hinkelammert (2003) emplea el ejemplo del hombre que corta la rama en la que está sentado y que, por tanto, destruye sus medios de vida.

  26. 26 Es incluido debido a que muchas de las personas pertenecientes a este colegio trabajan en Big Data. Un ejemplo claro son las especializaciones impartidas por la Escuela de Administración de Empresas del Instituto Tecnológico Costarricense (TEC).

EUNAEUNA UNA

Centro de Estudios Generales
Universidad Nacional, Campus Omar Dengo
Apartado postal: 86-3000. Heredia, Costa Rica
Teléfono: (506) 2277-3953
Correo electrónico: revista.nuevo.humanismo@una.cr
Equipo Editorial