Ética E Inteligencia Artificial
La reflexión ética sobre la inteligencia artificial (IA) ha sido profundamente enriquecida por la propuesta de Luciano Floridi, quien sostiene que resulta más preciso hablar de agencia artificial (AA) que de inteligencia artificial propiamente dicha. Desde esta perspectiva, la IA no actúa de manera autónoma en sentido humano, sino que su funcionamiento y sus efectos dependen de los entornos informacionales, sociales y normativos diseñados por los seres humanos (Floridi, 2019). De ahí que, el autor propone un marco ético compuesto por cinco principios fundamentales —beneficencia, no maleficencia, autonomía, justicia y explicabilidad— que sintetizan las principales preocupaciones presentes en los debates contemporáneos sobre ética de la IA en Europa y Norteamérica. Este conjunto de principios integra aportes provenientes de la bioética y, al mismo tiempo, responde a problemáticas específicas derivadas del funcionamiento de los sistemas algorítmicos y automatizados (Floridi, 2019).
Los principios de beneficencia y no maleficencia constituyen la base moral del desarrollo y la implementación de la IA. El primero exige que estas tecnologías se orienten al bien común de la humanidad y de los entornos naturales que la sostienen, mientras que el segundo subraya la necesidad de prevenir daños, efectos adversos y consecuencias no intencionadas (Floridi, 2019). En este sentido, Floridi advierte que la IA no es moralmente neutra, pues incorpora decisiones humanas relacionadas con el diseño, los datos, los objetivos y los criterios de optimización. Por ello, una ética de la IA no puede limitarse a evaluar su eficiencia técnica, sino que debe considerar de manera crítica sus impactos sociales, culturales y educativos, especialmente en contextos donde las decisiones automatizadas influyen directamente en la vida de las personas.
Los principios de autonomía, justicia y explicabilidad refuerzan el papel central del ser humano como agente moral último frente a la IA. El principio de autonomía establece que, aunque se deleguen ciertas tareas a las máquinas, los humanos deben conservar siempre la capacidad de decidir qué funciones delegar, bajo qué condiciones y con qué límites, garantizando que la agencia humana no sea erosionada (Floridi, 2019). El principio de justicia orienta el uso de la IA hacia la equidad, la inclusión y la sostenibilidad, rechazando modelos de optimización que prioricen el crecimiento económico sin considerar su distribución justa.
Finalmente, el principio de explicabilidad articula una dimensión epistemológica y ética, al exigir que los procesos algorítmicos sean comprensibles y transparentes, permitiendo identificar responsabilidades y rendir cuentas sobre sus efectos. En conjunto, este marco ético propone una visión humanista de la IA, en la que la tecnología se concibe como un medio al servicio de los valores humanos y no como un fin en sí mismo.
Mg. Rober de Jesús Miranda Acosta
Universidad de la Costa
Institución Educativa Politécnico de Soledad
Mg. Jorge Luis Restrepo Henríquez
Gabriel José Miranda Reyes
Estudiante de Licenciatura en Lenguas Moderna
Referencia bibliográfica.
Floridi, L. (2019). The logic of information: A theory of philosophy as conceptual design. Oxford University Press.
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … Vayena, E. (2018). AI4People—An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5