La doctora en Filosofía es una de las pensadoras que explora los desafíos de esta tecnología desde su vertiente ética
Los avances recientes en inteligencia artificial (IA) aumentan las expectativas sobre su potencial, pero también los debates acerca de sus riesgos. Júlia Pareto, doctora en Filosofía, es una de las pensadoras que explora los desafíos de esta tecnología desde su vertiente ética. Trabaja en el Instituto Universitario Europeo de Florencia y en el Instituto de Robótica e Informática Industrial (CSIC-UPC), investigando el desarrollo de estos sistemas, especialmente en el ámbito social y asistencial.
El pasado 30 de abril participó en el debate. ¿Qué nuevos retos éticos y jurídicos plantea la inteligencia artificial?, en el Palau Macaya.
¿Cuáles son los principales desafíos éticos que plantea la IA?
El gran reto, y lo pondría en singular, es decidir por qué y para qué vamos a desarrollar esta tecnología, cuáles son las razones para su despliegue. Teniendo en cuenta los riesgos de su autonomía tecnológica, la reflexión se está enfocando mucho en el “hacer” de estos agentes artificiales, en que sus conductas estén alineadas con ciertos valores.
Pero se olvida que la primera pregunta debería centrarse en su “ser”, es decir, en la cuestión de su legitimidad, que implica volver la atención a los intereses y las finalidades a que deberían servir. La ética tiene una tarea de construcción de sentido. Creo que es necesario reducir el ruido en torno a lo anecdótico y tomarnos un paréntesis para pensar qué hacemos y hacia dónde vamos con los sistemas de IA, lo que inevitablemente conduce a retomar temas fundamentales de la tradición filosófica.
En su trabajo también señala que la ética no debe confundirse con la moral.
Popularmente, ética y moral se consideran sinónimos, pero, desde el punto de vista de la filosofía, hay una distinción muy importante entre ambos conceptos, que conviene recordar ahora que se solicita la ética en distintos contextos prácticos para ayudar en las tomas de decisiones.
Algunos expertos de otras disciplinas, como la ingeniería, dialogan con filósofos y cuentan con que estos les van a decir qué hacer. Y eso es algo que corresponde a la moral, que está ligada a unos valores o unas normas aceptados socialmente. La ética reflexiona sobre el porqué, y la respuesta que ofrece es un argumento. Es interesante esta distinción: la moral se ocupa de las acciones, mientras que la ética se ocupa de las razones. Son dos ámbitos de la vida práctica muy distintos.
¿Cómo debería ser una ética que abarque la complejidad de la IA?
Tenemos que huir de la idea de una reflexión ética general e intentar acotarla a campos prácticos o actividades específicas. La reflexión no debe descontextualizarse del área de acción concreta a la que sirve la tecnología, del marco de finalidades y valores de las prácticas para las cuales se concibe como instrumento.
Históricamente, hemos pasado de una ética de la Tecnología con “T” mayúscula a una ética de las tecnologías específicas: ética de la robótica, de la nanotecnología, de la computación… Ahora deberíamos realizar un último giro hermenéutico hacia las actividades a las que sirven estas tecnologías para no quedarnos en un discurso que ponga el foco en el instrumento sin atender a su naturaleza teleológicamente subordinada.
Lee aquí la nota completa
- September 2024 (29)
- August 2024 (27)
- July 2024 (26)
- June 2024 (27)
- May 2024 (24)
- April 2024 (27)
- March 2024 (26)
- February 2024 (27)
- January 2024 (24)
- December 2023 (17)
- November 2023 (21)
- October 2023 (29)
- September 2023 (20)
- August 2023 (25)
- July 2023 (4)
- June 2023 (25)
- May 2023 (17)
- April 2023 (54)