Menu
La Facultad de Filosofía y Letras de la UNCUYO celebró la “Semana de la Investigación” y tuvo entre sus expositores a Tomás Balmaceda, filósofo, divulgador y estudioso del cruce entre tecnología y sociedad. De su charla, destacamos su visión sobre los desafíos que enfrentan las humanidades y la ciencias sociales frente al avance de la inteligencia artificial.

Ezequiel Derhun
Unidiversidad - 14 de abril de 2025

“Algo falta. Hay algo allí que resulta plano, carente de la rugosidad que nuestra cotidianeidad nos demuestra día a día”, dijo Diego Niemetz en la jornada inaugural de la Semana de la Investigación en la Facultad de Filosofía y Letras de la UNCUYO. Las palabras del secretario de Investigación de la Facultad tienen que ver con el tema que atravesó las ponencias de cada charla: el cruce del mundo digital con las ciencias sociales y las humanidades. En ese entrecruzamiento, los modelos de Inteligencia Artificial (IA) son la clave para entender el presente, lo que viene en el futuro cercano y una pregunta determinante: ¿las IA generan conocimiento genuino?

Niemetz, doctor en Letras e investigador de Conicet, enunció sus palabras con una posdata aclaratoria: gran parte de su discurso, sobre todo la primera parte, fue elaborado gracias al aporte de diferentes LLM (sigla en inglés de Large Language Model), que son las famosas IA como ChatGPT, DeepSeek o Copilot. LLM es un acrónimo que se refiere a un modelo lingüístico grande de inteligencia artificial, y quien ha estudiado en profundidad su alcance es Tomás Balmaceda, doctor en Filosofía y reconocido divulgador que tuvo a cargo la conferencia de apertura.

Balmaceda aprovechó y tomó de ejemplo lo que hizo Niemetz para indicar que es algo que se viene cuestionando en muchos foros alrededor del mundo: ¿qué es el conocimiento?. "Las respuestas que generan estos chatbots, ¿constituyen conocimiento genuino o son otra cosa?, ¿Qué ocurre cuando la autoría de una obra generada en colaboración con una máquina es expuesta o no?”, se preguntó el filósofo, que también trabaja como comunicador especializado en tecnología.

Entonces, ¿qué debería suceder cuando textos (como esta nota) son escritos con asistencia de una IA (en este caso, Pinpoint y ChatGPT) para seleccionar y jerarquizar ideas, citas, enfoques, etc.? Balmaceda brindó algunas pistas para acercar una respuesta: "Una cosa es procesar información. Eso lo hacen las IA, y lo hacen muy bien. Otra cosa es conocer, y eso requiere una serie de capacidades que, al menos hoy, no vemos en estas herramientas", dijo, y luego amplió: “Conocer no es solo tener datos, sino entenderlos, darles sentido, relacionarlos con un contexto, con una experiencia vivida”. En este sentido, citó a la filósofa Diana Pérez, que sostiene: "ChatGPT es un modelo de lenguaje, no un modelo de mundo”. Así, el especialista en tecnología afirmó: “Creo que eso nos permite pensar para qué sirven. Entonces, desde esta perspectiva, las interpretaciones que hace la IA serían vacías, espejos de otras interpretaciones humanas previas, sin la chispa del entendimiento genuino, la originalidad”.

Lee aquí la nota completa

Go Back

Comments for this post have been disabled.