Inteligencia artificial: “ChatGPT es una excusa para conectar al ciudadano común con un área muy compleja”

Diego Martínez es doctor en Ciencias de la Computación, profesor y director decano del Departamento de Ciencia de la Computación de la Universidad Nacional del Sur y se dedica a analizar el fenómeno de la inteligencia artificial desde una mirada académica y accesible. Visitó la FM De la Calle y explicó cómo funcionan los grandes modelos de lenguaje, desarmó mitos sobre la “superinteligencia” y planteó los límites técnicos, éticos y económicos que atraviesan su desarrollo actual.

La expansión de herramientas como ChatGPT instaló la idea de que la inteligencia artificial es un fenómeno reciente y cercano a una inteligencia humana. Sin embargo, Martínez remarcó que el campo lleva décadas de trabajo y que siempre estuvo orientado a resolver problemas concretos.

“Lo que se planteó siempre fue qué tareas podría hacer una computadora que podríamos calificar como inteligente”, desde buscar rutas hasta planificar acciones para alcanzar un objetivo, explicó.

Según el especialista, el salto reciente se explica por una combinación de factores: “Nunca habíamos producido tantos datos”. A esto se suma un fuerte incremento del poder de cómputo y avances técnicos que hicieron más eficiente el entrenamiento de redes neuronales y permitió desarrollos como los modelos de lenguaje actuales, los cuales se apoyan en trabajos previos sobre traducción automática y procesamiento del lenguaje natural.

Ese crecimiento, según el investigador, abrió debates éticos sobre el uso de los datos. “Esos datos hay que obtenerlos de algún lado”. En ese sentido, aclaró que no siempre existe consentimiento explícito. Mencionó el caso de artistas que manifestaron que sus obras “no sean usadas para entrenar modelos de inteligencia artificial” y recordó que incluso acciones cotidianas, como resolver el CAPTCHA de “no soy un robot”, implican colaborar con estos sistemas: “Estás aportando a que se mejore un sistema de reconocimiento de imágenes”.

Respecto del funcionamiento de herramientas como ChatGPT, el investigador subrayó que su fortaleza no radica en el razonamiento, sino en la generación de respuestas plausibles. “Cuando le preguntamos si dos más dos es cuatro, nos va a decir que sí, pero porque en todos los lugares que leyó dos más dos, al lado dice cuatro. No es que realmente sumó”, explicó. Por eso también pueden producir errores o “alucinaciones”: “Van a tratar de generar una respuesta”, aún cuando esa respuesta no coincida con la realidad.

En ese marco, Martínez es cauteloso frente a la idea de una inteligencia artificial general, capaz de resolver cualquier tarea: “No hay un consenso científico sobre qué es eso”. Contó que el trabajo actual apunta a sistemas altamente especializados: “El problema es puntual y queremos que lo resuelva bien”, como ocurre por ejemplo con el desarrollo de autos autónomos u otras aplicaciones específicas.

Por último, el especialista señaló que el avance de estas tecnologías también está condicionado por factores económicos. “Es muy costoso producir los modelos actuales” y remarcó que solo grandes empresas pueden afrontarlo. “La cantidad de dinero que invierten en esto es enorme y principalmente lo hacen por lucro, no por amor a la ciencia”.

Para Martínez, el desafío no es perseguir una “superinteligencia”, sino comprender los límites reales de estas herramientas y usarlas de manera crítica y responsable.

Noticias relacionadas