CAPTCHA | Razón y conocimiento en la IA
Gerardo Simari, investigador independiente del CONICET en el Instituto de Ciencias e Ingeniería de la Computación (ICIC, CONICET-UNS), analizó en FM De la Calle cómo funciona el machine learning y la necesidad de regular los sistemas inteligentes.
“La Inteligencia Artificial ha asaltado la esfera popular, está en boca de todo el mundo. El tema que hoy en día tal vez tenga más repercusión es del aprendizaje automatizado, machine learning se dice en inglés, es un tema que está en boca de mucha gente especialmente con el Chat GPT”, refirió.
La parte de la razón y el conocimiento, explicó el investigador, es otra área que está asociada a la IA y que no ha tenido una gran intersección con el machine learning. Se trata de un aspecto más formal que trata de captar “cómo representar al conocimiento que todos manejamos como personas y los razonamientos que hay que hacer para llevar a cabo nuestras tareas habituales”.
La automatización del aprendizaje está más especializado en reconocer objetos en fotos o videos, aprendiendo a reconocer el patrón que indica la presencia del objeto de interés, beneficiándose de la cantidad de información que está disponible en la web.
“Parece algo mágico pero hay mucha matemática debajo de eso. Si uno se pone a mirar lo que es una foto, es ni más ni menos que un montón de píxeles, si seguimos más por debajo de eso qué hay debajo, cada píxel tiene un color, una intensidad, eso es un número. Se arma una gran grilla que se llama una matriz, matemáticamente, y a partir de eso empezamos a jugar con los números, y ahí se pueden caracterizar matemáticamente lo que es un patrón”, explicó.
Por otro lado, refirió que es una época “muy emocionante para la disciplina, de golpe no es tan caro hacer estos procesamientos de información. Si uno repasa la historia, en los ’90 empezó la primera gran victoria de la IA que fue contra el ajedrez, con las máquinas de IBM. Ahí empezó y de a poco se fueron conquistando juegos de este tipo más complejos”.
Académicamente y desde el punto de vista de la ingeniería industrial, “la IA tiene una historia muy rica, esto empezó hace décadas, puede parecer mentira pero ya en los ’40 o ’50 había gente pensándolo y volcándolo a los algoritmos, con esos fundamentos se fueron desarrollando cada vez más y la tecnología de repente empezó a alcanzar la posibilidad de procesar toda la información y ejecutar el algoritmo de una forma razonable en tiempo, antes quizás hubiera tomado horas”.
Sobre la carta de Elon Musk y otros integrantes de corporaciones vinculadas a la industria tecnológica, Simari planteó que “es muy importante” y que el valor más grande es la difusión de que se necesita un “consenso para regular este tipo de sistemas, si lo dejamos libremente es muy peligroso”.
En ese camino se preguntó: “¿Por qué si estamos de acuerdo mundialmente cada vez que se desarrolla un medicamento en que eso no puede salir a la calle hasta que no este testeado y regulado, por qué con estas herramientas no vamos a hacer lo mismo?”.
El debate sobre la regulación no surge del documento difundido por empresarios. Hace años hay gente que postula cuestiones de ética, incluso plantean pruebas que se le pueden hacer a los sistemas a ver si exhiben sesgos. “Es claro que las empresas tienen un objetivo de no blanquear porque es su ventaja competitiva respecto a otros”, analizó Simari.
Otras discusiones incluyen la utilización de los datos, el derecho a la explicación ante una herramienta automatizada que está ayudando a tomar algún tipo de decisión -esto se aplica en Europa, por ejemplo-. Es decir, si una institución utiliza un algoritmo como herramienta en la cotidianeidad y eso repercute en una determinación las personas pueden apelar y acceder al derecho a una aclaración de por qué se definió lo que se definió. Un caso podría ser, que se de o no un préstamo dinerario a alguien que lo solicita en un banco.