Por Juana Francisca Gómez (*)
Hoy conversamos con la Ingeniera Alaia Rosá para conocer el trabajo que se viene desarrollando sobre Inteligencia Artificial en la Universidad de la República. El tema comprende múltiples dimensiones, respecto a una materialidad, unas significancias a nivel social, de salud, ambientales, políticas, y otras tantas que para aproximarnos a una caracterización se hace necesario abordar el tema desde distintos puntos de vista. Por aquí empezamos.
Mate Amargo – ¿Qué hace el área en que vos trabajas?
Alaia Rosá – Ésta es un área, es un grupo de investigación que trabaja desde hace más de 30 años, en procesamiento de texto, procesamiento de lenguaje natural, también incluye otras cosas como, por ejemplo, convertir voz a texto y después hacer algún procesamiento. Nosotros, en general, venimos trabajando siempre con texto escrito. Trabajamos mucho con cosas escritas en español. Para nosotros siempre fue importante aportar al desarrollo de ésta área para el idioma español. También hemos trabajado bastante para el inglés, también en algunas épocas para el francés y en los últimos años también para el guaraní, que es un idioma para el que hay muy poquito desarrollo. Un compañero de nuestro grupo empezó una línea de generación de recursos para procesar texto en guaraní.
Para explicar, un poco, qué es el área, hoy en día hay un ejemplo clarísimo que todos conocen, las herramientas como ChatGPT. Todo lo que implica que una computadora interactúe con personas usando el lenguaje humano. Vos le escribís lo que quieras, como hablarías con cualquier persona, y te empieza a responder, escribiéndote también con el mismo idioma que vos le escribiste. Todo eso es como el desenlace, de años y años de investigación en esta área que es el procesamiento del lenguaje natural.

Para llegar hasta ahí pasaron muchos años de un montón de cosas, y te diría que hasta hace no tanto tiempo, porque hasta hace 10 años todavía era difícil imaginarse un chat que interactuara así con una persona, de esa manera tan fluida como lo hacen ahora estos agentes conversacionales como ChatGPT, Gemini, etc. Herramientas que, más o menos, todos conocemos. Por ejemplo, cuando escribís un texto en el celular, el corrector que te va corrigiendo o el predictor que te va sugiriendo palabras para ir completando tu texto, todo eso también es parte de nuestra área de procesamiento del lenguaje natural, los traductores automáticos, también los sistemas de búsquedas como el buscador de Google, también en realidad está haciendo procesamiento del lenguaje porque en general uno hace una consulta y lo que hace ese buscador es buscar documentos escritos en algún idioma, en inglés, en español, lo que sea, que tengan que ver con tu consulta. Entonces también estos buscadores tienen que analizar el texto, entender alguna cosa del texto para poder funcionar, más o menos son como las grandes herramientas que casi todos conocemos hoy en día.

Fotografía facultad de ingeniería
M.A. – ¿El Instituto desarrolla esas herramientas o las investiga?
A.R. – Nosotros desarrollamos herramientas. Por ejemplo cuando este compañero empieza a trabajar con el Guaraní, el traductor de Google no tenía la opción Español-Guaraní, estamos hablando además de la época pre-ChatGPT, por decir algo que cambió bastante cómo se trabaja en el área. Al aparecer estos grandes modelos de lenguaje cambió un poco, de manera importante, pero hasta hace unos años no había traductor, entonces él empezó a investigar para crear un traductor. Primero crear otras cosas que se necesitan para poder construir un traductor y llegó a hacer algunas pruebas, experimentos de traducción entre Español-Guaraní y ahí, mientras iba trabajando.

Fotografía Facultad de ingenieria
De hecho lenguas como el Guaraní y otras lenguas que en esta área se suelen llamar lenguas de bajos recursos, en general lenguas con comunidades hablantes medio chicas, todavía las herramientas de estas no andan muy bien ya que son líneas en las que hay mucho por hacer.
Y después hemos desarrollado cosas como para problemas bastante más específicos, por ejemplo, una de las líneas de trabajo que tenemos es la aplicación de técnicas de procesamiento de lenguaje natural para la enseñanza de lengua, entonces hemos hecho una plataforma con actividades educativas, lúdicas, para enseñanza de inglés a niños escolares que están aprendiendo de nivel bien inicial y en esto venimos trabajando con el programa de políticas lingüísticas de ANEP, que es el que se está encargando de llevar la enseñanza de inglés a todo el país. Porque, bueno, el inglés es obligatorio en la escuela desde el cuarto año, desde hace ya unos cuantos años, pero la implementación de eso ha sido difícil porque no hay suficientes docentes de inglés. Se han buscado muchas formas de resolverlo, por ejemplo CEIBAL tiene un programa en inglés que colabora con la enseñanza con un método que es por videoconferencia, pero por ejemplo en algunas escuelas rurales esa forma de trabajar no se puede aplicar porque no hay suficiente conectividad. Políticas lingüísticas de ANEP están aplicando otros métodos, otros programas de enseñanza de inglés. Hay un proyecto que se llama Inglés sin Límites, que tiene como propósito llegar a las escuelas rurales. Nosotros estuvimos colaborando con ANEP, con esta plataforma poniendo un granito de arena, como para que las maestras que son las que están tratando de trabajar con el idioma inglés, tengan herramientas. Ahí usamos técnicas de procesamiento de lenguaje natural para hacer, por ejemplo, crucigramas, juegos de completarse, ordenar historias, actividades que son un texto y preguntas y respuestas sobre el texto que se generan automáticamente.
Son desarrollos que desde nuestro lado, como investigadores, son más que nada productos de investigación, que no siempre son un producto que queda en su estado final para ser usado por usuarios finales, porque nosotros no somos desarrolladores de software, somos investigadores. Son como líneas que permiten ir avanzando de a poco para lograr herramientas que se usen. También estamos trabajando en otra línea bastante vinculada que es la corrección de materiales escritos por estudiantes, en forma automática o en corrección o sugerencias para la escritura, para mejorar, para corregir errores, y estamos trabajando ahí con datos recolectados acá, de estudiantes del liceo, de Uruguay, que han escrito texto. Esto se realiza con los permisos de ANEP y con todo un protocolo aprobado por supuesto. También con nosotros trabajaron un montón de docentes, en corregir a mano un montón de textos. Con esos ejemplos corregidos a mano, es que después nosotros trabajamos con los métodos que hoy más se usan en esta área, que son los que se llaman aprendizaje automático, que son métodos que justamente vos le das muchos ejemplos, ya resueltos, y de ahí como que aprenden patrones, generalizan cosas, y aprenden y generan una herramienta que después corrige sobre ejemplos nuevos, replica de alguna manera lo mejor posible la tarea que hicieron los humanos.
En esa línea de enseñanza estamos haciendo unas cuantas cosas más.
Hace poco hablamos con una profesora de lengua, español, y el contacto vino a través de una lingüista de la Facultad de Humanidades que nos comentó que están interesados en trabajar con nosotros en corrección de textos, que están haciendo con estudiantes de liceo para diagnosticar ciertos grados de dificultad en la escritura.
Siempre estamos recibiendo un montón de necesidades, de demandas. Por ejemplo, otro trabajo que estamos haciendo, que lo hemos venido desarrollando en distintas líneas, pero ahora concretamente lo estamos llevando adelante en una tesis de doctorado, es algo que se llama lenguaje accesible o lengua fácil, que es como convertir, crear versiones de ciertos documentos en un lenguaje más accesible para personas que tienen dificultades de lectura. Y bueno, es un trabajo que también hay que hacerlo en forma automática, estamos trabajando con los grandes modelos de lenguaje, evaluando que también funcionan, comparando con otros ejemplos que han sido simplificados por personas para ver si la tarea que realizan los modelos es parecida a la que haría una persona.
Esto es muy interesante porque es, también, una forma de ayudar a la accesibilidad de la información, de gente que no puede leer un texto así como está, por ejemplo, un texto con información médica, generar materiales más legibles para personas con dificultades de lectura. Les permite tener acceso a esa información, acceso directo, y no que alguien se lo explique, lo puede leer, pero con una versión adaptada.

Fotografía publicada por Presidencia
M.A. – Algunos organismos internacionales de Salud están promoviendo la utilización de IA en los sistemas de salud. ¿En qué estamos trabajando acá sobre eso?
A.R. – Sí, eso es un área complejísima. Estamos empezando un proyecto ahora financiado por la ANII, para estudiar distintos aspectos de la inteligencia artificial aplicada al dominio médico. Este proyecto involucra a varios investigadores de nuestro Instituto de Computación, también investigadoras argentinas e investigadores de áreas médicas.
Nosotros trabajamos mucho de forma interdisciplinaria. Y ahora en este proyecto, con gente que viene del área médica, que conocen el dominio de aplicación de las cosas que queremos hacer nosotros. Y ese proyecto tiene todo un aspecto importantísimo que son los aspectos éticos del uso de las herramientas. En esa área, como en la enseñanza, hay que cuidar los datos y su confidencialidad. Entonces nosotros no podemos usar los grandes modelos de lenguaje que ofrecen las grandes compañías que te dan el servicio para usar sus modelos, porque eso implicaría mandar nuestros datos a servicios externos, y eso muchas veces no se puede hacer por restricciones de confidencialidad, de resguardo de información sensible. Hay que desarrollar modelos, nosotros, lograr desarrollar buenos modelos para nuestros datos, que los podamos ejecutar en nuestras máquinas. Los resultados siempre van a ser peores porque no tenemos suficiente poder de cómputo como tienen esas grandes compañías que han desarrollado grandes sistemas.
Es impresionante lo que habría que invertir en recursos para poder lograr modelos con las capacidades que tienen esos enormes modelos, pero igual se pueden hacer cosas.
Entonces hay que generar herramientas propias que se puedan desarrollar acá y que después se puedan usar acá, porque a veces se desarrollan herramientas basadas en modelos que se venden muy bien, pero después para ejecutarlas y usarlas, necesitas muy buenas máquinas. El usuario final para el cual estás trabajando tiene que poder tener esas máquinas que se necesitan para que esa herramienta funcione.
Nosotros no vamos nunca a desarrollar Gemini, ni Cloud, ni chatGPT, pero cuando vos te enfocas en algún problema específico, en un dominio determinado, algún lenguaje específico que se usa, podés hacer cosas mucho más chicas, bien adaptadas a tu problema, que andan bastante bien igual. No podemos tener un gran modelo que entienda todo y que sirva para todo con los recursos que tenemos, pero cosas mucho más chicas, adaptadas, especializadas, en alguna tarea, sí se pueden hacer y se pueden lograr buenos resultados.

Fotografía publicada por Presidencia
Otra cosa, que es fundamental, es que se está empezando a invertir en infraestructura, máquinas y lo que se necesita para trabajar con estas dimensiones. Por ejemplo, Antel, firmó hace poquito un convenio con la Facultad de Ingeniería, porque están haciendo una compra importante de máquinas, de algo que se llama GPUs, que son tarjetas gráficas, que es el tipo de cosa que se necesita para entrenar los modelos grandes, y van a hacer una compra importante de infraestructura y el convenio con la Facultad de Ingeniería para asesorarnos en cómo usar esa infraestructura, cómo explotarla de la mejor manera posible, también para que nosotros podamos usar esa infraestructura, somos como los primeros interesados en que eso exista y en poder usarlo. Es una decisión del país invertir en eso y empezar a desarrollar cosas. Tenemos mucho potencial, porque investigar en estas áreas es algo que el Grupo de Información de Ingeniería y muchos otros grupos que trabajan en Inteligencia Artificial vienen haciendo, también todos los métodos de organización automático, tenemos maestrías, especializaciones, posgrados, cursos de todo tipo, o sea que tenemos un montón de cosas previas hechas para poder trabajar y desarrollar cosas en el país.
M.A. – Este tema puede parecer muy lejano en la vida cotidiana de las personas…
A.R. – En la vida cotidiana pienso que hay muchas cosas como cuando cada uno de nosotros agarra el celular para escribir un mensaje, el celular te ayuda, uno ya lo incorporó y no se da cuenta, pero te va ayudando, te corrige lo que te queda mal, los buscadores pueden ser como súper prácticos para ir resolviendo cosas del día a día. Hay que tener cuidado también, porque no es lo mismo cuando Google te dice, estas son las páginas web que hablan de lo que me estás preguntando, y vos vas a la página web y lees lo que dice, que la respuesta que te genera un chatbot de estos en forma automática, que no siempre es confiable. Esto es porque no están consultando siempre datos reales, a veces están generando cosas en base a cálculos estadísticos, entonces sí hay riesgos.
Hay patrones que aprendió sobre cómo se van enganchando las palabras unas con otras, porque básicamente eso es lo que aprenden, cómo continuar un texto, y lo que saben hacer es continuar ese proceso e ir agregando palabras, una tras de otra. Como vieron muchísimo texto con información de todo tipo, terminan aprendiendo información, información factual, digamos, cosas, hechos, datos, pero no necesariamente están chequeando que te están dando datos verdaderos.
Hay un montón de ejemplos al día de hoy. Un chat GPT en su versión más nueva, que a veces le contás algo muy específico de Uruguay y te responde algo que parece súper, que parece muy confiable, porque escribe muy bien y arma una respuesta perfecta, pero los datos que te está poniendo ahí son falsos. Inventa nombres, inventa lugares, inventa información.
M.A. – Es compleja la incorporación de estas herramientas en el aula…
A.R. – Claro, hay que aprender a incorporarlas. Hay que aprender a usarlas y bien, y cuando corresponde, porque también pasa que hay cursos en los que uno está enseñando cosas y que espera que la evaluación el estudiante la haga solo, por la razón que sea, sin usar esas herramientas. Es importante que el estudiante sepa cuando no tiene que usar nada.
Hay otros cursos en los que sí está bueno enseñarles a usar las herramientas, usarlas y usarlas bien, obtener buenos resultados y entregar trabajos muy bien hechos.
En la industria está cambiando un montón toda la forma de trabajo, la gente que necesitan contratar, qué habilidades necesita la gente para trabajar, y para nosotros que enseñamos a programar y desarrollar software y todo eso, nos está -también- generando todo un problema.
¿Qué les tenemos que enseñar hoy en día a los estudiantes?, ¿podemos seguir enseñando lo mismo de siempre? Sí, seguimos todavía convencidos de que tienen que aprender a programar ellos mismos primero que nada. Después, ver cómo enseñarles a usar herramientas automatizadas. Te iba a comentar que en la Facultad de Ingeniería, hace poquito, se terminó de aprobar una Guía de Uso de Inteligencia Artificial en los cursos, que es una guía que se elaboró en una comisión del Claustro de la Facultad y la aprobó el Claustro. Es una ayuda a los docentes para ver qué transmitir en sus cursos sobre el uso de las herramientas de inteligencia artificial.
M.A. – ¿Cuál es el grado de soberanía que podemos aspirar en estas áreas?
A.R. – El país está invirtiendo en infraestructura, eso va a ayudar un montón a que podamos tener desarrollos propios. Por ejemplo, la Facultad de Ingeniería tiene el Cluster UI, que tiene muy buenas máquinas y GPUs para poder trabajar bastante bien. Pero seguimos a kilómetros de años luz de lo que realmente se necesita para los grandes modelos.
Posibilidades hay un montón, o sea, tenemos herramientas de conocimiento y si además vamos a tener mejor infraestructura, mucho mejor para trabajar en desarrollo de herramientas soberanas, con datos nuestros, sin tener que mandar nuestros datos e información a otros lados. Datos nuestros me refiero, por ejemplo, a la información de los pacientes en el hospital, o los trabajos que hacen los niños en una escuela en nuestro país. Otra línea importante de trabajo que tenemos es el procesamiento de los archivos militares del pasado reciente, y como son unos cuantos de la Facultad de Ingeniería y también de otras facultades. Ahí siempre estamos con el tema de cuidar la confidencialidad de los datos, porque la UDELAR se comprometió cuando recibió los archivos a cuidar esa información. En el marco de estos proyectos tenemos que cuidarlos. Tenemos que desarrollar herramientas que funcionen lo mejor posible, que no son igual de buenas que otras que están disponibles en servicios externos, pero nosotros estamos restringidos a desarrollar herramientas propias, en las que tengamos la llave.
Capacidad bien técnica tenemos, pero después que todos los que están como nosotros que somos ingenieros en computación, en eléctrico, en matemáticos, en lo que sea, que trabajamos en el desarrollo más dentro de estas cosas más técnicas, pero que nosotros hacia afuera, todos los que en distintos grados empiezan a usar y a incorporar estas herramientas, también tengan mucho mayor conocimiento de cómo son, cómo se usan, por qué funcionan bien o mal para ciertas cosas, porque hay que entender cómo son desarrolladas o algo de lo que hay ahí adentro. Entender para saber bien cómo usarlas, me parece fundamental también, hay que formar mucho más a todos los que están empezando a usar y trabajar con esas herramientas.
(*) Juana Francisca Gómez es escritora y miembro del Capítulo uruguayo de la Red de Intelectuales y Artistas en Defensa de la Humanidad (RedH)
Apuntes para seguir la rueda:
Alaia Rosá https://www.fing.edu.uy/es/node/40946
Trailer El Automata
https://www.youtube.com/watch?v=cOJDRHqKy-Q&list=PLJ3xYqUpphwSteZeEbwexq5cIR2 nsnpNJ
Fragmento película Yo, robot https://www.youtube.com/watch?v=pImO2G64BRM
Yo, robot de Isaac Asimov
https://terminus-biblio.frc.utn.edu.ar/read/43/epub#epubcfi(/6/2!/4/1:0)
Yo, robot de Isaac Asimov en audiolibro https://www.youtube.com/watch?v=Tntc7cBJjno
Guía sobre uso de la IA en los cursos
https://udelar.edu.uy/noticias/la-fing-crea-una-guia-sobre-el-uso-de-la-ia-en-los-cursos
Derribemos estereotipos https://www.youtube.com/watch?v=ancaL1G7Nis
Agencia Nacional de Investigación e Innovación https://anii.org.uy/
A computational framework for the analysis of the Uruguayan dictatorship archives. In Qurator 2021-Conference on Digital Curation Technologies, Berlin, Germany, 8-12 feb, page 1-15, 2021. Qurator 2021-Conference on Digital Curation Technologies. https://www.colibri.udelar.edu.uy/jspui/handle/20.500.12008/26651
Dirección de Políticas Lingüísticas de ANEP https://www.anep.edu.uy/codicen/politicas-linguisticas