Especialistas expusieron sobre el desarrollo de la IA en educación y comunicación

Publicado el: 7 junio, 2023 Última actualización: octubre 23, 2023

Se desarrolló el miércoles 31 de mayo con transmisión en vivo a través de YouTube

 

En un conversatorio titulado «El desarrollo de la Inteligencia Artificial y las transformaciones en educación y comunicación», Maia Numerosky y Enzo Ferrante, docentes, investigadores y especialistas en la temática, expusieron en el Auditorio de la FCEDU, con la moderación del docente e investigador Gonzalo Andrés (UNER-CONICET).

La decana de la FCEDU, Aixa Boeykens, introdujo la charla: «La intención es discutir, conocer, analizar a qué nos desafía la inteligencia artificial», expresó. Mientras el tema parece haber alcanzado un gran nivel de masividad y «como siempre, hay de un lado apocalípticos y del otro integrados –refiriéndose al clásico texto de Umberto Eco–, nos parece que el debate debería poder problematizar más allá de ese binarismo. Primero conocer y también pensar desde qué lugar podemos aportar desde la universidad a la construcción del conocimiento en torno a ésto, más precisamente, desde el campo y las carreras que aquí se desarrollan», destacó.

Numerosky es licenciada en Matemática Aplicada y docente en la Universidad de Buenos Aires, es programadora y trabaja con IA en una cooperativa de software. Por su parte, Enzo Ferrante es doctor en Informática, ingeniero de Sistemas, es investigador del CONICET en la Universidad Nacional del Litoral y trabaja en el Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (FICH-UNL). Ambos se refirieron a la importancia de sacar el tema de los espacios estrictamente técnicos y dar una discusión amplia.

La actividad fue organizada por el PID-UNER N° 3189 «Circulación, acceso y apropiación social del conocimiento científico y tecnológico: percepciones, prácticas y acciones de las comunidades científicas universitarias en Argentina», dirigido por Carina Cortassa y codirigido por Andrés Wursten.

 

«¿Pueden las máquinas pensar?»

La inteligencia artificial es un concepto amplio: parafraseando a Ferrante, se trata de algoritmos que realizan una tarea que requeriría de inteligencia humana. El investigador explicó que el campo fue desarrollado por Alan Turing en la década del 50, quien se considera uno de los padres de la informática. Dentro de ese gran campo, Ferrante trabaja en lo que se denomina aprendizaje automático, que «es una forma de llegar a la inteligencia artificial».

La palabra clave aquí es datos: «Los métodos de aprendizaje automático aprenden a partir de datos. Es decir, para usar métodos de aprendizaje automático vamos a necesitar una gran base de datos y por medio de modelos matemáticos, estadísticos, la computadora aprenderá a mapear imágenes», puntualizó, más precisamente, con un ejemplo sencillo: un algoritmo que está entrenado para detectar si en una imagen hay un perro o un gato. Ésto es lo que se conoce como paradigma de aprendizaje supervisado. «Justamente, el aprendizaje de la computadora está supervisado por un montón de datos y etiquetas», sintetizó.

Numerosky, por su parte, destacó que «los esquemas de inteligencia artificial, están muy incorporados en nuestra vida cotidiana hace bastantes años. El uso de IA no empezó con ChatGPT en 2022 ni en 2021». El público empezó a enumerar algunos de los más conocidos: textos predictivos, sistemas de recomendación, filtros de Instagram, por mencionar algunos. «Naturalizamos o tenemos muy incorporadas las funcionalidades de estos sistemas. Hay muchas cosas que fueron empeorando o moldeando nuestras experiencias sociales, como las cámaras de eco, que extreman las posiciones que teníamos y disminuyen nuestro contacto con personas que piensan diferente. Pero en general, fueron mejorando nuestra experiencia en Internet», resaltó.

Entonces, ¿por qué recién en 2023 el tema comienza a tener masividad? ¿Qué es lo novedoso?

Enzo Ferrante explicó que a medida avanza la computación y el hardware, se comenzaron a almacenar datos estructurados. A partir del año 2010 empezaron a usarse los llamados modelos de redes neuronales artificiales en las empresas de tecnología y, con esto, avanzó la investigación a pasos agigantados. «Durante todos estos años, la mayoría del desarrollo que se hizo fue lo que conocemos como modelos predictivos, modelos que miran datos, tratan de extraer patrones y en las similitudes, predicen. De tres, cuatro años para acá, hubo grandes avances en los modelos generativos. Éstos no tratan solamente de hacer una predicción, sino que generan datos que tengan sentido. Que una computadora pueda generar una imagen que tenga sentido, no es simple. Por eso se tardó tanto en llegar a tener los modelos que tenemos hoy día. Y eso es lo que nos hace estar sentados acá y charlar sobre el uso que podemos darle», resumió.

Modelos predictivos, modelos generativos. ¿Pueden pensar? ¿Son inteligentes? «No son perfectos ni los predictivos ni los generativos. Algo con lo que estos sistemas todavía no pueden lidiar es con el sentido común, la ironía, los tonos, todo esto es muy difícil de codificar a través de reglas lógicas», argumentó Maia Numerosky.

Aquí aparecen al menos dos posturas, que la docente y programadora, detalló: por un lado, está Geoffrey Hinton, una personalidad importante dentro del campo, que fue laureado en su momento con el Premio Turing y que dejó la empresa Google recientemente, quien asegura que sí son inteligentes; por otro lado, enconttramos otros teóricos como Noam Chomsky, quien argumenta que los sistemas de aprendizaje profundo aprenden con muchos datos, encontrando patrones y, por el contrario, la mente aprende con pocos datos y buscando explicaciones. «En mi opinión, estos tipos de sistemas nos hacen volver a preguntarnos qué es el conocimiento, qué es la inteligencia y cómo funcionan. Y eso resultó ser mucho más difícil de lo que pensábamos y no necesariamente es codificable por un sistema de estas características», respondió Numerosky.

Ferrante, a su vez, opinó: «Estos sistemas no tienen una noción del mundo. Entonces para usar ChatGPT tenemos que saber sus limitaciones. No es Google, que hace una búsqueda y te muestra de dónde saca la información; sino que fue entrenado durante mucho tiempo por grandes centros de cómputos, almacenó su propia base de datos y genera la respuesta más probable. Mucha gente lo usa como si fuera un oráculo y no lo es«.

 

Sesgos algorítmicos

Prejuicio cifrado es el título de un documental que puede verse en Netflix donde la investigadora del MIT,  Joy Buolamwini, visibiliza el racismo de los sistemas de reconocimiento facial: en la investigación encontraron que estos modelos funcionan en hombres blancos, pero en mujeres negras tienen una altísima tasa de error. ¿Por qué? Porque cuando se entrenaron, los hombres blancos estaban sobrerrepresentados.

Enzo Ferrante, quien se dedica a la investigación de este tema, explicó: «Los modelos predictivos o generativos aprenden de datos y esas bases de datos tienen representado un determinado recorte de la realidad. Es muy probable que las predicciones que hagan los sistemas sean buenas en aquellos usuarios o datos parecidos a los que vieron en el entrenamiento». En este sentido, tanto Ferrante como Numerosky insistieron en algo fundamental: no olvidar que somos humanos quienes desarrollamos estos sistemas.

«Si los grupos de desarrollo están formados por varones blancos cis es muy probable que esos sistemas tengan esos mismos sesgos», resumió Ferrante, que además resaltó la importancia de trabajar en la cuestión de género en el campo.

Numerosky hizo hincapié en la importancia de pensar este tema, y continuar investigándolo, en función de las políticas públicas: «Tenemos que discutir también y bastante más cómo son los productos en los que están desplegados estos algoritmos. Además de auditarlos, que es difícil, tenemos el tema de los datos. No hay ningún algoritmo que te salve de tener una base de datos de mala calidad. La solución no es algorítmica sino de recolección de datos y de política pública para obtener datos de toda la población y que esté mejor representada en la política pública».

 

Volver a preguntarnos qué es el conocimiento

El ChatGPT irrumpió en el campo educativo de manera sorpresiva. «Como docente me representa un desafío grande, porque uno de los métodos de evaluación que usaba, es muy probable que el chat lo resuelva bien. La solución más rápida es usar el aula en vez del trabajo en domicilio, y que no puedan usar celulares. Pero puede haber otras más creativas», introdujo Ferrante. A fines de los 90 apareció la enciclopedia Encarta, después llegaría la explosión de Internet y la Wikipedia, sin embargo, «este tipo de tecnologías son un poco más disruptivas porque no son sólo enciclopedias sino que pueden vincular conceptos; y si el sistema lo hace mal, lo podés corregir y toma en cuenta ese feedback. Otra vez, tenemos más preguntas que respuestas», insistió el investigador.

En este sentido, Maia Numerosky volvió sobre la concepción de enseñanza: «Lo primero que deberíamos pensar cuando nos sentamos a planificar es qué quiero que aprendan y no cómo quiero evaluarlos o qué les quiero enseñar. Pero, a veces, se piensa primero en la evaluación y después en qué quiero que el alumno aprenda. Yo me formé en enseñanza en la matemática y hasta hace poco tiempo estaba el foco en enseñar cómo hacer cuentas, después dejó de tener sentido con la aparición de calculadora cada vez más complejas y se empezó a pensar en la resolución de problemas. Me parece que tenemos que volver a preguntarnos qué quiero que el alumno aprenda dado que existe la calculadora, Google y ChatGPT».

Allí aparecen desafíos como enseñar a preguntarle a ChatGPT, así como a filtrar las respuestas y chequearlas. Asimismo, recobra un valor fundamental la capacidad de preguntar, que en las palabras de Numerosky, es la mitad de la resolución de un problema.

Para terminar, los especialistas se refirieron a las posibilidades de regulación de estos sistemas ante peligros como la creación de fake news, así como a la cuestión de la huella ambiental que genera este tipo de desarrollo. «La primera conversación que tenemos que tener es para qué queremos estas tecnologías. Entrenarlos requiere muchísimos recursos, al punto tal que para una universidad argentina es imposible poder entrenarlos; con el consecuente impacto ambiental que tiene. Pero, ¿queremos que nos ayuden en la detección de ciertos patrones en imágenes médicas? ¿En predicción de áreas incendiadas en los humedales del Delta? ¿O queremos que nos ayuden a publicitar cada vez mejor? Lo que plantean algunos especialistas en políticas públicas es que se deberían armar consorcios de universidades y centros de investigación a lo largo del mundo que puedan poner en común tiempo, dinero e investigadores e investigadoras al servicio de un problema más grande para la humanidad, por ejemplo, la salud, que una sola institución no lo podría resolver», explicó Maia Numerosky.

 

 

Especialistas expusieron sobre el desarrollo de la IA en educación y comunicación
Deslizar arriba
Skip to content