El avance de la Inteligencia Artificial

Por Redacción IDL

El docente de la Tecnicatura en Inteligencia Artificial de la UNR Juan Pablo Manson analiza los modelos de IA y su salto evolutivo. Respecto de la preocupación que comienza a manifestarse en relación al reemplazo del hombre por la IA, el especialista sostuvo: “Muchos trabajos pasarán primero por esta etapa de potenciación y luego a una de desplazamiento o reubicación porque estos sistemas siguen avanzando”.

Juan Pablo Manson investiga acerca de la inteligencia artificial y las interfaces cerebro-computadora; es parte del equipo de desarrollo de una silla de ruedas inteligente controlada por el pensamiento humano, fue presidente del Polo Tecnológico Rosario y, en la actualidad, es docente de la Tecnicatura en Inteligencia Artificial de la Universidad Nacional de Rosario.

La inteligencia artificial es un campo de estudio y desarrollo de sistemas capaces de realizar tareas que normalmente requerirían de la inteligencia humana. En este campo se desarrollan los “modelos de IA”, que pueden definirse como conjuntos compuestos por softwarebase de datoslógica y redes neuronales, según expresa el investigador y aclara que, básicamente, toman una información de entrada y se espera que arrojen una predicción, una clasificación o se genere información a partir de lo que sabe hacer cada modelo.

El concepto, que nace en los años ‘50, fue pasando por distintas líneas de investigación. Tiene una rama de estudio más tradicional, la “IA simbólica”, que tiene que ver con algoritmos, lógica, y técnicas de búsqueda que vienen de hace mucho tiempo y se aplican hasta el día de hoy. Otro campo, que es el que más creció en los últimos diez años, es el de redes neuronales, la “IA conexionista”, que se basa en modelos que están inspirados en la biología humana.

En la IA simbólica, los resultados son previsibles y puede explicarse por qué un sistema llega a una determinada conclusión. “Eso no pasa con las redes neuronales que tienen una cierta mística o magia porque, una vez que fueron entrenadas, los resultados no son tan explicables”, dice Manson y reconoce que esa es una de las principales críticas, pero, a la vez, es la línea que está provocando más resultados disruptivos.

Redes profundas

Desde 2010 en adelante “hay un salto evolutivo que son las redes profundas, gracias al hardware, que permitió que puedan utilizarse esos modelos porque requiere de muchos cómputos. Las llamadas GPU (unidad de procesamiento gráfico) que son las placas de video principalmente orientadas a videojuegos, empezaron a utilizarse en ambientes científicos”, expresa.

Eso permitió que haya sistemas con cámaras que puedan analizar y sacar conclusiones a partir de una imagen. Por ejemplo, detectar objetos, en qué posición están ubicados, su contorno, reconocer las caras o sus puntos clave y, por ejemplo, saber si está sonriendo, si está triste.

En 2017 aparecen los grandes modelos de lenguaje, producto de que podían entrenarse con estos servidores basados en GPU y surge un escalón llamado “transformers”, que es otra arquitectura de redes neuronales. “Todas estas líneas se van apoyando sobre el trabajo anterior, como una pared a la que se le van agregando ladrillos”, explica el profesor a Argentina Investiga.

Donde más crecieron estos transformers fue en el ámbito de procesamiento del lenguaje natural. “Puede pensarse como si fuera el predictivo de un celular donde escribimos una palabra y nos sugiere la que sigue. Pero estos sistemas evolucionan tanto que, en vez de decir una palabra, ofrecen las próximas 200”.

Eso permitió que se genere un diálogo natural, a tal punto que es muy difícil poder darse cuenta de si del otro lado hay una persona o una máquina contestando. Manson mencionó que Alan Turing fue uno de los pioneros al crear el test de Turing, una herramienta de evaluación de la capacidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano, o indistinguible de este. “Eso está logrado”, sentenció.

Cabe destacar que estos sistemas fueron entrenados con muchos textos: wikipedia, blogs, foros, sitios de noticias, enciclopedias, papers, códigos fuente de computadoras. Entonces, son capaces de entender el lenguaje humano y hasta de encontrar determinados comportamientos o patrones de razonamiento que están implícitos en el texto y en la forma en que los humanos escriben. ¿Cuál es el resultado? Antes había que buscar al experto, ahora hay sistemas que parecen saber de todo y los tenemos al alcance de la mano. Eso es lo disruptivo.

Hombre y máquina

La preocupación que empieza a verse es el reemplazo del hombre por la máquina, especialmente desde diciembre pasado cuando apareció el chat GPT» data-toggle = «tooltip» title = «Prototipo de chabot de inteligencia artificial desarrollado en 2022 por OpenAI que se especializa en el diálogo. El chabot es un gran modelo de lenguaje, ajustado con técnicas de aprendizaje tanto supervisadas como de refuerzo.»>chat GPT. Aunque no es el único modelo y hay otras alternativas, incluso de código abierto. “Es muy rápido, reciente y nos está movilizando a todos”.

“Tenemos una herramienta nueva al alcance que incluso está corriendo de lugar al viejo buscador de Google porque da una respuesta más precisa”, dice el investigador y considera que una vez que se incorpora, no puede dejar de utilizarse. En este sentido, la ve como positiva para distintas áreas profesionales que pueden acceder a datos y estadísticas antes impensados. Pero, por otro lado, cree que muchos trabajos pasarán primero por esta etapa de “potenciación” y luego a una de desplazamiento o reubicación porque estos sistemas siguen avanzando. ¿Qué va a pasar cuando se le pida al sistema que desarrolle un software de tales características, donde se cargue información en un formulario, lo guarde en una base de datos y luego dé los resultados? ¿Qué pasará con los desarrolladores de software? “Se van a reubicar, seguramente encontrarán otros nichos. No soy tan drástico, no creo en el corrimiento de la noche a la mañana”, dice.

Sin embargo, reconoció que hay algunos trabajos más propensos a ser reemplazados. Por ejemplo, los traductores, los asesores de viajes, los telemarketers, todos los digitalizados o que requieran puramente del lenguaje. “Si se logra armar un chat que dé esas repuestas es probable que una compañía, por una cuestión de costos, decida automatizar esas labores”, afirma. Por el contrario, los que trabajan de forma manual, relacionado al pensamiento crítico, orientado a la ciencia, a la investigación o, por ejemplo, con pacientes de la tercera edad, por ahora no se verán afectados.

En cuanto a las consecuencias negativas que ya se avizoran es esa capacidad de generar que abarca textos, imágenes y videos cada vez más realistas. Se le puede pedir que cree una imagen, una foto realista y que una celebridad como el Papa Francisco aparezca con determinada vestimenta. “Es muy difícil para el ojo humano y para los sistemas que intentan detectar estas situaciones diferenciar lo creado artificialmente de lo natural”.

El investigador afirma que eso representa un peligro porque cualquiera podría generar un contenido falso a través de un video, foto, noticia, blog y además ser viralizado rápidamente. “El problema es que va tan rápido que no da tiempo a establecer las reglas del juego. Ahí es donde se deberían abrir las discusiones y ver en cada ámbito cuál es el tratamiento que se le va a dar, en el gobierno, en las empresas, en la vida personal”, propone.

Tecnicatura Universitaria en inteligencia artificial

La Universidad Nacional de Rosario, a través de la Facultad de Ciencias Exactas, Ingeniería y Agrimensura y el Polo Tecnológico Rosario, sumó –en 2022– una nueva carrera de pregrado: la primera Tecnicatura Universitaria en Inteligencia Artificial que se dicta en una universidad pública del país.

La intención es dar un panorama general de la inteligencia artificial “con el desafío de estar surfeando la ola, que está cambiando de tamaño y hace que los contenidos tengan que modificarse de un año a otro y, quizás, de un mes a otro”, dice el docente sobre este desafío. “La idea es que los alumnos puedan lograr una aplicación concreta de la tecnología en los ambientes laborales”, afirma. Las cuestiones éticas también son parte del contenido: cómo tratar datos, las consecuencias, el impacto de lo que pueden provocar en lo que estén desarrollando. “Apuntamos a que los estudiantes conozcan y entiendan lo que se puede hacer con las computadoras y el impacto de su aplicación, porque todo esto está cargado de mucha ciencia ficción”, concluye.

Fuente: Argentina Investiga

Related Posts