Redes

Inteligencia Artificial: oportunidades y riesgos de la tecnología que está cambiando el mundo

José Ignacio Orlando es Doctor en Matemática Computacional e Ingeniero de Sistemas, investigador adjunto del CONICET en la Universidad del Centro, integra el equipo de PLADEMA espacio de investigación que participa en diversos proyectos para aplicar elementos de simulación computacional y modelos matemáticos para resolver problemas reales en áreas como industria, medicina, agricultura, entretenimiento, energía, hidrología, […]

José Ignacio Orlando es Doctor en Matemática Computacional e Ingeniero de Sistemas, investigador adjunto del CONICET en la Universidad del Centro, integra el equipo de PLADEMA espacio de investigación que participa en diversos proyectos para aplicar elementos de simulación computacional y modelos matemáticos para resolver problemas reales en áreas como industria, medicina, agricultura, entretenimiento, energía, hidrología, optimización de procesos, etc.

Dentro de Pladema, específicamente Orlando es líder de proyecto en Yatiris, un grupo dedicado a la  investigación en inteligencia artificial y simulación aplicada a problemas médicos. 

En diálogo con Palabras el especialista en IA nos cuenta sobre los avances de su aplicación  en el ámbito de la salud, la mirada de la comunidad médica sobre la herramienta, y centralmente nos ofrece su opinión en torno a los debates que hoy interpelan a las sociedades frente a una tecnología que promete cambiarlo todo.

Contanos en qué trabajás

Desde que empecé a hacer investigación en inteligencia artificial aplicada a la medicina puse el foco fundamentalmente en el análisis de imágenes médicas. Trabajo centralmente en oftalmología, que es el área en la que hice mi doctorado, mi postdoctorado, y donde estoy trabajando ahora, pero también colaboro en otras líneas de investigación que tienen que ver con análisis de imágenes médicas de otras regiones del cuerpo, como neuroimagen, resonancias magnéticas cerebrales, tomografías computadas, ultrasonido, las famosas ecografías, y también con datos clínicos que no necesariamente son imágenes.

Lo que resolvemos con inteligencia artificial son algunos problemas que tienen los médicos que hoy por hoy no tienen solución, automatizando algunos procesos. 

Para poder mejorar la investigación básica, por ejemplo, los ayudamos a detectar qué imágenes tienen determinada característica que están buscando, para que mediante un estudio estadístico puedan concluir si las poblaciones con esas características son más susceptibles a determinada enfermedad.

Para entrenamiento médico, en tanto, en nuestro laboratorio desarrollamos un simulador de ecografías, que le permite al médico aprender a tomar una ecografía sin necesidad de tener un ecógrafo en el lugar.  Para eso lo que usamos es los mismos algoritmos generativos que se usan para generar imágenes artificiales tipo DALL-E, la que crea imágenes a partir de frases escritas, el mismo tipo de algoritmos que nosotros aplicamos para producir ecografías de la nada. 

También trabajamos en asistencia al diagnóstico, ya que hay muchas enfermedades que son difíciles de diagnosticar y donde al automatizar determinados procesos le podemos dar guías o herramientas a los médicos para que puedan hacer mejores diagnósticos. 

¿Enfermedades raras? 

Sí, pero también muchas que son archi recontra conocidas, pero que para hacer un diagnóstico el proceso es muy complejo, o donde vos precisás reasignar el recurso humano. No podés tener al médico analizando miles y miles de imágenes si ese mismo médico también tiene que tratar a otro paciente. Es preferible que el médico haga lo que la compu no puede hacer, y el análisis de las imágenes lo podés automatizar con inteligencia artificial.

Luego, tenemos un proyecto que se llama Retinar, donde estamos desarrollando una plataforma para hacer telemedicina asistida por inteligencia artificial para detectar enfermedades visuales, en particular la retinopatía diabética, que es una de las principales causas de ceguera en adultos.

 

¿Cuál es la mirada de los médicos y los trabajadores de la salud en general respecto a la aplicación de IA en su trabajo?

En medicina tenemos dos escuelas: los que están paranoicos y que creen que la IA los va a reemplazar, y la gente que lo interpreta como una herramienta que viene a empoderarlos, que viene a automatizar esas tareas que a ellos no les gusta hacer, que en realidad va a ser una herramienta transformativa. 

El año pasado estuvimos en el Congreso Argentino de Diagnóstico por Imagen, que es un congreso de médicos y radiólogos, y la Sociedad Argentina de Radiología tenía un track específico en el congreso sobre inteligencia artificial, y la actitud de los radiólogos no era “la inteligencia artificial me va a dejar sin trabajo”, sino “la inteligencia artificial me va a ayudar a que mis diagnósticos sean más certeros, a que yo la pifie menos, a que pueda procesar un mayor número de pacientes en una menor cantidad de tiempo”.

¿Crees que esa segunda mirada se puede extrapolar a campos de aplicación fuera de la medicina, cómo las industrias creativas por ejemplo? 

Hay que entender que no estamos en el vértice de la aparición de Terminator, son modelos que nos están dando una ayuda bárbara para resolver un montón de cosas y que están aprendiendo muchos patrones. 

Hoy con la inteligencia artificial generativa, con ChatGPT por ejemplo, estamos viendo cosas que creíamos que eran imposibles, pero al mismo tiempo tenemos que ser conscientes de que estos algoritmos no están razonando. 

ChatGPT, en inglés es stochastic parrot, un loro estocástico, una máquina que está entrenada para decir las cosas de una forma que a nosotros nos parezca que tiene razonamiento por detrás, pero en realidad lo que está pasando es que sabe la distribución de probabilidades que siguen las palabras y trata de poner palabras en el orden que “sabe” que a nosotros nos va a gustar. 

El algoritmo fue entrenado para reproducir, saber no sabe nada, no hace ningún tipo de razonamiento,  eso es importante tenerlo en cuenta, porque ante esta paranoia de que la IA nos va a reemplazar, tenemos que entender que en esos procesos cognitivos en los que se necesita razonamiento, la IA se queda corta, y se va a seguir quedando corta hasta que no haya un nuevo descubrimiento superador a la IA generativa que nosotros estamos aplicando ahora. 

¿No hay riesgos entonces?

En términos de trabajo el riesgo de la IA lo veo respecto a esas tareas que son tan tediosas y tan monótonas que se pueden modelar computacionalmente y que una IA las puede reproducir. 

Por ejemplo, uno de los puntos donde se está observando una mayor incorporación de IA es todo lo que tiene que ver con servicios de atención al cliente. Se está viendo que con un chatbot, de estos como ChatGPT, pueden responder la gran mayoría de las dudas de las personas sin necesidad de tener que conectarlas con otro humano. Eso, indefectiblemente, va a tener un efecto sobre el trabajo, y va a hacer que esos puestos de trabajo particulares se pierdan. Pero al mismo tiempo que se van a perder esos trabajos se van a generar otros de mayor calidad.

A mí, como alguien que hace IA, me interesa sobre todo militar que esto se tiene que convertir en una forma de que nosotros trabajemos menos. En el famoso debate internacional por las seis horas de trabajo diarias, me parece que con el surgimiento de la IA aparece un argumento más para poner sobre la mesa. 

Aparece una herramienta que nos tiene que permitir ser más eficientes en la forma en la que hacemos el trabajo, no para que esa eficiencia se la lleven las grandes corporaciones que nos emplean, sino para que pasemos más tiempo con nuestras familias y con nuestros amigos, y si querés, que nos permita consumir más, 

Suena un tanto utópico tomando en cuenta que estos desarrollos, en general, vienen de la mano de grandes corporaciones por las inversiones que requieren   

Puede ser, pero insisto, el aspecto filosófico subyacente tiene que ser que nosotros, que nos vamos a morir, necesitamos pasar más tiempo con nuestros seres queridos que contestando consultas en un call center,

En materia de riesgos podemos analizar cuatro ejes. Tenemos por un lado todo lo que comentábamos recién ¿quién se va a llevar la porción de la torta extra de productividad que se genera a partir de la IA? 

Ahí estamos viendo puntos en contra, por ejemplo, todas las manifestaciones que ocurrieron en Estados Unidos de los guionistas porque Hollywood les quería pagar menos porque apareció el chat GPT.  Eso se puede trasladar a un montón de  campos en los que los dueños de la plata no saben qué trabajo hacen sus empleados, dónde está la creatividad, el esfuerzo, y creen que con una automatización, con inteligencia artificial eso se puede reemplazar. 

Otro riesgo importante tiene que ver con los sesgos. Los modelos de inteligencia artificial están entrenados con datos que generaron los humanos, y los humanos tenemos sesgos, discriminamos, somos racistas, somos xenófobos, somos homofóbicos, misóginos, y todas esas características que tenemos como sociedad en el ámbito digital están pronunciadas, porque como no damos la cara, podemos decir cualquier cosa. Justamente esos datos que están en internet son los que se usan para alimentar estos algoritmos y para entrenarlos. 

Entonces, estamos ante la presencia de modelos que profundizan esas discriminaciones y esas diferencias, o que las van a tener implícitas y van a conservar el estatus quo. Hoy hay muchísima investigación para tratar de lograr direccionar la inteligencia artificial y no cometer esos errores.

Hay un tercer riesgo que es el ambiental. Todos estos algoritmos de inteligencia artificial están entrenados durante meses en enormes servidores que necesitan una enorme cantidad de energía, y esa energía hoy por hoy se produce con combustibles fósiles, y eso tiene una huella de carbono. Es importante que eso forme parte de la ecuación al momento de analizar la inteligencia artificial.

Luego hay un cuarto punto que es quiénes son los dueños de la inteligencia artificial. Hoy por hoy, modelos como ChatGPT, muy pocas empresas son capaces de producirlos, y de vuelta, si están puestos detrás de una barrera de pago, entonces muy pocas personas tienen acceso a eso y no podemos innovar, no podemos llevar esas soluciones a los lugares en que las necesitamos. 

Me imagino que eso también se reproduce geográficamente 

Exacto. Esas mismas asimetrías que nosotros vemos respecto a las grandes corporaciones contra las pequeñas se profundizan aún más cuando hablamos de las grandes corporaciones del norte global respecto a los países latinoamericanos, de África o de la Asia profunda, que no cuentan con los recursos para poder montar todas las estructuras que estas grandes corporaciones tienen. 

Hay esfuerzos que se están haciendo por parte de estas corporaciones, que a veces no se sabe si no es por una cuestión de responsabilidad empresaria y comercial, y no por una cuestión de altruismo, pero que tiene que ver con toda la filosofía open source, toda la filosofía de abrir los algoritmos y mostrarlos, y que la gente los pueda editar, que es un punto importante, pero la realidad es que siempre tenemos el mismo cuello de botella, que es el poder de cómputo y la falta de acceso a financiamiento, que en países como el nuestro limita el tipo de cosas que podemos hacer con inteligencia artificial.

Si la inteligencia artificial tiene tantos riesgos ¿cómo podemos mitigarlos como sociedad? 

Ahí el rol del Estado es fundamental. Estados Unidos hace poco emitió un executive order, que es como si fuera un decreto, donde básicamente establece los lineamientos regulatorios para la inteligencia artificial. Pero vos fíjate que llega un año después de la aparición del chat GPT, que ya ha revolucionado todo y no es de cumplimiento obligatorio.  Son regulaciones que llegan tarde, que son imprecisas, y la inteligencia artificial nos corre la vara todo el tiempo. Todo el tiempo aparecen algoritmos nuevos que son capaces de hacer cosas que antes pensábamos que no se podían.

¿Cómo hacemos para ponernos a tiro? 

Bueno, ahí hay una gran responsabilidad que se ata al tercer eje, que es el de la investigación y el desarrollo. Nosotros necesitamos como sociedad que todo lo que tiene que ver con la investigación científica esté puesta al servicio de los estados, en este caso, para poder regular estas áreas. Hay muchas personas que piensan en las regulaciones como prohibiciones que dañan la innovación. Yo prefiero pensar que son como caminos para recorrer. 

Sin regulaciones yo tengo el universo para innovar, con regulaciones yo tengo caminos para recorrer. ¿Hacia dónde? Hacia dónde los estados determinen que es importante que vayamos. Ahí hay un montón de aspectos que tienen que ver más con las ciencias sociales y que escapan a mis habilidades como científico, pero yo siempre propongo: trabajemos menos. 

Vivimos en una sociedad en la que estamos automatizados como seres humanos, repitiendo tareas rutinarias todo el tiempo y perdiendo valiosísimo tiempo para estar con nuestros hijos, con nuestras parejas, con nuestras familias. Veamos si no podemos empujar y diseñar las políticas regulatorias para que nos lleven hacia esa dirección. Hacia la dirección de que el trabajo que hagamos sea un trabajo más creativo, que nos haga felices y nos permita trabajar menos horas, más eficientemente para estar más tiempo con nuestra familia.