Patricia Möller Acuña, biotecnóloga: «Mucha gente trabaja en la IA, pero nos hacen creer que funciona sola»

La especialista en inteligencia artificial dice que para mantener herramientas como ChatGPT se necesitan miles de trabajadores. "Pero saber eso le quita épica".

La investigadora Patricia Möller Acuña, especialista en IA de la Universidad Autónoma.

Agranda texto:

Aparte de las terribles guerras, las temperaturas extremas y el estreno de Barbie —aunque quizá por esto último no—, el 2023 será recordado por la irrupción definitiva de la inteligencia artificial (IA).

A mediados del siglo pasado, los robots ya figuraban en la cultura popular como un inminente paso del progreso científico: desde Robotina, la graciosa sirvienta autómata de los Supersónicos, hasta HAL-9000, la computadora con voz propia que gobierna la nave de 2001: Odisea en el espacio, la IA era algo que todos esperaban, ya fuera con miedo o entusiasmo, pero que siempre conseguía retrasar su llegada.

Pero la aparición de ChatGPT, justo al terminar el 2022, aceleró este año todos los proyectos de IA en que trabajaban las grandes tecnológicas, como Google, Microsoft y Amazon. De un día para otro, millones de personas en todo el mundo podían conversar con herramientas de lenguaje, las que no solo dan respuestas sino que además pueden hacer tareas: redactar y resumir textos, escribir códigos de programación, crear imágenes o videos a partir de palabras, traducir audios de forma instantánea —y manteniendo la voz original— y cientos de posibilidades que crecen día a día.

Pero toda esta avalancha de automatizaciones no es completamente autónoma ni etérea. En otras palabras: que la inteligencia artificial es menos artificial de lo que parece.

Primero, porque para que se desarrolle una herramienta como ChatGPT se necesitan potentes computadores con inmensas capacidades de procesamiento, servidores para un almacenamiento casi infinito de datos, conexiones de red muy rápidas y estables, además de enormes bases de datos. Todo eso requiere de mucho más espacio y electricidad de la que podamos imaginar.

Y en segundo lugar, porque detrás de las aplicaciones de IA más grandes hay cientos y cientos de personas, ya sea para diseñarlas y programarlas como también para entrenarlas constantemente. Como ha dicho Kate Crawford, académica australiana y autora del Atlas de inteligencia artificial, estas herramientas “no son autónomas, racionales ni capaces de discernir algo sin un entrenamiento extenso e intensivo”.

Marta Peirano, periodista española de tecnología y economía, ha descrito cómo ChatGPT aprendió a “dominar el lenguaje coloquial” incorporando miles de millones de contenidos de internet, incluso aquellos que son violentos, tóxicos, ilegales o que incitan al odio. “Un proceso que consiste en buscar y etiquetar a mano los contenidos que no quieres que repita”, un trabajo que hacen trabajadores en África y el sur de Asia.

“Aunque lo parezca, la inteligencia artificial no aprende por arte de magia”, dice Patricia Möller Acuña, investigadora de la Universidad Autónoma (UA) y doctora en biotecnología especializada en IA y minería de datos. “Nosotros tenemos que enseñarle y lo hacemos con datos”.

Möller lo sabe porque es su área de estudio pero también porque ha desarrollado sus propios algoritmos en la Facultad de Ingeniería que tiene la UA en Talca. El más reciente es OK Fruit App, una herramienta diseñada para los agricultores, capaz de determinar la calidad de arándanos y cerezas —forma, tamaño y color— solo a partir una foto tomada con un celular.

“Cuando generamos algoritmos y pretendemos que la máquina aprenda, debemos entregarle datos e información para que encuentre patrones que le permitan hacer lo que le pedimos. Es decir, aprende de la experiencia, y la experiencia son datos”.

Y todo ese trabajo es humano.

Así es. Hoy podemos obtener datos muy fácilmente desde internet, de manera casi gratuita, pero cuando desarrollamos máquinas que queremos que aprendan, debemos chequear que estos datos sean fidedignos, reales y útiles. Antes de entregarlos al sistema, entonces, los humanos debemos validarlos y corregir cualquier error que pueda existir.

¿Cuánta gente se necesita, aproximadamente, para desarrollar una herramienta de IA funcional y óptima que pueda operar en la industria o para un público amplio?

Generar un algoritmo con IA es algo que se puede hacer entre dos o tres personas, trabajando un par de meses. Pero para que se pueda utilizar realmente, y que se disponga en una aplicación o una web, se necesita gente que programe y diseñe toda la interfaz que ve el usuario final. El desarrollo inicial, además, luego debe ser mejorado constantemente, porque hay que robustecerlo y actualizarlo con los datos. Esto es muy importante, porque hoy nada sigue una tendencia lineal o constante. Es lo que pasa con el clima: ya no están tan marcadas las estaciones ni las temperaturas como antes. Si le enseñamos a una IA con datos de décadas pasadas, probablemente se equivocará si queremos que prediga climas futuros. Por eso, hay que mantener nuestro algoritmo robusto con datos actualizados y permanentes. El trabajo solo empieza con el desarrollo: después hay que seguir mejorando y trabajándolo.

¿Por qué no se habla o no se reconoce todo ese trabajo humano que hay detrás de la IA?

Cuando uno habla de IA, la gente común y corriente piensa que es algo misterioso, casi mágico, como si la máquina hiciera las cosas realmente sola y de forma autónoma. Así suena más innovador, disruptivo e incluso emocionante. Esconder todo este trabajo manual, que no es para nada atractivo, creo que es parte de la estrategia para mantener la novedad, el asombro y la impresión de que realmente algo como ChatGPT te responde solo. Pero detrás hay mucha gente que le enseñó a la herramienta y que ahora debe estar pendiente de los datos que siguen ingresando. Como ChatGPT aprende de todo lo que le escribimos, tanto lo bueno como lo malo, lo útil y lo ofensivo, para mantener el tono serio o profesional debe existir muchísima gente detrás que continuamente trabaje en eso. Pero saberlo le quita épica a la IA: es más atractivo pensar que esto funciona solo.

Eso significa, si la IA sigue creciendo, que muchas personas trabajarán en ella. ¿Eso debería reducir el miedo que hoy existe a la destrucción de empleos?

No creo que los empleos vayan a disminuir ni que aumentará la cesantía. Al contrario: la IA puede llegar a ser muy útil, nos abre muchas opciones y desafíos que nos permitirán hacer otras cosas. Mucha gente dice que quitará mucho trabajo en la mano de obra menos calificada, pero no es tan así; en realidad, hace más eficiente el trabajo. En la app que desarrollamos, por ejemplo, se puede realizar más control de calidad en menos tiempo, y la gente que antes medía una por una la fruta, hoy puede dedicarle más esfuerzos a mejorar la calidad de ella.