IA en la vida real

IA en la vida real

Compartir

Hay mucho debate sobre cómo y cuándo la inteligencia artificial (IA) afectará nuestras vidas, pero lo cierto es que toda persona con conexión a internet ya ha interactuado con ella. Es más, los usuarios de un Tesla incluso comparten tareas con una IA semiautónoma (y todos sus datos y videos de conducción). Y, a diferencia de otras tecnologías de uso masivo cuyo funcionamiento no necesitamos comprender, la ubicuidad de la IA y el impacto que ya está generando en las personas, las economías y la política hace necesario tener una comprensión básica de su funcionamiento para poder interactuar con ella o aplicarla en nuestras organizaciones, conscientes de sus riesgos. A continuación, presento una síntesis muy simplificada que pienso puede contribuir a este fin.

En resumen, una de las distintas corrientes de investigación que hubo desde fines de los 70 para desarrollar computadores que lograran realizar diversas tareas cognitivas tan bien como los humanos —posteriormente denominada IA— es la base de gran parte de la IA actual: la que replica el funcionamiento de nuestras redes neuronales. Se basa en dos elementos esenciales. El primero es el diseño de una “red neuronal”, compuesta por tres tipos de capas conectadas: (1) una primera capa de input, que toma valores entre cero y uno para describir, por ejemplo, la intensidad del color de un pixel de una imagen; (2) una o más capas intermedias de unidades o “neuronas simuladas”, cuyos valores reflejan la presencia de atributos como ángulos o bordes, y (3) una capa de output, con tantas unidades como posibles respuestas, como diez alternativas si se trata de imágenes de dígitos. Completa el diseño de la red una regla según la cual cada nodo se activa más intensamente mientras más alta sea la suma ponderada de las entradas anteriores.

El segundo elemento es un algoritmo llamado “propagación hacia atrás de los errores”, y que permite el “aprendizaje”: al comparar un output con la respuesta correcta, el modelo asigna adecuadamente la culpa de un error a cada uno de los pesos en la red, y modifica las ponderaciones de las conexiones para minimizar errores mediante un gran número de optimizaciones matemáticas sucesivas. En resumen, los modelos de IA son artefactos matemáticos, diseñados y entrenados por humanos, que resuelven tareas de forma automática.

Lo otro relevante es que el desempeño o la precisión de un modelo en realizar una tarea, como identificar a una persona o manejar sin chocar, depende totalmente de la base de datos con la cual fue entrenada. Inventos como WordNet, base léxica que agrupa sinónimos y sus relaciones, e ImageNet, base de datos que cientos de miles de personas alrededor del mundo, construyeron etiquetando imágenes que cientos de miles de personas compartimos en internet, para organizarlas de acuerdo con la jerarquía de conceptos de WordNet, han sido claves para entrenar la IA.

También hay humanos que trabajan para Tesla etiquetando, cuadro a cuadro, miles de horas de video de conducción para catalogar situaciones antes imprevistas. Esto implica, por una parte, que si la base de datos no es suficientemente diversa, los resultados serán sesgados; pero, por otra, que la IA no será capaz de lidiar con situaciones distintas a las que se usaron para entrenarla. Justamente, esta es la capacidad humana más esquiva para la IA y que ha limitado su aprendizaje autónomo: resolver situaciones nuevas recurriendo al sentido común cultivado a lo largo de una vida de experiencias.

Para tareas con muchas situaciones posibles pero improbables —como que aparezca una carreta de bueyes a 100 metros de un Tesla—, esto vuelve la IA poco confiable. Además, aunque en teoría es trazable cómo los modelos llegan a sus resultados, ni los modelos ni los humanos somos capaces de explicarlo del todo, en nuestro caso, porque no tenemos la capacidad de procesar las optimizaciones, lo que genera el problema de la falta de “explicabilidad” y, por lo tanto, de confianza. A esto se suma que investigadores han sido capaces de engañar a la IA en el reconocimiento de imágenes y de texto.

A diferencia de la electricidad, por ejemplo, la IA se ha masificado antes de que haya plena comprensión sobre cómo funciona y del rol que debemos jugar los humanos en su operación. Pero dado que sabemos que no sabemos cómo decide, que es susceptible de sesgos y vulnerable al hacking, como usuarios, todos debemos a lo menos preguntarnos con qué datos fue entrenada cada aplicación y cómo usa los míos, qué sesgos podría arrastrar y qué errores podría llegar a cometer.

Catalina Mertz