Riesgos de la IA: partir por casa

Riesgos de la IA: partir por casa

Compartir

Los cambios tecnológicos siempre traen consigo fascinación y temor. Fascinación por el potencial que anticipamos podrían llegar a tener, pero también miedo por la incertidumbre sobre cuándo, cómo y cuánto nos impactarán. Los académicos, agudos observadores de la realidad, aportan ideas y teorías sobre cómo comprenderlos, y también alertas sobre cosas a las que hay que ponerles atención.

En el reciente seminario Exponencial de la Universidad del Desarrollo sobre Desarrollo Humano, la doctora en Ciencias Sociales Flavia Costa nos recordó que el error o el accidente son parte intrínseca de las tecnologías. Tal como planteó el filósofo Paul Virilio: “Inventar el barco es inventar el naufragio; inventar el avión es inventar el accidente aéreo; inventar la electricidad es inventar la electrocución”. Más allá de su pesimismo relativo a la tecnología, tiene un punto. Hay amplio consenso en que la inteligencia artificial (IA) trae consigo riesgos en cinco áreas: la confiabilidad, la explicabilidad (no sabemos cómo los modelos llegan a sus resultados), los sesgos, la vulnerabilidad a ataques y el uso ético. De hecho, en su libro Nexus, Harari plantea que “las nuevas tecnologías suelen conducir a desastres históricos no porque sean intrínsecamente malas, sino porque a los seres humanos les lleva un tiempo aprender a usarlas con sensatez”. La pregunta, entonces, es con qué herramientas y velocidad nos estamos haciendo cargo de estos riesgos.

A nivel internacional, Costa nos enseñó que la Organización para la Cooperación y el Desarrollo Económicos creó OECD.AI, plataforma donde monitorea, gracias a la misma IA, todo lo que se publica en internet sobre ella, y detecta hechos que constituyen incidentes o riesgos de IA, es decir, que impactan o tienen el potencial de impactar la salud, la infraestructura crítica, los derechos humanos o fundamentales, o la propiedad, las comunidades o el medio ambiente. Naturalmente, la cantidad de incidentes o riesgos ha crecido desde 2022, con su masificación. Pero, entre enero de 2022 y septiembre de 2025, el porcentaje de incidentes o riesgos como porcentaje del total de noticias, de hecho, ha bajado, de 3,5 a 2,6.

Como los datos globales no son más que la agregación de lo que están haciendo los países, las organizaciones y las personas, al mirar qué están haciendo los países, pienso que el caso chileno es ejemplar: nuestro Código Penal es de 1874, pero el año pasado se aprobaron leyes de ciberseguridad y de protección de datos personales, y se está tramitando la ley sobre inteligencia artificial. Sin duda hay desafíos importantes pendientes acá y en otros países y mejoras posibles, pero lento, en esto, el Congreso no ha sido.

Y en cuanto a las empresas, las encuestas internacionales más citadas dan cuenta de que los líderes empresariales identifican los ciberataques entre los 10 principales riesgos a dos y a 10 años plazo, y, en el caso de la encuesta del Foro Económico Mundial, incluyen en el corto plazo la “malinformación” y la desinformación, y, a 10 años, el riesgo de resultados adversos de tecnologías de IA. En el ámbito empresarial estas reflexiones llevan a la acción y a la gestión de riesgos, obligatoria para empresas de mayor tamaño y abiertas en bolsa, como es el caso de Meta, dueña de Facebook, Instagram, y WhatsApp, entre otras, aplicaciones que todos usamos a diario. En su “matriz de materialidad” (gráfico que ubica en un plano los riesgos con mayor impacto para sus grupos de interés, en un eje, y para los resultados de su negocio, en el otro), que está disponible en su página web, están clasificados como críticos, en ambos ejes, el gobierno corporativo, el gobierno de contenidos, la confianza y la integridad, el diseño responsable de tecnologías y programas, la privacidad y seguridad de datos, y los derechos humanos. Esto tampoco resuelve todos los problemas, menos en el contexto de mercado y geopolítico actual, pero ilustra que, a lo menos, hay conciencia sobre los riesgos de estas tecnologías.

Las escuelas, por su parte, han empezado a sacar los teléfonos de las aulas, y más de 40 países han implementado políticas que regulan de manera estricta o prohíben el uso de teléfonos en los colegios. Llegamos, entonces, a nosotros. En redes sociales hay una campaña de una organización sin fines de lucro norteamericana, con un video en que un papá le está diciendo buenas noches a su hijo quien tiene su teléfono en la pieza y que, antes de cerrar la puerta, le dice que confía en que no usará las redes sociales para ver las miles de horas de pornografía disponibles, que ignorará los mensajes de odio que le llegarán de desconocidos (y conocidos), que no le dará su información a hackers, y que no comprará las drogas que tiene al alcance de un pulso. Es pedirle un poco mucho a un niño, ¿no? (El Mercurio)

Catalina Mertz