Desde hace más de una década, en mis conferencias, libros y columnas de opinión, he dejado
testimonio y denuncia, por dos procesos -principales y estratégicos- en la sociedad digital: a) la
ruptura de los límites éticos, que plenos de opacidad valórica se transforman en amplios y difusos
bordes de incertidumbre; y b) la manipulación o configuración de la subjetividad de la persona
humana que, hasta ahora, se manejaba con discrecionalidad y amplia impunidad.

“Donde está la enfermedad, está el remedio”, dice un refrán popular antiguo, que en este caso
cobra plena vigencia. El 25 de marzo de 2026 en Los Ángeles, California, EE.UU, se emitió un fallo
judicial histórico -para la humanidad- por sus consecuencias éticas. El precedente jurídico declaró
responsables (culpables) a Meta (Instagram) y Google (YouTube) por contribuir a la adicción -a las
redes sociales- de una menor de edad que comenzó a usarlas a los 6 y 9 años y, además, por los
daños a su salud: depresión severa y dismorfia corporal. El fallo establece que Meta debe asumir
el 70% de la responsabilidad y Google el 30%, estableciendo que el diseño de Instagram se
demostró más agresivo en su capacidad de generar dependencia.

Los argumentos jurídicos del fallo son: Que la responsabilidad se fundamenta en la teoría legal del
“diseño defectuoso”, asumiendo que las empresas diseñaron deliberadamente sistemas para
maximizar el tiempo de permanencia de los usuarios en las redes, sin tomar medidas suficientes
para mitigar los efectos negativos de sus algoritmos. Se determinó que ambas compañías
incurrieron en negligencia, priorizando el crecimiento y las métricas de retención por sobre la
seguridad de los usuarios jóvenes, al no advertir adecuadamente sobre los riesgos de sus
plataformas, utilizando funciones como el “scroll infinito”, notificaciones constantes,
amplificación algorítmica y segmentación conductual, diseñadas para fomentar la adicción y los
ingresos de la industria. No son solo herramientas de diseño, sino mecanismos de reproducción
automática, creados deliberadamente para explotar la vulnerabilidad del cerebro de la persona.

Este fallo, el primero de su tipo en EE.UU. constituye un importante precedente, históricamente la
industria tecnológica se escudaba en leyes que la eximían de responsabilidad por el contenido que
publicaban terceros. Sin embargo, este fallo se centra en el diseño del producto (el algoritmo y la
interfaz), no en el contenido, lo que abre una vía legal para exigirlas como si fueran fabricantes de
un producto defectuoso. Resulta muy evidente que este escenario impulsará regulaciones a nivel
global, obligando a las compañías a considerar más seriamente las implicancias éticas de sus
algoritmos. Lo dramático es que, a pesar de antiguas denuncias no se había avanzado en el ámbito
político y es el ámbito judicial quien tiene el mérito de este logro relevante.

Por concepto de indemnizaciones se ordenó pagar 3 millones de dólares en daños compensatorios
y otros 3 millones en daños punitivos. Se debe considerar que este fallo coincide con otro en
Nuevo México, donde Meta fue condenada a pagar 375 millones de dólares por desatender la
protección infantil frente a abusos en la red. De esta manera, las repercusiones para la Industria
tecnológica son muy relevantes. Se establece un precedente para más de 2,000 demandas
similares pendientes, solo en Estados Unidos.

Esta situación también constituye una señal respecto del denominado Colonialismo de Datos y el
libertinaje de datos personales. Aunque el fallo se centra en la adicción, contribuirá a un mayor
escrutinio sobre el uso y abuso de la explotación de los datos personales. Su captura requiere de
Big Data en amplias poblaciones, muchas de las cuales denotan compulsión por la superficialidad,
polarización binaria, auto exhibicionismo de su intimidad y datos personales asociados, materias
que requieren ser abordadas ética y legalmente. La confirmación judicial que las empresas diseñan
plataformas para maximizar permanencia y recopilación de datos, impulsará debates y
regulaciones sobre la privacidad, el control y sentido propietario de los datos personales, que los
usuarios tienen sobre su información, cuestionando el modelo de negocio basado en el libertinaje
en el uso de los datos personales (burbujas de filtro), y la publicidad hipersegmentada (marketing):
tales como la orientación sexual, información racial, el estado de salud, o creencias religiosas.
Este fallo marca el fin de la era de la autorregulación (y la impunidad) en el diseño algorítmico. Se
asume que no son neutrales si generan adicción clínica probada, o daños a la salud mental, tal
como ocurrió con la industria tabacalera en su momento de crisis. Es razonable, aunque no
suficiente, el uso de las Etiquetas de Advertencia, para que las redes sociales incluyan avisos de
salud mental, similar a las advertencias en las cajetillas de tabaco.

También hay un Cambio de Narrativa, al trasladar la culpa desde los padres (por “no vigilar a sus
hijos”) hacia las empresas (por diseñar algo imposible de resistir), con lo que se reconoce
jurídicamente que el diseño es técnicamente superior a cualquier control parental promedio. En
todo el mundo se comienzan a promover medidas preventivas, regulando el acceso y uso de las
redes sociales en ciertos espacio y grupos etarios. Los ámbitos educativos han comenzado a regular
el acceso a plataformas sociales a los menores. Toma fuerza el criterio de regulación ética digital
que cautele la dignidad, subjetividad, libertad y salud de las personas.

Los neuro-derechos se incorporan al marco jurídico internacional de derechos humanos, para
proteger el cerebro y su actividad, frente a los avances de las neuro-tecnologías y la inteligencia
artificial. Se profundiza en la protección contra el acceso no autorizado a patrones neuronales y la
garantía ante manipulaciones externas de la privacidad, salvaguardando la privacidad mental y el
libre albedrío, ante posibles manipulaciones o accesos no consentidos de la identidad, imagen y
los datos cerebrales.

Es deseable seguir fortaleciendo la soberanía y ética digital, el reconocimiento a marcos legales
pioneros, a nivel global: el Reglamento de Inteligencia Artificial (RIA) en la Unión Europea, que
clasifica los sistemas por su peligrosidad, prohibiendo aquellos que suponen una amenaza a los
derechos fundamentales de las personas; el hito de Chile, es el primer país del mundo en
incorporar los neuro-derechos en su Constitución Política (2021), en lo judicial (2023 )cuando la
Corte Suprema estableció que el uso de datos neuronales requiere consentimiento explícito y
revocable; y, su relevante Ley de Protección de Datos. A nivel Global se debe promover el
concepto de una Gobernanza Ética, para el equilibrio entre la innovación tecnológica y la
protección de la esencia humana, frente estas y otras amenazas como la denominada burbuja de
filtro y algoritmos impropios, que manipulan la subjetividad de las personas sin su consentimiento.
¡Que así sea!. (Red NP)

Carlos Cantero Ojeda

Geógrafo, Máster y Doctor en Sociología