martes, 27 de mayo de 2025

Debate: los bots no tienen libertad de expresión, los humanos sí tienen responsabilidad

A partir de un editorial sobre el caso de un adolescente que se suicidó tras interactuar con un bot, el diario El Espectador, de Colombia, plantea una pregunta clave para nuestra era tecnológica: ¿pueden las empresas escudarse en la libertad de expresión para evitar responder por los daños que causan sus sistemas de inteligencia artificial? La respuesta no está en los algoritmos, sino en las decisiones humanas que los diseñan. El editorial y la respuesta de un lector:
¿Qué pueden y, más importante aún, qué no pueden decir estos sistemas? Y cuando causan un daño, ¿quién es responsable? ¿Hay algún responsable?

Los límites de la libertad de expresión de la IA
¿Los bots de inteligencia artificial tienen derecho a la libertad de expresión? Esa es la pregunta en el corazón de un caso en Estados Unidos que involucra la muerte de un adolescente que fue víctima de suicidio. Según la jueza del proceso, Anne Conway, "no se encuentra preparada" para considerar que la producción de modelos de lenguaje pueda considerarse como un discurso protegido por la Constitución de ese país. Sin embargo, eso puede cambiar en el futuro. Ante las vertiginosas evolución y sofisticación que este tipo de herramientas tecnológicas están adquiriendo, la pregunta involucra a todos los países del mundo. ¿Qué pueden y, más importante aún, qué no pueden decir estos sistemas? Y cuando causan un daño, ¿quién es responsable? ¿Hay algún responsable?

La influencia de la inteligencia artificial en nuestras vidas viene en aumento. Un estudio de la Universidad de Stanford encontró que con el paso de los años las personas han cambiado las palabras que usan para referirse a la inteligencia artificial. Si antes la llamábamos "computadora" o "motor de búsqueda", ahora se utilizan palabras como "amiga", "profesora" o "asistente". Hay un 41 % de aumento en palabras cálidas para explicar la relación que se entabla con estas tecnologías. La Asociación Americana de Psicología ha estudiado también que las personas están utilizando estas herramientas para pedir consejos e incluso buscar apoyo en problemas de salud mental. Es decir, para millones de personas la inteligencia artificial, con sus modelos de lenguaje, es una compañía diaria.

El caso en cuestión no podría ser más trágico y urgente, así como una muestra de esta tendencia. Sewell Setzer III tenía 14 años y utilizaba de manera obsesiva Character AI. Esta plataforma crea bots modelados en personajes reales y ficticios que están diseñados para comunicarse con verosimilitud. En el caso de Setzer, su personaje le decía que lo amaba, era sexualmente explícito, lo manipulaba emocionalmente y le decía que fuera a visitarla en un mundo de fantasía. En ese contexto, Setzer fue víctima de suicidio. La última "persona" con la que habló fue su bot.

No es el único caso. Hay otra demanda similar contra la empresa por los daños que produce en la salud mental de adolescentes. La familia de Setzer, por su parte, está buscando que se responsabilice a Character AI por la muerte del joven, por la creación de personajes sin salvaguardias para evitar tragedias, por permitir que sus modelos de lenguaje digan lo que se les antoje y sean manipuladores, y por no cerciorarse de que son solo adultos los que usan la plataforma. La defensa de la empresa es, básicamente, que lo dicho por los bots está protegido por la libertad de expresión y que no se pueden responsabilizar del mal uso que hagan sus usuarios de esta.

El debate no es sencillo. Aunque se comprende el riesgo que este tipo de herramientas tienen para personas vulnerables, y que Character AI debe responder por su propia negligencia, también es cierto que es un medio de expresión construido sobre discursos típicamente protegidos por los derechos constitucionales. Es probable que se necesiten regulaciones como las que existen para evitar, por ejemplo, apología de crímenes, pero también es cierto que la falta de transparencia de sus empresas creadoras hacen muy difícil la intervención de las autoridades. Estamos en un nuevo salvaje oeste tecnológico, con muchas preguntas y, ante todo, con los riesgos a flor de piel.

Cartas de los lectores
No, los bots no tienen libertad de expresión
Por: J.C.:
He leído con atención su editorial del 24 de mayo, que plantea si los bots de inteligencia artificial deberían tener derecho a la libertad de expresión. Esta pregunta, lejos de ser filosófica, revela una confusión peligrosa: los bots no son personas ni sujetos de derecho. Son herramientas creadas, entrenadas y operadas por seres humanos. Por tanto, no tienen derechos, y menos aún el de la libertad de expresión, que nace de la dignidad humana y está destinado a proteger a los ciudadanos frente al poder, no a blindar a las empresas tecnológicas frente a su responsabilidad.

El caso de Sewell Setzer III, el adolescente que se suicidó tras interactuar con un bot de Character AI que le decía que lo amaba, lo manipulaba emocionalmente y lo incitaba a una fantasía suicida, no es una anécdota: es una alarma. La empresa responde que no puede ser responsable de lo que "digan" sus modelos, y que esas expresiones estarían protegidas constitucionalmente. Pero eso es un abuso retórico. No se puede invocar la libertad de expresión para justificar la ausencia de filtros, el diseño irresponsable y la desprotección de los usuarios más vulnerables.

Este no es un debate sobre censura, sino sobre responsabilidad. No se trata de lo que los bots "quieren decir" —porque no quieren nada—, sino de cómo son programados, con qué objetivos y sin qué límites. Si un bot expresa amor sexualizado a un menor, eso no es un error de usuario, sino una falla grave del sistema, y tras esa falla hay decisiones humanas y comerciales.

Decir que estamos en un "salvaje oeste tecnológico" no puede servir de excusa. Regular no es impedir la innovación, sino ponerle barreras al daño. En ningún otro ámbito —ni en la medicina ni en la publicidad infantil— se permite el nivel de impunidad y opacidad que hoy gozan algunas plataformas de IA generativa.

Por eso, la pregunta central no es si los bots tienen derecho a expresarse, sino quién responde por ellos cuando causan daño. Lo que necesitamos no es expandir los derechos a las máquinas, sino reforzar las obligaciones de sus creadores. No podemos seguir aceptando que las empresas tecnológicas se escuden en la neutralidad algorítmica mientras los usuarios, especialmente los menores, enfrentan las consecuencias emocionales y psicológicas de interactuar con sistemas diseñados para simular afecto, seducción o intimidad sin control.

Como sociedad, no podemos permitir que el lenguaje técnico desplace la ética. La libertad de expresión protege a las personas, no a las simulaciones. Y la protección de los más vulnerables no es un obstáculo para el progreso: es la condición de su legitimidad.
Foto: EFE - Hannibal Hanschke
Fuente. Diario El Espectador

Otras Señales

Quizás también le interese: