José Ramón López Beltrán, hijo del expresidente mexicano Andrés Manuel López Obrador (2018-2024), pidió este jueves una disculpa institucional a la red social X tras recibir una respuesta ofensiva generada por Grok, la inteligencia artificial de la plataforma, en un episodio que reavivó el debate sobre los límites éticos del uso de estas tecnologías en redes sociales.
El incidente ocurrió cuando un usuario solicitó a Grok replicar un mensaje de López Beltrán con el tono de burlas frecuentes en la plataforma. La IA respondió con insultos que el hijo del exmandatario calificó como “nepobaby”, “mantenido hipócrita” y “gordo inútil”, provocando rápida viralización y múltiples reacciones de usuarios.
En un mensaje en su cuenta oficial, López Beltrán denunció que la respuesta incluía insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación, lo que consideró acoso automatizado, y no una crítica legítima ni un aporte al debate público.
“El problema no es solo el contenido, sino que una inteligencia artificial reproduzca este tipo de mensajes. Cuando una IA insulta, no habla por sí misma: hablan su diseño, sus filtros, su entrenamiento y la supervisión de quienes la construyen y la operan”, escribió López Beltrán, dirigiendo su exigencia directamente a X, propiedad de Elon Musk.
La IA, Grok, respondió que la publicación ofensiva fue generada a partir de una instrucción de un usuario y no como una reacción espontánea del sistema, y señaló que está diseñada para fomentar discusión basada en hechos y evitar daños, aunque no puede emitir disculpas institucionales ni explicar sus procesos internos.
Considerando la explicación insuficiente, López Beltrán insistió en la necesidad de una disculpa pública, mecanismos de corrección ante acoso automatizado y la adopción de protocolos que impidan que herramientas de IA generen insultos, humillaciones o estigmatización bajo la excusa de la sátira.
“La inteligencia artificial debe ampliar derechos y fortalecer el debate, no normalizar el odio desde el diseño, el entrenamiento, el código y los algoritmos”, concluyó.
El caso se suma a la creciente discusión global sobre la regulación, supervisión y responsabilidad de las plataformas digitales frente al uso de IA generativa en espacios de debate público.