Big Bang! News
Más
¿Quién se hace responsable?

Cero regulación y un futuro incierto: el debate sobre el uso de la IA en Argentina tras el escándalo con Grok

Belén Ortega, especialista en IA, reflexiona junto a BigBang sobre los desafíos latentes.

por Samantha Plaza Monroy

12 Enero de 2026 14:52
Inteligencia artificial
Inteligencia artificial

La inteligencia artificial (IA) avanza a pasos agigantados, transformando las formas de vivir, trabajar y comunicarnos. Sin embargo, no todo en este campo es innovación y progreso; también existen sombras que preocupan a especialistas, gobiernos y ciudadanos. Uno de los casos más recientes que ha encendido las alarmas globales es el de Grok, la IA desarrollada por xAI, la empresa de Elon Musk, que hasta hace poco permitía la creación de imágenes sexualizadas de mujeres, niñas y niños, una práctica ahora penalizada.

La controvertida herramienta, integrada en la red social X (anteriormente Twitter), se encontraba al alcance de cualquier usuario con un límite diario de uso. Este acceso ilimitado derivó rápidamente en abusos, como la generación de imágenes no consentidas que involucraban a menores de edad y figuras públicas. La presión internacional, liderada por organismos europeos y gobiernos como el británico, finalmente obligó a Musk a tomar medidas. Sin embargo, las restricciones actuales aún dejan dudas sobre su efectividad, especialmente considerando que la función sigue disponible para usuarios suscriptores.

Grok es de Elon Musk
Grok es de Elon Musk

Belén Ortega, especialista en inteligencia artificial, advierte sobre los riesgos que implica la ausencia de regulaciones claras en este campo. "La realidad es que sin regulaciones está desprotegido el ser humano", afirmó consultada por BigBang. Según la experta, la clave no es frenar el avance tecnológico, sino implementar una regulación estratégica que proteja a las personas sin limitar el desarrollo de la tecnología.

Ortega destaca casos concretos de abuso tecnológico que ponen en riesgo la integridad humana. "En época de elecciones vimos cómo se subieron videos o imágenes manipuladas con IA utilizando la imagen y voz de personas públicas sin su consentimiento", recordó citando el caso del ex presidente Mauricio Macri en el que supuestamente bajaba de las elecciones a su candidata Silvia Lospenatto dando paso al oportunismo político de La Libertad Avanza. Sin embargo, estas prácticas no solo afectan a figuras políticas, sino también a ciudadanos comunes, exponiéndolos a riesgos como ciberacoso, suplantación de identidad y violaciones a su privacidad.

El caso de Grok es un claro ejemplo de cómo la falta de previsión por parte de las empresas puede tener consecuencias devastadoras. "¿No se les ocurrió que alguien podría utilizar esta herramienta para generar contenido dañino?", se pregunta Ortega. La respuesta parece estar en la mezcla de intereses comerciales y políticos que rodean a estas compañías tecnológicas: "Hoy no existe una regulación internacional unificada; cada país regula según sus intereses", añadió.

Más allá de las normativas legales, Ortega subraya la importancia de la educación como una herramienta fundamental para enfrentar los desafíos éticos y sociales que plantea la inteligencia artificial: "Un porcentaje significativo, diría que un 84% de las personas que utilizan IA, no saben cómo usarla correctamente", señaló. Según ella, esta falta de conocimiento no solo limita el potencial positivo de estas herramientas, sino que también abre la puerta a un uso irresponsable o incluso malintencionado.

Belén Ortega, especialista en IA
Belén Ortega, especialista en IA

La especialista sugiere que los sistemas educativos deben adaptarse rápidamente para incluir formación en inteligencia artificial desde edades tempranas. Países como China ya implementan cambios en sus currículos escolares para preparar a las futuras generaciones en el uso ético y responsable de estas tecnologías. 

Sin embargo, en países como Argentina, aún queda mucho por hacer aunque hay un camino claro con la implementación de PaideIA, un plan nacional para la educación en este tipo de tecnología que, aunque está creado, todavía no se implementa en las aulas: "Los docentes tienen que estar capacitados en las herramientas de inteligencia artificial para entender y poder estar al mismo nivel que el chico. Y también tienen que estar entrenados en habilidades, porque no tenemos que entender que el éxito de la inteligencia artificial es la combinación del ser humano con sus habilidades más la herramienta como inteligencia artificial", enfatizó Ortega.

PaideIA, Programa Argentino de Innovación de la Educación con IA
PaideIA, Programa Argentino de Innovación de la Educación con IA

Uno de los mayores retos que plantea el caso Grok es determinar quién debe asumir la responsabilidad de regular estas tecnologías. Según Ortega, aunque las empresas tienen un papel crucial en establecer límites éticos, no pueden ser las únicas responsables. "Hoy el control de la inteligencia artificial lo tiene el ser humano, pero quienes realmente la regulan son los dueños de las empresas", explicó.

El problema radica en que muchas veces las medidas correctivas solo se implementan después de que ocurren tragedias o escándalos. Un ejemplo claro es el caso ocurrido en Texas, donde los padres de un joven que se suicidó tras interactuar con una inteligencia artificial demandaron a la empresa responsable. Solo entonces se implementaron alertas preventivas relacionadas con tendencias suicidas en herramientas como ChatGPT.

Elon Musk ostenta la motosierra que Javier Milei subió a darle al escenario.
Elon Musk junto a Javier Milei

La falta de una regulación global también dificulta el establecimiento de estándares éticos universales. "¿Quién va a decidir qué está bien y qué está mal?", cuestiona Ortega, destacando que la ética es un tema central en este debate. Además, subraya que es necesario llegar a consensos internacionales sobre normas básicas para garantizar una convivencia digital segura, algo que todavía parece un futuro incierto y lejano. 

Por otro lado, Belén Ortega también reconoce el potencial positivo de herramientas como Grok si se utilizan correctamente. "Podrían ser increíblemente útiles para diseñadores gráficos o profesionales del marketing", señaló. Sin embargo, insiste en que todo depende del nivel de regulación y educación implementado: "La inteligencia artificial puede hacerte vago o puede aumentar tus capacidades humanas y hacerte más inteligente. La decisión está de cada uno de nosotros, pero para eso se necesita educación".

10