Privacidad en riesgo: ¿Es seguro subir tus datos médicos a Grok, la IA de Elon Musk?
Elon Musk afirma que su IA Grok, es capaz de analizar estudios clínicos; sin embargo, entre los usuarios surgieron dudas sobre privacidad, protección de datos médicos y marco legal

Un reciente mensaje publicado en X por Elon Musk avivó el debate global sobre los límites de la inteligencia artificial (IA) en el ámbito de la salud.
El empresario sugirió que los usuarios pueden “tomar una fotografía de sus datos médicos o cargar el archivo para obtener una segunda opinión de Grok”, asegurando que la versión 4.20 del sistema es “increíblemente buena y rápida al analizar análisis de sangre”.
La afirmación abre dos discusiones de fondo: ¿puede una IA comercial sustituir la consulta médica tradicional? Y, más importante aún, ¿qué ocurre con la privacidad de los datos de salud cuando se suben a estas plataformas?
Preocupa la falta de privacidad en los datos médicos que se suben a las plataformasCanva
Consulta médica vs. IA comercial
En una consulta médica tradicional, la información clínica está protegida por marcos regulatorios estrictos. En México, la protección de datos clínicos se rige por la NOM-024-SSA3-2012 (expediente clínico electrónico) y la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP), que clasifica la salud como dato personal sensible.
En Estados Unidos, por ejemplo, la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA) establece estándares obligatorios de confidencialidad para datos médicos. Y en la Unión Europea, el Reglamento General de Protección de Datos (GDPR) considera los datos de salud como categoría especial que requiere protección reforzada.
Las IA comerciales, en cambio, no necesariamente operan bajo esos mismos esquemas regulatorios cuando se trata de interacciones abiertas en plataformas digitales. De hecho, la propia política de privacidad de X señala que puede recopilar y procesar información proporcionada por los usuarios.
Aunque las empresas aseguran aplicar medidas de seguridad, no siempre queda claro si los datos médicos subidos para análisis están cubiertos por estándares equivalentes a los de un hospital o consultorio.
El riesgo de sustituir la opinión médica
Organismos como la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) han advertido que las herramientas de inteligencia artificial en salud deben evaluarse bajo criterios rigurosos antes de utilizarse como apoyo clínico. La razón es simple: un error en la interpretación de un análisis puede derivar en decisiones médicas incorrectas.
La Organización Mundial de la Salud (OMS) también publicó en 2023 recomendaciones sobre el uso responsable de IA en salud, señalando que estas tecnologías deben complementar, no reemplazar, la supervisión médica humana.
Si bien la OMS tiene el compromiso de aprovechar las nuevas tecnologías, como la IA y la salud digital, para mejorar la salud humana, recomienda a las instancias normativas que garanticen la seguridad y protección del paciente, a la par que las empresas tecnológicas se afanan por comercializar los grandes modelos lingüísticos”, reza el informe.
Subir estudios clínicos a una IA comercial puede ofrecer rapidez y accesibilidad, pero no sustituye la evaluación contextual que realiza un médico: historial clínico, síntomas, exploración física y factores de riesgo individuales.
Diferencias entre la consulta médica tradicional y las consultas a la IA sobre temas de saludImagen generada con ChatGPT
Privacidad: el punto más delicado
Los datos médicos son considerados de los más sensibles en cualquier legislación de protección de datos. Incluyen información sobre enfermedades, tratamientos, diagnósticos y condiciones preexistentes. En caso de filtración o uso indebido, pueden derivar en discriminación laboral o financiera.
Además, muchos sistemas de IA utilizan datos proporcionados por los usuarios para mejorar sus modelos. Aunque las compañías suelen anonimizar la información, expertos en ciberseguridad advierten que la anonimización no siempre es irreversible.
Un análisis del MIT Technology Review señala que el uso de la inteligencia artificial en salud debe contemplar no solo precisión técnica, sino gobernanza y transparencia en el manejo de datos.
La línea entre asistencia y sustitución
El impulso de Musk hacia Grok como herramienta capaz de analizar estudios médicos posiciona a la IA en un terreno complejo. Por un lado, la tecnología puede facilitar segundas opiniones rápidas y ampliar el acceso en zonas con escasez de especialistas. Por otro, introduce una zona gris regulatoria si los usuarios interpretan estos análisis como diagnósticos definitivos.
En países como Estados Unidos y los miembros de la Unión Europea, el uso clínico formal de herramientas de IA requiere certificaciones específicas. Sin embargo, cuando el usuario voluntariamente carga sus análisis en una plataforma digital general, la responsabilidad puede diluirse.
Basta con recordar la controversia de Google con AI Overviews en temas médicos, la cual alcanzó su punto crítico cuando el buscador comenzó a ofrecer respuestas directas sobre salud, basándose en foros como Reddit o fuentes poco fiables.
Usuarios reportaron consejos peligrosos, como “comer una piedra al día” para obtener minerales o sugerencias erróneas sobre dosis de medicamentos. A diferencia de su herramienta especializada Med-PaLM 2, diseñada para médicos, la IA generalista de Google carecía de filtros clínicos rigurosos.
Esto generó críticas de profesionales de la salud, quienes advirtieron sobre el riesgo de autodiagnósticos letales y desinformación masiva. Google se vio obligado a restringir sus resúmenes en consultas médicas delicadas, subrayando que la IA aún no puede sustituir el juicio de un especialista humano, especialmente ante la falta de responsabilidad legal por errores de diagnóstico.
La discusión no es si la inteligencia artificial puede ayudar en medicina -eso ya es una realidad- sino si debe convertirse en sustituto de la consulta profesional. La mayoría de los expertos coincide en que la IA debe funcionar como apoyo, no como reemplazo. © 2025 Imagen – Excélsior. Todos los derechos reservados. El contenido de este sitio y de la edición impresa está protegido por la Ley Federal del Derecho de Autor. Prohibida la reproducción total o parcial sin autorización previa y por escrito. El material de terceros conserva sus propios derechos.



