Fotografía cortesía ESET
De acuerdo con datos de OpenAI, más de 1 millón de empresas en el mundo utilizan ChatGPT, mientras que la plataforma registra más de 900 millones de usuarios semanales. Estas cifras reflejan cómo la inteligencia artificial se integra cada vez más en procesos empresariales relacionados con productividad, automatización y análisis de información. Sin embargo, este crecimiento también plantea una pregunta estratégica para corporaciones y personas tomadoras de decisión: ¿qué tan protegida está la información empresarial que se comparte en estas plataformas?
La información empresarial como prioridad estratégica
Según el reciente artículo de ESET*, señala que cada interacción dentro de plataformas digitales representa un flujo de información que debe administrarse bajo estándares de seguridad y privacidad.
“Muchas personas pueden creer que las conversaciones son temporales y funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, interactuar con grandes modelos de lenguaje implica procesos de almacenamiento y tratamiento de datos que requieren una gestión consciente de la información compartida”, explica Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica.
Para el sector empresarial, esta realidad implica evaluar no solo los beneficios de productividad que ofrece la inteligencia artificial, sino también los riesgos asociados al manejo de información sensible, confidencial o estratégica.
¿Qué sucede con la información compartida en ChatGPT?
Uno de los principales aspectos que deben considerar las empresas es cómo se gestiona la información ingresada en plataformas de IA.
De acuerdo con OpenAI, las conversaciones pueden almacenarse por periodos limitados en algunos casos hasta 30 días para permitir la continuidad operativa, seguridad y monitoreo. Además, ESET señala que, cuando se escribe información en ChatGPT, no se guarda únicamente en el navegador, OpenAI puede utilizar las conversaciones de las versiones gratuitas y Plus para perfeccionar sus modelos.
“Si un empleado introduce un fragmento de código propietario o un plan estratégico de marketing, es lógico pensar que, al entrenar el modelo con información propia, esta podría de alguna forma ser “utilizada” para otros usuarios. Estudios académicos han demostrado que los modelos de lenguaje de gran escala pueden memorizar partes de los datos de entrenamiento y que, bajo ciertas condiciones, esta información puede ser extraída mediante técnicas especializadas”, agrega Micucci de ESET.
Recomendaciones para la protección de datos
Más allá de la adopción tecnológica, el desafío empresarial radica en implementar herramientas de inteligencia artificial bajo esquemas de gobernanza digital, cumplimiento y administración de riesgos.
Entre las principales recomendaciones para fortalecer la protección de datos en ChatGPT destacan:
- Configurar adecuadamente las opciones de privacidad y controles de datos.
- Implementar autenticación multifactor en cuentas corporativas.
- Definir protocolos internos sobre la información autorizada para compartir.
- Capacitar a los equipos en ciberseguridad y uso responsable de IA.
- Evaluar soluciones empresariales diseñadas específicamente para entornos corporativos.
La importancia de las configuraciones de privacidad
Las empresas también están avanzando hacia modelos de transformación digital donde la inteligencia artificial se incorpora junto con estrategias de cumplimiento normativo y administración de riesgos tecnológicos.
En esa línea, expertos de ESET destacan que uno de los pasos más importantes para fortalecer la confidencialidad es revisar las configuraciones predeterminadas de privacidad de la plataforma. OpenAI permite gestionar opciones relacionadas con el historial de conversaciones y el uso de datos desde su sección de controles, lo que permite a las organizaciones establecer mayores niveles de protección sobre la información que comparten.
Inteligencia artificial y confianza empresarial
El crecimiento de ChatGPT en el entorno empresarial plantea oportunidades significativas para impulsar la productividad y la innovación, pero también exige una adopción responsable. En un contexto donde la información es un activo estratégico, fortalecer la privacidad, la seguridad y los protocolos internos será determinante para que estas herramientas generen valor sin comprometer la confianza corporativa.
