Soberanía de los datos: ¿está renunciando a su data en las IA como ChatGPT?

Soberanía de los datos: ¿está renunciando a su data en las IA como ChatGPT?

 ¿Prefieres un resumen de este blog? ¡Da click en el botón de abajo y deja que ChatGPT te lo cuente! (también puedes probar con Perplexity)


Apuesto a que ya está usando o ha usado diversos chatbots en su día a día. Pero, ¿sabía que se quedan con su información e incluso se quedan con toda aquella información o datos que ingrese para seguir entrenando estas inteligencias artificiales (IA)?

Esto no es un secreto: las inteligencias artificiales de los chatbotsfueron y siguen siendo entrenadas con la data que les proporcionamos con cada conversación nueva que iniciamos.

Si no se siente cómodo con este dato, déjeme contarle en este blog qué alternativas dan algunas IA para no seguir siendo objeto de estudio por parte de estas tecnologías; aunque por default se hayan construido a partir de una base de datos ya existente y sin el permiso de nadie.

Contenido relacionado: ¡Amíguese con su chatbot!

Peligros de que los chatbots de IA se entrenen con nuestra data

Hacia la mitad del 2025, estalló un escándalo en redes sociales debido a que muchos contenidos generados en ChatGPT que fueron compartidos por medio de links, creados con la opción de compartir de la app, se podían consultar públicamente en diversos buscadores.  

Es decir, si usted realizaba una consulta con ChatGPT y la compartía por medio de la opción de share, que generaba un link, la información quedaba pública en los buscadores web.

Ahora, piense qué tipo de consultas quisiera que quedaran expuestas en la web y a cualquier persona. Digamos que la usó para generar un plan estratégico en la empresa o por temas laborales. Inevitablemente esa información crítica de la compañía que pudo haber ingresado quedó expuesta y filtrada en la web, si la compartió con un link a alguien.

Contenido relacionado: ¿Cómo usar las redes de IA en ITOM?  

El tema, al parecer, ChatGPT lo corrigió, y por lo menos haciendo una búsqueda rápida reciente en Google o Bing, al ingresar site:chat.openai.com/share o chatgpt.com/share, ya no se arrojan los resultados de links privados compartidos.

Esto lo pude comprobar haciendo una consulta rápida en diversos buscadores web como Google, Bing, Yahoo search e incluso Duckduckgo.

Sin embargo, la aplicación señala que los enlaces compartidos están disponibles en el sitio web de ChatGPT y cada persona que tenga el link al enlace compartido podrá acceder a este.

Las conversaciones, aunque no se compartan, sí que quedan guardadas y, de todas maneras, la información de esas conversaciones sigue entrenando las IA de chatbots como el mencionado.

Consejos útiles para no renunciar a su data en ChatGPT

Esto debería ser básico para todos los usuarios de aplicaciones y software que usa IA, pero pocas veces nos detenemos a mirar las políticas de privacidad sobre la data que ingresamos en una app.

A raíz de este tipo de situaciones, ChaptGPT ha ido aclarándose frente a este tema y no esconde mucho cómo funciona.

(Imagen: Screenshoot tomado de ChatGPT. Septiembre, 2025)

Ahora, la configuración de la app le permite definir qué tan público desea que sean sus links de búsqueda compartidos. Además, también puede configurar qué tanta información le permite guardar a la aplicación y cómo la va a usar en las búsquedas futuras. Lo que limita en buena medida el uso que OpenAI hace de los datos de los usuarios.

Ben Winters, director de inteligencia artificial y privacidad de la organización sin fines de lucro 'Consumer Federation of America', en entrevista con The Washington Post, mencionó que el “pecado original” de las nuevas formas de IA, es "el hecho de que están construidas sobre reservas de información recopilada en gran medida sin nuestro permiso y que requieren grandes cantidades de electricidad y agua".

Contenido relacionado: IDC publicó sus 10 predicciones sobre IA y tecnología para los próximos tres años  .

Adicionalmente, si lo que está buscando es evitar a toda costa que las empresas de IA aprovechen sus datos para entrenar a sus IA o no sabe cómo van a usar sus conversaciones, ya existen aplicaciones como el chatbot de DuckDuckGo.

DuckDuckGo es un motor de búsqueda y un navegador web que está centrado en la privacidad, pero que cuenta con un chatbot que ofrece mayor privacidad.

Esta permite usar los mismos chatbots (ChatGPT de OpenAI, el chatbot Claude de Anthropic o Llama AI de Meta) en la app de DuckDuckGo con mayor privacidad. Evita que resguarden al 100 %  la información que allí se comparte o consulta.

Sin embargo, la batalla está perdida desde el principio, toda vez que las IA ya han sido entrenadas con información de todo el mundo, prácticamente, y la verdad no pidieron mucho permiso para ello como mencionó Winters.

Ahora, las reglas de privacidad de la data, aunque existen, no son tan cuidadas y cada día se tornan aún más difusas con el uso de la IA y su evolución.

The New York Times: ¿una demanda para que ChatGPT y Microsoft destruyan la data?

El periódico The New York Times demandó a OpenAI y Microsoft, en diciembre del 2023,  por violación de derechos de autor, acusándolos de usar millones de sus artículos para entrenar a los sistemas de inteligencia artificial como ChatGPT.

Esta es la primera vez que un gran medio estadounidense toma acciones legales por este motivo, que alega que los chatbots resultantes compiten con el Times como fuente confiable de información. Según el medio, inicialmente intentaron un acercamiento amistoso, pero las partes no llegaron a ningún acuerdo.

Contenido relacionado: Seis ejemplos de empresas que han implementado la IA  .

El pleito ya lleva dos años y desde entonces el caso que puso en discución de nuevo los  derechos de autor frete a la información con la que se entrenan las IA,  ha desencadenado en el 2025 una solicitud peculiar de parte de los abogados del New York Times.

Dicho medio de comunicación alegó que "OpenAI estaba destruyendo sistemáticamente pruebas al eliminar conversaciones de usuarios que podrían demostrar una infracción de derechos de autor", según un artículo de la firma de abogados estadounidense Nelson Mullins.

Esto ocurrió el 13 de mayo del 2025 y ante este requerimiento para continuar con la demanda, el Juez Wang, que lleva el caso, emitió una orden de preservación exhaustiva que obliga a OpenAI a "preservar y separar todos los datos de registro de salida que, de otro modo, se eliminarían en el futuro, independientemente de si la eliminación fue solicitada por los usuarios o exigida por las normas de privacidad", según cuenta la firma de abogados.

Frente a este nuevo giro en la demanda, OpenAI hizo público un comunicado del 5 de julio del 2025, en el que, Brad Lightcap, director de operaciones de la compañía, señaló que la confianza y la privacidad son el núcleo de los productos de la compañía.

Contenido relacionado: Snach Tech: prevenga las fugas de datos

Subrayando que brindaban herramientas para controlar los datos de los usuarios, que incluyen opciones de exclusión fáciles y la "eliminación permanente de los chats eliminados de ChatGPT  y contenido API de los sistemas de OpenAI en un plazo de 30 días".

Lightcap, además, se refirió a la demanda, como innecesaria y sin fundamento contra ellos, sobre todo porque se les pide conservar los datos de los usuarios de ChatGPT de manera indefinida.

Contenido relacionado: El reto del mundo: legislar la IA antes de que sea tarde (Parte 1)  

"Esto contradice fundamentalmente los compromisos de privacidad que hemos asumido con nuestros usuarios. Abandona las normas de privacidad establecidas y debilita las protecciones de la privacidad", dijo Lightcap.

La resolución de este caso será un gran punto de partida para lo que las empresas de IA podrán hacer o no con la información de las personas para entrenar sus IA. Por ahora, es necesario que como usuarios seamos responsables y estemos atentos a la letra menuda sobre las condiciones de privacidad que brindan estos chatbots de IA.