Sábado, 16 De Mayo De 2026 | Puebla

OPINIÓN

La IA de Meta y el precio de nuestra privacidad

Meta usará tus datos públicos para entrenar su IA. ¿Sabes cómo proteger tu información?

Sergio F. Esquivel

Estratega digital con 25+ años de experiencia en marketing y transformación digital, ayuda a empresas en México y Latinoamérica a implementar estrategias digitales que optimizan su presencia online y generan resultados. Speaker, escritor y colaborador de diversos medios impresos y digitales.

 
 
 
 

Domingo, Junio 8, 2025

Vivimos rodeados de pantallas y notificaciones, pero a veces se nos olvida que todo lo que publicamos, lo que damos like, lo que escribimos y lo que compartimos, deja rastro. Un rastro que no se borra. Y ese rastro, que para muchos parece inofensivo, es justo lo que están usando las grandes tecnológicas para alimentar a sus inteligencias artificiales.

Meta —sí, los de Facebook, Instagram y WhatsApp— acaba de anunciar que va a usar el contenido público de sus usuarios en Europa para entrenar sus modelos de IA. Y cuando digo contenido, hablo de textos, imágenes, comentarios… todo lo que alguna vez subiste pensando que era una buena idea postearlo.

Más artículos del autor

Dicen que lo hacen para “entender mejor los idiomas y las culturas” de los países europeos. Pero claro, lo hacen a su manera: primero, te avisan; luego, si quieres que tus datos no se usen, tienes que ir a un rincón medio escondido de la configuración, llenar un formulario que no es tan claro, y esperar que te hagan caso.

Lo más curioso es que, si vives en Europa, al menos tienes ese derecho a decir “no, gracias”. Pero si vives en México, como tú y como yo, ni siquiera te preguntan. Tus publicaciones públicas podrían ser parte del entrenamiento de estos modelos sin que tú des un solo clic de autorización.

Y ahí es donde hay que hacer una pausa. Porque no se trata solo de que “usen nuestros datos”. Se trata de qué están haciendo con ellos. Las inteligencias artificiales que entrenan con esta información no son neutrales. Aprenden lo que decimos, cómo lo decimos, qué nos gusta, qué odiamos, a quién seguimos. Aprenden también nuestros errores, nuestros sesgos, nuestras contradicciones. Y todo eso lo convierten en patrones que después se aplican en cosas tan comunes como los anuncios que vemos, los contenidos que nos muestran o los resultados que nos dan.

No es que esto sea nuevo. Las empresas tecnológicas llevan años recolectando información. Lo que sí ha cambiado es la dimensión. El volumen. La velocidad. Y el nivel de detalle con el que ahora pueden perfilar a cualquier usuario.

Por eso no se trata de caer en pánico ni en teorías de conspiración, pero sí de tomar decisiones más conscientes. Puedes empezar por revisar la privacidad de tus cuentas, decidir qué compartes y qué no, y entender que todo lo público —todo— puede ser usado para algo más.

También hace falta hablar más claro de esto. Menos términos legales en letra chiquita, y más explicaciones simples. Porque no se vale que la única manera de proteger tu información sea sabiendo navegar configuraciones escondidas que casi nadie conoce.

Y sí, este tema es más grande que un solo usuario, una sola red o una sola empresa. Es una conversación que hay que abrir: sobre ética, sobre responsabilidad, sobre qué tipo de futuro digital queremos construir. Porque la privacidad no debería ser un lujo, ni una opción enterrada en un menú.

Nuestra información alimenta estos sistemas. Literalmente. Y mientras la inteligencia artificial siga creciendo, esa alimentación va a seguir. La pregunta es si vamos a seguir regalando nuestros datos sin entender cómo se usan, o si vamos a empezar a poner límites, exigir reglas más claras, y cuidar un poco más lo que compartimos.

@sergiofesquivel

Vistas: 891
AL MOMENTO
MÁS LEIDAS

Blogs