Tu Smart TV te espía por defecto. El ACR captura fotogramas de tu pantalla cada pocos segundos, identifica lo que ves —aunque sea por cable o consola— y vende esos datos a anunciantes. Samsung, LG, Sony, Vizio... todos lo hacen. Está activado sin pedirte permiso. Puedes desactivarlo en ajustes o bloquearlo desde tu DNS. Tu privacidad no debería ser el precio de ver una serie.
#PrivacidadDigital #SmartTV #ACR #Ciberseguridad
Alguien podría estar espiando tu iPhone
Así puedes comprobarlo y eliminar cualquier acceso sospechoso.
1️⃣ Entra en Configuración > Privacidad y seguridad.
2️⃣ Busca Revisión de seguridad y entra en Administrar acceso y datos compartidos.
3️⃣ Revisa qué personas tienen acceso a tu dispositivo. Si ves alguien que no reconoces, elimínalo inmediatamente 🚫
4️⃣ Comprueba qué apps tienen permiso para usar tu micrófono y tu cámara. Si algo te parece raro, quita ese acceso 🎤📸
5️⃣ Mira los dispositivos conectados a tu cuenta de iCloud y elimina cualquiera que no sea tuyo 💻
6️⃣ Protege tu cuenta de Apple y considera cambiar tu contraseña para mayor seguridad 🔑
7️⃣ Añade un número para SOS de emergencia y tener una capa extra de protección 🚨
8️⃣ Revisa también las computadoras sincronizadas y los dispositivos vinculados a tu cuenta.
Tu iPhone guarda mucha información personal.
Más vale asegurarlo que lamentarlo.
Meta contra los estafadores – Nuevas funciones de IA para blindar WhatsApp, Messenger e Instagram
En una respuesta contundente a la creciente sofisticación de los fraudes digitales, Meta ha anunciado un despliegue masivo de herramientas de seguridad para sus más de 3.000 millones de usuarios. Según el gigante tecnológico ha implementado nuevos sistemas de detección de estafas en tiempo real que utilizan IA local para identificar comportamientos sospechosos sin comprometer la privacidad del cifrado de extremo a extremo (Fuente Meta).
Este movimiento llega en una semana crítica para la seguridad digital, coincidiendo con el disparo de descargas de VPN en Australia y la polémica por la falta de cifrado en los DMs de TikTok, posicionando a Meta como el defensor de la «privacidad asistida por IA».
Detección de estafas «On-Device»: Privacidad total
La gran innovación de este despliegue es que la detección ocurre directamente en tu teléfono, no en los servidores de Meta:
Alertas de «Contacto Desconocido»: Cuando recibas un mensaje de un número que no tienes guardado, la IA analizará el texto buscando patrones típicos de estafas (phishing, falsos soportes técnicos o esquemas de inversión).
Análisis de Enlaces Maliciosos: Si un chat contiene un enlace a un sitio web previamente reportado como fraudulento, WhatsApp y Messenger mostrarán una advertencia roja antes de que puedas pulsarlo.
Respeto al Cifrado: Dado que el procesamiento es local, Meta asegura que nadie (ni siquiera ellos) puede leer el contenido de tus mensajes. Solo si decides «reportar» el chat, una parte del historial se enviará a revisión humana o de IA centralizada.
Reconocimiento Facial para recuperar cuentas
Para frenar el robo de identidades, Meta ha expandido su sistema de Video Selfie con Reconocimiento Facial.
Si pierdes el acceso a tu cuenta de Facebook o Instagram, ya no tendrás que esperar días a que un soporte técnico revise tus documentos. Podrás subir un breve vídeo de tu rostro que la IA comparará con tus fotos de perfil para devolverte el acceso en minutos.
Escudo para Figuras Públicas: Tras las presiones de gobiernos como el de Singapur, Meta ha activado un sistema que bloquea automáticamente anuncios que usen la cara de políticos o celebridades (el famoso celeb-bait) mediante una comparación biométrica instantánea.
La polémica: ¿IA o vigilantes humanos?
A pesar de estos avances, Meta no se libra de la controversia. Informes recientes han revelado que algunos fragmentos de vídeo capturados por sus gafas inteligentes Ray-Ban Meta terminan siendo revisados por moderadores humanos para entrenar la IA, lo que ha generado una demanda colectiva esta misma semana. Meta defiende que estos datos están anonimizados, pero la desconfianza del usuario sigue siendo el mayor obstáculo.
Un ecosistema cada vez más cerrado
Este anuncio cierra un círculo de actualizaciones de seguridad en marzo de 2026:
Protección de Identidad: Se une al detector de Deepfakes de YouTube para proteger a periodistas y políticos.
Transparencia: Complementa las nuevas etiquetas de consumo de batería en la Play Store de Google.
Monetización: Sirve como base de confianza para el futuro lanzamiento de X Money de Elon Musk y el rumoreado WhatsApp Plus.
7 datos que nunca debes compartir en Internet. 🤔
#Ciberseguridad #Seguridad #Privacidad 🔏
Vulnerabilidad grave en la fantástica nueva versión de Bloc de notas:
El CVE:
👉 https://www.cve.org/CVERecord?id=CVE-2026-20841
La explicación:
Si abres un archivo de texto MarkDown (MD) que tenga un enlace... dicho enlace puede EJECUTAR CUALQUIER COSA en la máquina.
La URL que hay adentro del enlace, al cual puedes hacer click, la ejecuta Bloc de notas a pelo utilizando "ShellExecuteExW":
👉 https://learn.microsoft.com/en-us/windows/win32/api/shellapi/nf-shellapi-shellexecuteexw
#ciberseguridad #cybersecurity #windows #notepad #blocdenotas
Fraudes en redes sociales y Whatsapp
#Ciberseguridad # Seguridad #Privacidad 🔏
Piensalo dos veces... 🤔
#Ciberseguridad #Seguridad #Privacidad 🔏
¿Por qué Meta nunca cierra a pesar de tanto escándalo?
Cambridge Analytica, Instagram provocando depresión y siguen operando como si nada. Te explico el 'truco' de Zuckerberg para seguir intocable a pesar de escándalo tras escándalo. 🕵️♂️
#Meta #Facebook #Instagram #WhatsApp #Escándalo #Ciberseguridad #PrivacidadDigital #Tecnología #Investigación
👉 Síguenos en nuestras redes sociales para más noticias y fuentes directas:
YouTube Shorts: / @3ncr1pt4d0-g8v
Instagram Reels: / 3ncr1pt4d0
TikTok: / 3ncr1pt4d0
X: https://x.com/3ncr1pt4d0
Bluesky: https://bsky.app/profile/3ncr1pt4d0.b...
Threads: https://www.threads.com/@3ncr1pt4d0
Mastodon: https://mast.lat/@3ncr1pt4d0
371 académicos especializados en seguridad y privacidad incluyendo un premio Turing, advierten en un comunicado conjunto que los sistemas de verificación de edad constituyen una infraestructura global de control y vigilancia.
https://reclaimthenet.org/pause-social-media-age-verification-privacy-risks
#Ciberseguridad # Seguridad 🔏
¿Facebook murió o mutó en una infraestructura de vigilancia invisible? 👁️ En el Proyecto AGENA analizamos cómo Meta procesa tu identidad y te damos el protocolo para blindar tu soberanía digital hoy mismo.
#ProyectoAGENA #Meta #Privacidad #Algoritmos #Ciberseguridad
http://anonimageek.com/2026/03/06/estrategia-archivo-viviente-facebook-meta-proyecto-agena/
TikTok rechaza el cifrado de extremo a extremo – «Hace que los usuarios estén menos seguros»
Mientras gigantes como WhatsApp, Messenger y Google Messages compiten por ofrecer la máxima privacidad, TikTok ha decidido tomar el camino opuesto. La plataforma confirmó oficialmente que no implementará el cifrado de extremo a extremo (E2EE) en sus mensajes directos (DMs). La compañía argumenta que esta tecnología, considerada el «estándar de oro» de la privacidad, en realidad pone en riesgo a sus millones de usuarios al impedir la detección de contenido dañino (Fuente BBC).
La noticia se dio a conocer durante una sesión informativa de seguridad en las oficinas de TikTok en Londres, donde los portavoces de la red social marcaron una clara distancia con sus rivales, calificando su postura como una decisión deliberada a favor de la seguridad infantil y la cooperación policial.
El argumento de TikTok: Seguridad vs. Privacidad
Para TikTok, el cifrado total es una «barrera» que protege a los delincuentes. Estas son las razones principales que dio la empresa para justificar su rechazo:
Prevención del Grooming y Acoso: Al no estar cifrados, los sistemas de moderación de TikTok pueden escanear los mensajes en busca de patrones de comportamiento sospechosos, acoso o intentos de captación de menores.
Cooperación con la Justicia: La plataforma afirma que el cifrado de extremo a extremo impediría que la policía y los equipos de seguridad accedan a conversaciones cruciales durante investigaciones de delitos graves.
Detección de Abuso Sexual Infantil (CSAM): TikTok citó un «preocupante descenso global» en los informes de abuso debido a la proliferación de plataformas cifradas, asegurando que ellos prefieren mantener la capacidad de detectar y denunciar estos contenidos proactivamente.
La polémica: ¿Privacidad o vigilancia?
La decisión no ha tardado en generar críticas entre expertos en ciberseguridad y defensores de los derechos digitales.
El factor China: A pesar de que las operaciones de TikTok en EE. UU. se separaron de ByteDance a principios de este año, los críticos advierten que la falta de cifrado facilita que cualquier gobierno (incluyendo el chino o el estadounidense) pueda solicitar acceso a las conversaciones privadas de los usuarios.
Privacidad «en tránsito»: TikTok se apresuró a aclarar que sus mensajes sí están cifrados, pero solo «en tránsito» y «en reposo». Esto significa que los hackers no pueden interceptarlos fácilmente en la red, pero TikTok sí tiene las llaves para leerlos en sus servidores cuando lo considere necesario.
TikTok se queda solo
Con este anuncio, TikTok se posiciona como el gran «outsider» de las redes sociales en 2026. Casi todos sus competidores han adoptado el E2EE:
Meta: Ya lo tiene por defecto en WhatsApp y lo ha completado en Messenger e Instagram DMs.
Google: Lo utiliza de forma estándar en Google Messages (RCS).
Apple: Pionero con iMessage.
X (Twitter): Lo ofrece como opción para suscriptores.
¿Qué significa para el usuario?
Si eres usuario de TikTok, la regla de oro a partir de hoy es clara: no utilices los DMs de la aplicación para compartir información sensible, contraseñas o datos privados. Al no existir cifrado de extremo a extremo, cualquier mensaje que envíes puede ser revisado por moderadores humanos, algoritmos de IA o entregado a las autoridades ante una solicitud legal.
#arielmcorg #bytedance #ciberseguridad #E2EE #infosertec #innovación #PORTADA #privacidad #RedesSociales #SeguridadInfantil #TechNews #tecnología #tiktokNada es lo que parece. 🤦♀️🤦♂️🤦
#Ciberseguridad #Seguridad #Privacidad 🔏
En mensajería digital, la privacidad no depende del marketing sino de la arquitectura.
Muchas apps prometen seguridad, pero la diferencia real está en cómo implementan el cifrado de extremo a extremo y qué metadatos siguen recolectando.
En 2026, entender esta distinción define quién puede —o no— leer tus conversaciones.
Guía comparativa 👇
https://www.glitchmental.com/2026/03/apps-mensajeria-segura-2026.html
Escándalo de privacidad en Meta – Revisores humanos acceden a vídeos íntimos grabados con las gafas IA
Un nuevo informe de investigación ha desatado una tormenta sobre Meta. Según se revela, contratistas externos de la compañía han tenido acceso a vídeos extremadamente personales e íntimos grabados por los usuarios de las Ray-Ban Meta. El escándalo pone en duda las promesas de privacidad de Mark Zuckerberg y revela que la Inteligencia Artificial de las gafas depende de una «supervisión humana» mucho más invasiva de lo que se admitía oficialmente (Fuente SVD.se).
El problema reside en el proceso de entrenamiento de la IA multimodal de las gafas/anteojos. Para que el dispositivo pueda «entender» lo que el usuario está viendo y responder preguntas en tiempo real, Meta utiliza a revisores humanos para etiquetar y corregir las interpretaciones de la IA, pero el sistema de filtrado parece haber fallado estrepitosamente.
¿Cómo se filtraron los vídeos?
El informe detalla que los revisores no solo analizan imágenes de monumentos o textos, sino secuencias de vídeo completas grabadas en la privacidad del hogar:
Escenas en el dormitorio y baños: Los empleados encargados de «mejorar la precisión de la IA» reportaron haber visto contenido sexualmente explícito y situaciones cotidianas de alta vulnerabilidad que los usuarios grabaron accidentalmente o por error al activar los comandos de voz.
Falta de anonimización: Aunque Meta afirma que los datos están cifrados, los revisores indicaron que a menudo es posible identificar la ubicación o la identidad de las personas a través de objetos personales o fotos familiares visibles en el fondo de los vídeos.
Contratación externa: Gran parte de este trabajo de etiquetado se realiza a través de empresas subcontratadas en países con regulaciones de protección de datos menos estrictas, lo que aumenta el riesgo de filtraciones.
La respuesta de Meta: «Es parte del entrenamiento»
Meta ha salido al paso de las críticas asegurando que los usuarios aceptan estos términos al activar las «Funciones de IA» en la configuración de la app Meta View. Según la empresa:
«Una fracción mínima de las interacciones es revisada por humanos para garantizar la seguridad y precisión del sistema. Los usuarios pueden optar por no participar en el programa de mejora de productos en cualquier momento».
Sin embargo, grupos de defensa de la privacidad argumentan que la opción para desactivar esta revisión está «oculta» bajo menús complejos y que la mayoría de los compradores no son conscientes de que un extraño podría estar viendo lo que ellos ven a través de sus gafas.
Un golpe a la tecnología «Wearable»
Este escándalo llega en un momento de máxima expansión para los dispositivos de IA vestibles. Mientras Samsung y Qualcomm presentan sus nuevos chips para smartwatches y gafas/lentes en el MWC 2026, el caso de Meta recuerda el peligro inherente de llevar cámaras y micrófonos permanentemente conectados a la nube.
Expertos en ciberseguridad recomiendan a los usuarios de las Ray-Ban Meta desactivar la opción de «Almacenamiento de interacciones de voz e imagen» en los ajustes de privacidad para evitar que sus momentos más íntimos acaben en la pantalla de un revisor al otro lado del mundo.
#arielmcorg #ciberseguridad #Escándalo #infosertec #InteligenciaArtificial #MarkZuckerberg #meta #Omícrono #PORTADA #privacidad #RayBanMeta #tecnología #wearables¿Qué es la Ingeniería Social? 🤔
Esto 😂😂😂
#Ciberseguridad #Seguridad #Privacidad 🔏
Meta vendió 7 millones de gafas inteligentes Ray-Ban solo en 2025.
Los trabajadores en Kenia están viendo las imágenes.
No son metadatos. No son clips anónimos. Son los videos reales. Personas desnudándose. Personas en baños. Personas teniendo sexo. Tarjetas bancarias. Documentos médicos.
Se supone que el desenfoque protege la privacidad. Falla constantemente. Los contratistas lo ven todo.
Aquí está la parte que debería dejarte paralizado: No compraste las gafas. No aceptaste las condiciones del servicio. No diste tu consentimiento a nada. Pero si alguien con gafas Meta entra en tu habitación, en tu baño, en la consulta de tu médico, en tu casa, un contratista al otro lado del mundo podría estar observándote ahora mismo.
La persona que llevaba las gafas dio su consentimiento. Los demás en la sala no.
La defensa de Meta es que todo esto está revelado en la política de privacidad. Técnicamente tienen razón. Está envuelto en un lenguaje tan denso que el 99% de los usuarios nunca lo leen. E incluso si lo hicieran, no importaría, porque los términos rigen los datos del usuario. No los tuyos. No eres parte del contrato. Eres el producto que se está anotando.
Millones de cámaras con IA circulan por la vía pública. Graba constantemente. Sube contenido a servidores. Revisadas por personas que ganan unos pocos dólares por hora para etiquetar tus momentos más íntimos y que el algoritmo sea más inteligente.
Esto no es un error. Es el modelo de negocio.
La UE ya se plantea preguntas. Los eurodiputados presentaron consultas formales a la Comisión esta semana exigiendo respuestas sobre el cumplimiento del RGPD. El problema es evidente: la legislación europea de protección de datos exige el consentimiento de los interesados. Los testigos son los interesados. Los testigos nunca dieron su consentimiento. Toda la arquitectura infringe el reglamento por diseño.
La respuesta de Meta ha sido el silencio y una referencia a términos de servicio que no se aplican a las personas realmente filmadas.
Las Google Glass desaparecieron porque la gente llamaba "Glassholes" a quienes las usaban y las prohibían entrar en los bares. Meta resolvió el problema social haciendo que las gafas parecieran normales. No resolvieron el problema de la privacidad. Lo ocultaron.
Siete millones de unidades vendidas en 2025. La base instalada está creciendo rápidamente. Cada unidad es un nodo de vigilancia potencial, operado por alguien que quizá no entienda lo que introduce en el sistema y revisado por contratistas que ven todo lo que el algoritmo no puede procesar.
La pregunta no es si esto se convertirá en un escándalo. La pregunta es si el escándalo llega antes o después de que 50 millones de personas se pongan las gafas.
Vigila la UE. Si Bruselas avanza en la aplicación del RGPD, Meta se enfrenta a una disyuntiva: desactivar la revisión humana en Europa y paralizar el proceso de formación de IA, o aceptar multas que podrían ascender a miles de millones. Ninguna de las dos opciones está descontada en el precio de las acciones.
Las gafas se venden más rápido que nunca.
Los contratistas siguen observando.
Y en algún lugar, ahora mismo, alguien que nunca has conocido está mirando imágenes tuyas que nunca supiste que existían.
Las 25 contraseñas más comunes del mundo. 🤦♀️🤦♂️🤦
Todas estas contraseñas tardarían menos de un segundo en ser descifradas por un hacker.
Fuente: NordPass (2024)
Motorola y GrapheneOS anuncian una alianza histórica para blindar la privacidad móvil
En un giro sin precedentes para la industria de los smartphones, Motorola y la Fundación GrapheneOS han anunciado el 2 de marzo de 2026, una asociación estratégica a largo plazo. Este acuerdo marca el fin de la exclusividad de GrapheneOS con los dispositivos Google Pixel y posiciona a Motorola como el primer gran fabricante (OEM) en comprometerse a diseñar hardware específicamente optimizado para el sistema operativo móvil más seguro y privado del mundo (Fuente Motorola Global).
El anuncio, realizado durante el Mobile World Congress (MWC) 2026 en Barcelona, confirma que ambas entidades ya están trabajando en una «subconjunto de dispositivos de próxima generación» que cumplirán con los estrictos requisitos de hardware de GrapheneOS, incluyendo el endurecimiento a nivel de silicio y ciclos de actualización de seguridad de larga duración.
¿Por qué es tan importante este acuerdo?
Hasta ahora, los usuarios que buscaban un teléfono «des-Googled» (sin servicios de Google y con seguridad extrema) estaban obligados a comprar un Google Pixel, ya que era el único hardware que cumplía con los estándares criptográficos y de arranque seguro exigidos por GrapheneOS.
Hardware Diseñado para la Seguridad: Motorola está adaptando el diseño de sus futuros terminales (previstos para finales de 2026 o inicios de 2027) para integrar chips de seguridad equivalentes al Titan M de Google.
Independencia de Google: Con este movimiento, Motorola ofrece una alternativa real para activistas, periodistas y profesionales de sectores sensibles que desean la máxima protección sin depender del ecosistema de Mountain View.
Funciones Portadas a Moto Secure: Como beneficio inmediato, Motorola integrará funciones de GrapheneOS en su aplicación Moto Secure, incluyendo la nueva herramienta «Private Image Data», que elimina automáticamente los metadatos sensibles (como coordenadas GPS) de las fotos antes de compartirlas.
Moto Analytics: Seguridad para empresas
Junto a la alianza con GrapheneOS, Motorola presentó Moto Analytics, una plataforma diseñada para equipos de IT en empresas. Esta herramienta permite monitorizar la estabilidad del dispositivo y la integridad del sistema en tiempo real, integrándose con las protecciones ThinkShield de Lenovo para ofrecer un entorno corporativo casi impenetrable.
Un refugio ante el «Cierre» de Android
La noticia llega en un momento crítico. Mientras otros fabricantes como Samsung o Xiaomi están dificultando el desbloqueo del bootloader y Google endurece las políticas para instalar APKs externas, Motorola se desmarca como el único gigante que abraza la filosofía del código abierto y la libertad del usuario.
Aunque los dispositivos actuales de Motorola (como los nuevos Razr 2026) no son compatibles con GrapheneOS debido a limitaciones de hardware previas, la base está sentada: el próximo buque insignia de la marca podría ser el primer teléfono del mercado en salir de la caja con la opción oficial de instalar o venir preinstalado con el sistema operativo endurecido de la fundación.
#android #arielmcorg #ciberseguridad #GrapheneOS #infosertec #innovación #motorola #MotoSecure #MWC2026 #PORTADA #privacidad #tecnología #ThinkShield🐕 Una estrategia para encontrar perritos perdidos... ¿qué podría salir mal?
Search Party de Ring promete encontrar mascotas, pero esconde la infraestructura perfecta para vigilancia masiva.
La misma IA que busca perros puede identificar personas y está activada por defecto en tu cámara.
🎥 Te explico el experimento, los acuerdos secretos con la policía y cómo protegerte.
👉 Link https://youtu.be/z-GtETmwEwQ
#SearchParty #Ring #PrivacidadDigital #VigilanciaMasiva #SuperBowl #Ciberseguridad #Tecnología
¿Necesitas tu DNI para abrir Instagram? 🆔🚫
En 2026, Australia, EE.UU., Brasil y medio mundo exigen verificación de identidad para usar redes sociales. Protección infantil o vigilancia total de masas 🔍
Nuevo video analizando cómo llegamos aquí, qué modelos compiten y qué puedes hacer para proteger tu privacidad 👇
#VerificaciónDeEdad #PrivacidadDigital #Ciberseguridad #Internet2026 #RedesSociales #DerechosDigitales #Tecnología #Privacidad
🔐 ¿Alguien está intentando entrar a tu servidor SSH? ¡Es hora de ponerle freno!
En este video te muestro cómo instalar, configurar y sacarle el jugo a Fail2ban, la herramienta esencial para proteger tu servidor GNU/Linux contra ataques de fuerza bruta, denegación de servicio y escaneos maliciosos.
Este tutorial nace de pedidos de seguidores del canal y alumnos del curso de SSH.
💬 Dudas? Preguntas?
#gnu #linux #infosec #ciberseguridad #ssh #juncotic #ciberseguridad
El lado del mal - Cómo identificar perfiles anónimos de una plataforma online en Internet usando LLMs y Agentes IA https://www.elladodelmal.com/2026/03/como-identificar-perfiles-anonimos-de.html #privacidad #anonimato #LLM #OSINT #RedesSociales #X #Ciberseguridad
La Privacidad es poder 🤫
#Ciberseguridad #Seguridad #Privacidad 🔏
Tu identidad anónima en Internet ahora puede ser desenmascarada por $1 dolar 😳
No por el FBI. Por cualquiera con acceso a Claude o ChatGPT y a algunos de tus comentarios en Reddit.
ETH Zurich y Anthropic acaban de publicar un artículo llamado “Desanonimización en línea a gran escala con LLMs” y los resultados son la investigación sobre privacidad más alarmante que he leído este año.
Construyeron un canal automatizado que toma tus publicaciones anónimas, extrae señales de identidad, busca en la web y descubre quién eres.
No necesita investigador humano. Totalmente autónomo. Funciona en Hacker News, Reddit, LinkedIn e incluso transcripciones de entrevistas redactadas.
Así de malos son los números.
En Hacker News los usuarios: 67% se identificó correctamente.
Cuando el sistema hacía una suposición, acertaba el 90% de las veces.
En Reddit, académicos publican bajo seudónimos: 52%.
Sobre los científicos cuyas transcripciones de entrevistas fueron redactadas explícitamente por motivos de privacidad: 9 de 33 aún fueron desenmascarados.
El pipeline funciona en cuatro pasos denominados ESRC. Extrae señales de identidad de tus publicaciones mediante LLM.
Busca candidatos compatibles utilizando incrustaciones en miles de perfiles.
Razona sobre los mejores candidatos con modelos como GPT-5.2. Calibra la confianza para que, cuando adivine, casi nunca se equivoque.
¿El método clásico de desanonimización del famoso ataque al Premio Netflix? Casi 0 % de recuperación en todas las pruebas.
Los LLM no solo mejoraron las técnicas antiguas, sino que las hicieron parecer juguetes.
Cuando escalaron para dividir temporalmente los perfiles de Reddit, haciendo coincidir las publicaciones antiguas de un usuario con las más nuevas a lo largo de un año completo, el flujo de trabajo alcanzó un 67 % de recuperación con una precisión del 90 % y un 38 % de recuperación con una precisión del 99 %.
Lo que significa que ni siquiera un año de cambios de intereses y conversaciones diferentes fue suficiente para ocultarlo.
Mayor capacidad de razonamiento = mejor desanonimización. Un alto esfuerzo de razonamiento duplicó la capacidad de recuperación, alcanzando una precisión del 99 % en algunas pruebas. A medida que los modelos de IA se vuelven más inteligentes, este ataque se fortalece automáticamente. Cada actualización del modelo implica una reducción de la privacidad.
Lo que hace que sea casi imposible defenderse: el pipeline se divide en subtareas que parecen inofensivas y termina en resumir un perfil.
Computar incrustaciones. Clasificar candidatos. Ninguna llamada a la API indica claramente que se está desanonimizando.
Los propios investigadores se muestran pesimistas respecto a que las medidas de seguridad o los límites de velocidad puedan detenerlo.
Su conclusión es contundente: «Los usuarios que publican bajo nombres de usuario persistentes deben asumir que los adversarios pueden vincular sus cuentas a identidades reales». Y extrapola.
Las proyecciones log-lineales sugieren una recuperación de aproximadamente el 35% con una precisión del 90% incluso con un millón de candidatos.
Cada cuenta descartable. Cada publicación anónima en el foro. Cada comentario de "nadie me relacionará con esto".
Ahora todo son microdatos consultables. Y ejecutar el agente completo en un objetivo cuesta menos que un café.
El anonimato práctico en internet acaba de desaparecer.
Full paper: https://arxiv.org/pdf/2602.16800
