No le pongo cara

Es la conclusión a la que más de una vez llegamos cuando intentamos extraer la imagen de una persona a partir de los retazos de información que nuestro depauperado cerebro nos permite reunir a partir de un nombre, una filiación profesional, etc. ¿Qué ocurriría si intentamos hacer lo contrario con ayuda de la Red?

Tal como he sostenido en numerosos foros, el tradicional equilibrio dinámico que se produce en la interacción de Infotecnologías, Personas y Contenidos, en demasiadas ocasiones, se suele ver sesgado, sobre todo en el ámbito de las redes (y los medios) sociales por el intercambio de personas por contenido: es habitual caracterizar a los usuarios como un “perfil” dentro de una red social, al cual se asocia mucha información explícitamente revelada por esas personas registradas en la correspondiente plataforma, además de un volumen creciente de contenidos proporcionado voluntarimente por otros usuarios y la información que implícitamente hallamos contenida en (extraemos de) las conexiones de unos y otros.

Photo by Otto Steininger

Ya hemos hablado aquí, recientemente además, de la característica fragilidad de nuestra intimidad expuesta por las brechas en la privacidad de las plataformas sociales al uso, que nos del todo capaces de “esconder” las informaciones, relaciones y comunicaciones que implícitamente se dan entre el creciente número de nodos de la Red, revelando patrones en nuestro compartamiento, de la misma forma que nos delata físicamente nuestro lenguaje no verbal.

Hoy vamos a servirnos de un breve artículo que se publicaba hace unas semanas en la Technology Review del MIT para plantear una reflexión desde el punto de vista de la recuperación de información, en sentido técnico; es decir, aun aceptando que, efectivamente, los medios sociales en general y las redes sociales en particular, pueden suponer a priori un “filón” aparentemente inagotable, si lo planteamos bajo parámetros técnicos como la precisión de la información recuperada, no parece que nos vayamos a hacer ricos esquilmándolo con nuestras elaboradas técnicas de “minado”.

El artículo reseña un ejemplo sencillo que presentaba Alessandro Aquisti en la conferencia de seguridad BlackHat, basado en un estudio reciente de reconocimiento facial, “Faces of Facebook: Privacy in the Age of Augmented Reality“.

El estudio en cuestión analizaba las posibilidades de combinar técnicas estándar -como pueden ser las que Google ha desplegado en Picassa tras comprar Neven Vision, Riya o PittPatt , o las que permiten a Face.com etiquetar personas en Facebook– de reconocimiento facial y de ‘data mining‘ para “re-identificar” en la red a personas reales de forma automatizada e infiriendo información adicional de cierto nivel de sensibilidad, como los números de la seguridad social.

Google making app that would identify people's faces

La parte graciosa, de realidad aumentada, redondeaba el estudio con una App móvil que podía mostrar la información sensible (explícitamente revelada e inferida) que una persona, cuya imagen tomábamos con el dispositivo en tiempo real, estaba expuesta en la Red.

Lo interesante de este tipo de estudios no es el avance que puedan suponer para las técnicas de reconocimiento facial, ampliamente desarrolladas en nuestra técnica y desplegadas en multitud de soluciones de seguridad, sino constatar una realidad social y tecnológica, al alcance de nuestra mano, presente en nuestra vida más cotidiana, que no solo de fe de una característica “analogodigitalidad” de este entorno complejo, o de la manifiesta “protesicidad” de nuestro móvil inteligente -parte integrante de ese entorno-, sino de algo todavía más inmediato para el usuario de a pie, como puede ser la fragilidad de su intimidad en la Red y la necesidad perentoria de nuevas capacidades y habilidades para mostrarnos tal como somos en las calles de la metafórica “infociudad” que proponen algunos pensadores.

La parte cuantitativa de los experimentos llevados a cabo por el equipo de Acquisti, tal como nos cuentan en el artículo de marras, ilustraba la poca precisión obtenida en el proceso de recuperación de información a partir de las redes sociales (Facebook en este caso), a partir de una serie de fotos de participantes voluntarios: “el reconocimiento facial permitió asociar aproximadamente un tercio de los sujetos con el perfil correcto en FB”; y aunque solo acertaron los cinco primeros dígitos de los números de la seguridad social, con dos intentos, las tres cuartas partes de las veces clavaron los intereses expresados por los sujetos en la Red.

¿Os imagináis esa aplicación de realidad aumentada que, de la misma forma que en Wikitude o Layar nos muestra información completa de cualquier edificio singular o monumento de la ciudad, pudiera mostrarnos el detalle de nuestra identidad digital, pelándonos capa a capa, como una cebolla, sin dejar nada? Sabemos que Google está en ello y, aunque este caso de aplicación que imaginaban en The Astonishing Tribe (TAT) no llega a dibujar un escenario como ese, si nos ofrece una ilustración más cercana y divertida.

Twitter Digg Delicious Stumbleupon Technorati Facebook Email

No hay comentarios aún... ¡Se el primero en dejar una respuesta!

Dejar un Comentario