Daniel Rodríguez Herrera
Son tantos los datos
que recaba la NSA
que está construyendo un gigantesco centro para guardarlos y analizarlos.
El ahora famoso
programa PRISM de la
Agencia Nacional de Seguridad (NSA) de Estados Unidos no se
diferencia técnicamente demasiado de lo que hacen gigantes de internet con
nuestros datos. Sin ir más lejos, Google obtiene datos de nuestros hábitos de
navegación y búsquedas, así como del uso de muchos otros servicios, y sus
algoritmos emplean esa información para, por ejemplo, mostrarnos anuncios de
cosas que de verdad nos interesen.
En principio, nadie
en Google se dedica a mirar esa información, porque gestionar tal cantidad de
datos sólo lo puede gestionar una cantidad ingente de ordenadores. La NSA hace lo mismo: guarda
millones de registros de llamadas de las operadoras norteamericanas y una buena
porción del tráfico de internet que circula por el país. Luego los algoritmos
diseñados por la agencia analizan automáticamente todos esos datos en busca de
relaciones y advierten a los empleados humanos si encuentran algo que
potencialmente sea de interés.
Esta técnica se conoce
como data mining y es empleada por muchas empresas en todo el mundo. Por
ejemplo, los hipermercados emplean los datos de compras de nuestras tarjetas de
fidelización para averiguar, por ejemplo, qué productos se compran juntos y así
ordenar los estantes o hacer ofertas de un producto para atraer clientes y
luego cobrarles más de otro con el que se suele comprar conjuntamente.
El programa PRISM
guarda cierto parecido con La
Máquina de la serie de televisión Person of Interest, aunque
bastante menos sofisticado. De hecho, Time ha entrevistado a Jonathan Nolan,
creador de la serie, quien se ha mostrado muy poco sorprendido por la noticia.
“Habiéndome sido concedido el don de la profecía”, bromea, “ahora voy a apostar
por los jet packs“.
La habitación secreta
Ya en 2006 un antiguo
empleado de la compañía telefónica AT&T, Mark Klein, reveló al público la
existencia de “habitaciones secretas” en las instalaciones de la compañía para
intervenir el tráfico de internet que pasaba por sus redes. El problema que
tenía la NSA es
que era incapaz de trabajar con una cantidad de datos tan inmensa.
La solución vino,
curiosamente, de la propia Google y más tarde de Yahoo. Encontrándose con problemas
similares, ambas compañías desarrollaron estructuras de datos y algoritmos
distribuidos para poder trabajar con ese volumen de información. Son las
llamadas bases de datos NoSQL. La versión de Google se llama BigTable, la de
Yahoo Hadoop y la de la NSA
se llama Accumulo. Fue creada en 2008. Tanta información es la que ha obligado
a la NSA a
construir un inmenso centro de datos en Bluffdale, Utah, donde almacenarla y
analizarla.
Pero si la NSA ya consigue interceptar
una parte del tráfico de internet, ¿para qué necesita la colaboración de
Microsoft, Google y Yahoo? Pues porque la agencia se ha encontrado con el
problema del cifrado. Cada vez más conexiones a internet están protegidas, y
aunque pudiera descifrarlas, el esfuerzo informático necesario para ello lo
hace inviable. De modo que disponen una suerte de puerta trasera a los datos de
estas empresas, según los documentos filtrados por Edward Snowden.
Informador Público,
15-6-13