El mundo ya no es lo que era. Hasta las
cuestiones más básicas de nuestra vida cotidiana han cambiado. La forma de
elegir a nuestra futura pareja, nuestras finanzas, nuestras emociones. incluso
la hora de nuestra muerte es materia prima para las nuevas tecnologías.
Hace 40 años, los algoritmos eran utilizados para
calcular las rutas de los satélites estacionarios. Ahora se emplean para
administrar los aspectos fundamentales de nuestra biografía. Y más vale que nos
acostumbremos porque esto es solo el principio. Éstos son los siete algoritmos
que marcarán la tendencia:
1.
Encuentra a tu pareja en la web. En el futuro, cuando
una pareja de ancianos nos cuente que se conocieron en una verbena, nos
invadirá una profunda nostalgia. Lo cierto es que esto de ligar por internet no
es nuevo, sobre todo desde que irrumpieran, a finales de los años 90, los
servicios de chat IRC, que
reinventaron la manera en que la gente se relacionaba, con independencia de su
localización geográfica.
La auténtica revolución ha venido en los últimos
años con las webs de citas. Esas
páginas de internet donde la gente se registra con la esperanza de encontrar a
su media naranja.
En algunas como match.com, el servicio es extremadamente personalizado y hay que
indicar desde el color del cabello hasta los gustos musicales a fin de de
encontrar afinidades con la pareja adecuada.
No son pocas las personas que dudan de que este
sistema sea la vía correcta para encontrar a la persona ideal. Sin ir más
lejos, Chris Mckinley, un joven matemático estadounidense, harto de los
fracasos que obtenía en webs como match.com o okcupid.com, decidió forzar los
valores, resaltando algunos aspectos de su personalidad en el límite de lo que
sería un perfil falso. Solo así pudo conocer a Christine, con la que se casaría
varios años después.
2. Cuando
Google te enseña lo que no estás buscando. El
algoritmo de búsquedas de Google ha sido puesto en entredicho muchas veces,
sobretodo su controvertido sistema de sugerencias. Se trata de esas
recomendaciones automáticas que emerge cuando vas escribiendo algo en
la barra de búsqueda y aún no has terminado. Pretende ser una forma de agilizar
y facilitar la labor del usuario anticipándole lo que quiere encontrar, pero
el resultado puede ser de lo más inesperado.
La periodista Carole Cadwalladr soltó la liebre a
raíz de una serie de artículos en los que denunciaba la forma en que ideologías
de extrema derecha se habían aprovechado de los algoritmos del famoso buscador,
moviendo la balanza peligrosamente hacia interpretaciones xenófobas y machistas
relacionadas con ciertos términos de búsqueda.
Así, si escribías en la expresión “Are muslim” en
la barra de búsqueda, automáticamente el sistema sugería: “Are muslim bad?”
(¿Los musulmanes son malos?) como primera opción entre las sugeridas por
google.
También sucedía con otros colectivos, razas o
etnias. Cadwalldr comprobó que al iniciar la redacción de la expresión “Are
black people”, la sugerencia inmediata era “Are black people brain smaller?”
(¿Los negros tienen el cerebro más pequeño?). La lista de agraviados continúa,
según pudo verificar la periodista, con los judíos y las mujeres. Un experimento
que puso de relieve la manera en que la extrema derecha se ha apropiado del
espacio digital y de sus algoritmos de búsqueda, monopolizando muchos
términos de búsqueda. Cabe recordar que el sistema de sugerencias de Google se
basa en las palabras y expresiones más buscadas, por lo que otra lectura sería
que un inquietante tanto por ciento de los usuarios de este buscador tuviese una
marcada ideología fundamentalista. Quizás ocurra que algunos de los pilares en
los que se asienta nuestra civilizada sociedad tengan una inusitada naturaleza
machista, intolerante y supremacista, casi rayana en un protofascismo.
Si buscas información sobre el Holocausto en Google, es posible que llegues a pensar que nunca existió (Fuente: Autor) |
3. Un
‘bot’ vela por tu dinero. En un mundo en el que las
prisas y la eficiencia se han convertido en el signo de los tiempos, la
economía no podía quedarse al margen. La información sobre productos
financieros se mueve cada vez más rápidamente. A tal punto esto es así que ya
está sucediendo que los mercados de valores están empezando a ser gestionados
por robots bursátiles. Son algoritmos que toman millones de decisiones por
segundo, haciendo ganar a sus administradores grandes cantidades de dinero.
Estos sistemas manejan una cantidad ingente de variables económicas que
permiten anticipar determinadas tendencias y provocan rápidas decisiones por
parte de grupos de inversores. Así, podrías comprar un edificio si sabes antes
que nadie que su valor va a subir un 50% en solo unos días, para luego
venderlo con grandes ganancias. El problema es que la falta de reflexión, así como algunos errores
informáticos que en principio podrían no tener mayor trascendencia, han
precipitado problemas monumentales.
Así, el 6 de mayo de 2010, la bolsa de Nueva York
se desplomó nada menos que 1.000 puntos debido a un algoritmo mal programado. También fue ésta fue la causa de que quebrara Knight Capital Group, una
potente firma americana de servicios financieros, dejando un agujero de 440
millones de euros.
¿Podría un bug informático ocasiones la próxima
crisis económica mundial? Yo no lo descartaría.
Como tampoco descuidaría mi bolsillo porque
podría dar la impresión de que estos problemas solo afectan a fondos de
inversión o brokers de bolsa. El
Sistema ya está haciendo todo lo posible para “fiscalizar” tus cuentas y
seguramente ya te habrá sugerido que te descargues alguna atractiva aplicación
para administrar tu economía doméstica. Fintonic
es uno de esos programas (aunque también han incorporado esta funcionalidad
entidades bancarias como el Banco Santander). Promete gestionar tus cuentas
bancarias, mediar a la hora de negociar un préstamo con algún banco, pero
también te avisa cuando estés gastando más de la cuenta y te aconseja de qué forma mover tu dinero. ¿Estamos dispuesto a dejar nuestros ahorros en manos de
robots?
4. Saludos
de Minority Report. Al igual que ocurría en la famosa película de Steven Spielberg (2002),
ya existen unidades de la policía especializadas en prevenir crímenes. Un
escenario que prometedor en cuanto a la lucha contra la criminalidad pero que
también abre agrios debates en torno a la utilización de datos personales, que
determinados grupos sociales o étnicos sean señalados constantemente por estos
sistemas o la dudosa legalidad de ser detenido antes de haber cometido un
delito.
Uno de estos proyectos ya tiene implantación en
algunas ciudades de Estados Unidos. Se trata del sistema CRUSH (Criminal
Reduction Utilizing Statistical History) desarrollado por IBM. Actualmente se
está llevando a cabo en la ciudad de Memphis. En 2010, un informe del FBI
advirtió del aumento de la criminalidad en esta ciudad estadounidense. Como los
sistemas tradicionales no funcionaban se optó por un cambio radical de enfoque.
CRUSH, utilizando una cantidad enorme de variables, desplegó un mapa de puntos
calientes, analizando registros pasados y presentes de la criminalidad. El
software permitió una distribución más eficientes de recursos y personal. Los
resultados en penas un par de años es que la delincuencia se redujo en un 30%,
un 15% eran crímenes violentos.
En Europa existen proyectos similares. Un
software, al que sus desarrolladores han tenido la gracia de denominar PRECOBS(Pre-Crime Observation System), en clara referencia a la unidad policial de la
ya citada película de Spielberg, se está implantando en ciudades como Berlín.
Recopila datos de un lugar y hora y busca un patrón. De esta forma se apunta a
futuros objetivos. La idea en la que se basa el sistema es que los delincuentes
actúan siempre de la misma manera.
Todo parece ideal. Sin embargo, el problema del
que han alertado algunas asociaciones de derechos humanos es que estos estos
software pre-crimen pongan siempre el foco en los mismos colectivos: barrios
marginales, comunidades negras o latinas, etc. Al margen de la legalidad de la
actuación para evitar el delito, porque aún no nos queda claro cómo se actúa
cuando salta una luz roja. Imaginamos que no se puede detener a nadie sin
adjudicarle un cargo que no se ha producido. Auguramos trabajo para los
abogados de lo penal.
![]() |
Los misteriosos precog de la película Minority Report podían conocer con antelación la comisión de un crimen |
5. La
guerra de los drones. En 2014, las revelaciones de
Edward Snowden, ex agente de la NSA (Agencia Nacional de Seguridad de Estados
Unidos), sobre programas secretos de
vigilancia a ciudadanos de todo el mundo supuso una conmoción global. Todos
temíamos que algo así pudiese estar ocurriendo desde hace tiempo, sobre todo
después del 11-S, momento a partir del cual la privacidad dejó de ser un valor
sagrado en nuestra sociedad. Si eres anónimo, eres sospechoso. Snowden dio carta
de veracidad a todas estas sospechas.
Sin embargo, hasta entonces pensábamos que eran
una serie de agentes lo que monitorizaban nuestras conversaciones de teléfono,
emails, etc. Vamos, personas de carne y hueso. Una de las revelaciones más
sorprendentes de ex analista de la NSA es que de esta labor se encargaban una
serie de algoritmos. Debido al enorme volumen de información a escrutar, no
era suficiente con una plantilla de analistas. Debían ser máquinas las que
hiciesen millones de operaciones por minuto. Sentimos un cierto alivio al
pensar que nuestras intimidades no eran observadas por otros seres humanos. Pero un escenario en el que las máquinas deciden quien es sospechoso de
terrorismo no parece muy esperanzador.
Uno de los proyectos secretos de vigilancia
descritos por Snowden hace referencia al programa de drones desplegado en
Pakistán. Skynet, un algoritmo autodidacta, se encarga de identificar
terroristas en este país, momento en el que se envía un drone con la finalidad
de eliminarlo. El problema es la escasa fiabilidad de estos sistemas, tal y
como expresa Patrick Ball, analista de datos del Grupo de Análisis de Datos
para los Derechos Humanos, quien está seguro que los drones han matado
inocentes.
No nos cabe duda de que estamos viviendo una
época inquietante de la Historia, una época en la que seguramente están
teniendo lugar las primeras víctimas humanas a manos de las máquinas.
6. Tu
ordenador sabe que estás triste. Uno de los sueños
dorados de los ingenieros de Inteligencia Artificial es que una máquina pueda generar la capacidad de
interactuar emocionalmente con un humano. Y poco a poco se van dando pasos
en este sentido. Emoshape es una
empresa tecnológica ubicada en Londres. Sus responsables aseguran haber
desarrollado un dispositivo para leer las emociones denominado Emospark. El dispositivo mide el estado
de ánimo del usuario y reacciona en función de ello, ofreciéndole música,
juegos, o vídeos que le resulten agradables. Se trata de la primera Inteligencia
Artificial del mundo, aseguran desde Emoshape.
En los tiempos actuales parece haber una
necesidad creciente de volcar nuestros sentimientos en un dispositivo
electrónico, tal y como ocurre en la película Her (Spike Jonze, 2013) en la que su protagonista acaba
enamorándose de un algoritmo superinteligente. Probablemente, se trate de una
expresión de la soledad que atenaza en todo momento al ser humano.
Por cierto, si te lo estás preguntando, Emospark
saldrá al mercado a un asequible precio de 250 euros.
![]() |
No es un consola de videojuegos. Esta cajita tan cool promete leer tus emociones y ayudarte a tener un buen día. |
7.
¿Sabremos cuando vamos a morir? Una inquietud que asola a la especie humana desde tiempos inmemoriales es conocer la
hora de la muerte. Ahora mismo resulta una fantasía, pero quizás haya que darle tiempo al
tiempo. En el Beth Israel Deaconess Medical Center disponen de
un sistema informático que, según dicen sus administradores, asegura si un
paciente va a morir dentro de los próximos treinta días con una fiabilidad de
un 96%. Y por la experiencia que van acumulando, parece que este pronóstico se
cumple casi a rajatabla.
El software registra los niveles de oxígeno y
presión arterial del enfermo cada cinco minutos. Posteriormente se registra con
el historial de 250.000 pacientes, y un algoritmo determina la probabilidad del
deceso.
Una vez más, nos encontramos con la controversia
de la seguridad en el manejo de datos, si éstos están siendo manejados con las
debidas garantías, ya que se trata de información sensible sobre el estado de
salud de personas concretas, y si existe legislación que ampare esta praxis.
A nosotros, más allá de estas consideraciones,
también nos preocupa que algún día un algoritmo llegue a determinar el día y
hora de la muerte de una persona, y que de esta forma el destino de cualquiera pueda estar predeterminado, quizás desde el día que nazca.
Todas estas aplicaciones nacen de la
desesperación ante la incertidumbre, de la necesidad de controlar el entorno y el
tiempo. Probablemente, sean herencias de algún antiguo sistema de
supervivencia. Lo cierto es que delegar la administración de nuestras
inquietudes más importantes en máquinas y ordenadores pueda algún día pasarnos
factura.
Autores como Martin Rees llevan años hablando de
la probabilidad de que algunos de estos algoritmos provoque el despertar de la
conciencia (o algo parecido a la conciencia) en algún sistema informático.
Quizás, ese día esa máquina decida tomar las riendas...Pero esyo ya será motivo
para otro post.
Comentarios