/, Actualidad Económica, EL PAÍS/¿Cómo quedaría tu barrio tras un bombardeo?

¿Cómo quedaría tu barrio tras un bombardeo?

Y si de pronto unos drones comenzasen a lanzar bombas en nuestro barrio? ¿Y si el conflicto en Siria se trasladase a nuestras calles? ¿Cómo nos sentiríamos? ¿Nos haría eso más sensibles al sufrimiento ajeno, el que padecen las víctimas de los desastres? ¿Y si para saberlo no nos hiciera falta vivirlo? ¿Podría un sistema de inteligencia artificial (IA) hacerlo posible? Es lo que trata de demostrar el equipo del Instituto Tecnológico de Massachusetts (MIT) detrás de Deep Empathy (Empatía Profunda).

“50 millones de niños alrededor del mundo han migrado fuera de sus fronteras o han sido desplazados a la fuerza dentro de sus propios países. Solo en Siria, la brutal guerra de seis años ha afectado a más de 13,5 millones de personas y al 80% de los niños del país. Cientos de miles de personas han sido desplazadas y sus hogares destruidos”, destacan los creadores del proyecto. La dificultad para conceptualizar estas cifras y el escaso éxito del uso de estadísticas para generar una respuesta son el problema de base y su punto de partida. “¿Y si los tecnólogos, a través de herramientas como la IA, pudieran ayudar a las personas a ver las cosas de manera diferente?”, se plantean.

Ejemplo de cómo se ha transformado la imagen de la ciudad de Boston (EE UU) a partir de otra de Homs (Siria).

Para intentar darle respuesta a esta cuestión han seguido la siguiente estrategia: modificar imágenes de vecindarios de todo el mundo con un filtro que simule cómo quedarían tras un ataque, en medio de un conflicto similar al sirio. ¿Cómo? Mediante una tecnología de aprendizaje profundo que reconoce cuáles deben ser las características que deben trasladarse a dichas imágenes (fotografías de cada barrio) para que cualquier persona pueda visualizar el desastre en el entorno que le rodea, en su propio hogar o en el de sus vecinos. Ayudarnos a ver elementos reconocibles de nuestras vidas a través de la lente de aquellos que experimentan circunstancias muy diferentes, teóricamente a un mundo de distancia.

Montaje hecho a partir de las imágenes de varias ciudades antes y después de ser tratadas.

El reto es doble: primero, la tecnología debe aprender empatía; después, debe ser capaz de inducirla. Y para todo ello requiere de la interacción con personas. Nos lo explica el español Manuel Cebrián, uno de los responsables de Deep Empathy, junto con sus compañeros Pinar Yanardag e Iyad Rahwan del grupo Cooperación Escalable del laboratorio MIT Media Lab. Inicialmente realizaron varias pruebas con 4.500 personas para saber si una foto les podría generar empatía sobre estas situaciones y el resultado fue que sí en el 80% de los casos, comenta Cebrián.

A medida que la herramienta obtiene respuestas de más usuarios, esta refina más su técnica de modificación de las imágenes para reforzar su poder para causar empatía. Por eso, aprovechando la época navideña, el equipo del MIT lanzó junto con Unicef -su socio en este proyecto- una campaña online para recoger respuestas de la mayor cantidad de personas posibles. Ya son más de 10.000 usuarios, y subiendo. Cualquiera puede ayudar a entrenar a Deep Empathy mediante esta encuesta, en la que hay que elegir qué imagen –entre una selección- nos hace sentir más empatía hacia las víctimas de la crisis en Siria.

El proyecto toma como referencia imágenes reales de ciudades. Por ejemplo, esta de la Gran Vía de Madrid.

Por poner un ejemplo, la primera instantánea que usaron para probar el filtro de Deep Empathy fue de la Gran Vía madrileña, que a Cebrián le recuerda a un cuadro de Antonio López.

Ahora quieren probar también con fotografías en tres dimensiones para trasladar el escenario a un entorno de realidad virtual que haga la experiencia aún más realista.

La misma imagen de Madrid, después de ser tratada por el sistema.

Paralelamente, el grupo trabaja con una psicóloga experimental que estudia, de forma offline -con otra muestra de personas- qué provocan exactamente las imágenes generadas por la IA. Con todo ello, aspiran a que al menos un 90% de aquellos que han sido expuestos a esas imágenes tenga la sensación de entender realmente por lo que están pasando las víctimas de un conflicto.

Esto servirá a Unicef -a cuyas manos pasará finalmente la tecnología- para filtrar de forma óptima las fotografías para sus campañas y seleccionar las que más empatía generan. “Uno de sus principales problemas es que tardan meses en montar estas campañas, y necesitan tener un sistema que, en el momento en el que ocurre el desastre, te ponga en situación para que los donativos lleguen a tiempo cuando más falta hacen”, explica Cebrián. Deep Empathy puede permitirlo, y además reducir a cero el presupuesto de marketing destinado a ello.

En estos tiempos en los que tanto nos gusta filosofar sobre los peligros y (menos) sobre las bondades de la IA, Deep Empathy ofrece un ejemplo de uso de esta tecnología para una buena causa. En este sentido, Cebrián critica que “se habla mucho en abstracto de la ética y la inteligencia artificial” y cree que “una visión tan generalista de la realidad no es útil para la tecnología”. Entre otras cosas, porque “una pequeña modificación puede cambiarlo todo y convertirlo en algo peligroso”, incluso en un proyecto como Deep Empathy.

Con este trabajo, el investigador español y sus compañeros esperan cerrar una trilogía, que completan Shelley -la IA que escribe relatos de terror- y Nightmare Machine -una máquina de pesadillas que crea imágenes terroríficas a partir de caras de personas y monumentos- de las que ya hemos hablado en EL PAÍS RETINA.

Fuente: El País

By |2018-01-12T09:23:31+00:00enero 12th, 2018|Actualidad de Empresas, Actualidad Económica, EL PAÍS|Comentarios desactivados en ¿Cómo quedaría tu barrio tras un bombardeo?