El muro de Facebook apunta ya a convertirse en el diván, y quizás en el psicólogo del mundo. Los responsables de la red social más popular (1.860 millones de personas a finales del pasado 2016) anunciaron este lunes que comenzarán a aplicar filtros de inteligencia artificial a detectar aquellos estados de ánimo depresivos que podrían llevar al suicidio. Para ello escanearán comentarios, fotografías y vídeos en busca de «patrones» como frases o actitudes que puedan hacer pensar en que alguien piensa en quitarse la vida. Sus algoritmos lanzarán entonces una alerta al usuario para ofrecerle ayuda pero a la vez avisarán a empleados de la compañía que pueden dar la voz de alarma a agentes policiales de que esa persona podría estar en serio peligro. Y a partir de ahí, vuelta a la vida analógica: comprobaciones y asistencia médica si es necesario.

La medida supone una vuelta de tuerca importante: el hecho de que sean máquinas y no personas quienes lancen la alerta y se tenga en cuenta, algo que puede generar polémica. Hasta ahora, Facebook permite informar (más bien denunciar) a un usuario que uno de sus amigos del muro podría estar en situación de pensar en el suicidio y un equipo de revisores de la red social lo revisa y lanza la alerta, si procede. Varias denuncias sobre usuarios que se suicidaron mientras utilizaban la función Facebook Live, que retransmite vídeo en directo, mientras otros supuestamente «amigos» de su círculo les animaban o bromeaban sobre ello, han hecho que la empresa se replantee su política e introduzca filtros automáticos en textos, fotos y vídeos.

Según afirmaba ayer el máximo responsable de Facebook, Mark Zuckerberg, en la red social, se trata de «un importante paso adelante» para ayudar a prevenir suicidios que «permite responder 100 veces más rápido» que hasta ahora.

Campaña

Según explica Guy Rosen, vicepresidente de producto de la compañía, esta campaña también implica «dedicar más revisores» a analizar las denuncias y «mejorar cómo identificamos a los primeros que responden» (en EEUU hay acuerdos con oenegés dedicadas al tema).

El recurso automático se implantará en varios países, aunque no en la Unión Europea.

Tras el anuncio de la citada herramienta, Zuckerberg va más allá y no esconde que «en un futuro, la inteligencia artificial será capaz de interpretar mejor los matices sutiles del lenguaje, y será capaz de identificar distintos temas más allá del suicidio también, incluyendo más tipos de acoso y odio».