//

miércoles, 27 de noviembre de 2024

El algoritmo de Facebook recopila datos sobre el estado mental de los usuarios

Facebook ha desarrollado un sistema de Inteligencia Artificial que detecta conductas de posible suicidio

en Europapress 12/01/2019
0 comentarios
Facebook Letras
Una de las principales preocupaciones es que los datos sobre salud mental son información mucho más sensible

El suicidio es algo contra lo que las grandes tecnológicas tratan de luchar en Internet. Por ejemplo, cualquier búsqueda relacionada con quitarse la vida en Google, o mediante Siri u otros asistentes inteligentes, arroja como primer resultado el número del Teléfono de la Esperanza, una línea telefónica de prevención del suicido.

Por supuesto, las redes sociales también quieren cubrir este aspecto y permiten a sus usuarios, por ejemplo, denunciar si un contenido indica que un usuario quiere lesionarse. Además, por ejemplo,  Facebook lanzó en 2017 un sistema basado en Inteligencia Artificial con el objetivo de prevenir situaciones de posible suicido. La decisión fue tomada después de que varios usuarios de la red social se quitasen la vida en vídeos en directo.

Este algoritmo trata de buscar comportamientos y publicaciones en la red social que puedan indicar que un usuario está pensando en hacerse daño a si mismo. De esta manera, se califican casi todas las publicaciones con un cero o con uno, siendo uno “peligro de autolesiones inminente”. Esto significa queFacebook guarda información sobre el estado mental de sus usuarios, lo que a la vista de las distintas brechas de seguridad de 2018, preocupa a los expertos en seguridad.

Una de las principales preocupaciones es que los datos sobre salud mental son información mucho más sensible que, por ejemplo, los hábitos de compra de los usuarios. Y el problema es que esta información sobre salud mental que recoge Facebook no se encuentra bajo las mismas leyes de protección de datos que la información que manejan las empresas médicas.

En el caso de Estados Unidos, la información que recopilan estas empresas está protegida bajo la ley “Health Insurance Portability and Accountability Act” (HIPAA), que contiene medidas especiales de privacidad que incluyen encriptación de los datos y prohibiciones a la hora de compartirla.

Facebook, al no obtener este tipo de información bajo condiciones médicas, no tiene la obligación de tratar los datos sobre salud mental otorgados por su algoritmo con ningún tipo de distinción. Por su parte, Facebook asegura que la información que indica que un usuario no está en riesgo de suicidarse, es eliminada cada 30 días.

La red social no ha compartido ningún tipo de dato sobre qué hace con la información (ni cuánto tiempo la almacena) de aquellos casos que presentan un riesgo más alto de suicido. La posibilidad de que esta información se filtre en una futura brecha, es lo suficientemente preocupante para que, a pesar de a labor que la red social hace en la lucha contra el suicidio, haya recelo sobre el manejo de Facebook de este tipo de datos.


Compartir


Deja tu comentario

Condición de protección de datos