Vida

Cómo Facebook está ayudando a las personas que luchan con problemas de salud mental


Facebook está haciendo grandes movimientos hacia la prevención del suicidio. La semana pasada, Mark Zuckerberg anunció que Facebook ahora está usando esa cosa espeluznante llamada inteligencia artificial para detectar e informar el comportamiento suicida en la plataforma. Instagram lanzó características similares de prevención del suicidio hace unos meses pero sin IA (robots ??).

En el pasado, una cantidad algo alarmante de contenido suicida de Facebook no se informaba, por lo que la plataforma está mejorando su juego para captar las publicaciones y los videos que los usuarios no informan. Presumiblemente, las personas no se dieron cuenta de la gravedad del problema de su amigo o no vieron la publicación a tiempo, pero de cualquier manera, este es su recordatorio para mantener los ojos bien atentos a las cosas que parecen preocupantes en su alimentación; nunca está de más ser extra cauteloso

Compartir en Pinterest

¿Cómo la IA atrapa esto? Utiliza reconocimiento de patrones y palabras clave, comentarios como "¿Estás bien?" O "¿Necesitas ayuda?", Para detectar e informar publicaciones potencialmente dañinas.

Facebook puede enviar inmediatamente recursos (o ayuda, ahora tiene un equipo de moderadores capacitados en prevención de suicidios de guardia 24/7) a la persona que publica el contenido suicida. La tecnología también prioriza las publicaciones o videos que parecen particularmente urgentes o peligrosos, por lo que los usuarios con mayor riesgo obtienen ayuda primero.

Para ser totalmente honesto, a veces la IA nos asusta. Es un producto poderoso y aterrador de la era tecnológica. Pero cuando se usa para bien, en realidad puede salvar vidas. Y eso siempre vale la pena.