08 Março 2019
Bem como toda a internet, as redes sociais tornaram possível o fácil acesso às informações de um modo geral (sejam elas corretas ou não), e infelizmente isso trouxe muitas consequências para pessoas que já passaram por traumas ou enfrentam problemas psicológicos e, por isso, são consideradas mais frágeis de lidar com imagens e vídeos de tragédias compartilhados de forma frenética no Facebook, Instagram, WhatsApp e tantas outras plataformas.
Recentemente, a jovem Molly Russel de 14 anos se suicidou após ter visto imagens de pessoas praticando automutilação no Instagram e no Pinterest, acredita a família. Mas precisou este e vários outros casos acontecerem para o Instagram finalmente fazer algo a respeito em nível global.
De acordo com nota enviada à imprensa, Adam Mosseri, Chefe de Produto do Instagram, revelou ao jornal inglês The Telegraph que a rede esta investindo em "engenheiros e revisores de conteúdo treinados" para dificultar a procura por conteúdos sensíveis. O executivo afirma que a plataforma já bloqueia imagens, hashtags e contas por recomendações que apresentam tais conteúdos e acrescenta que o Instagram vai oferecer "melhor suporte para pessoas que postam imagens indicando que podem estar sofrendo com autoflagelação ou suicídio."
O assunto é sério: segundo a BBC, o Instagram havia afirmado que não remove automaticamente conteúdos sensíveis e aflitivos pois a rede teria sido aconselhada por especialistas que permitir aos usuários compartilhar histórias com a comunidade pode ajudá-los no processo de recuperação.
O Facebook agora utiliza ferramentas de inteligência artificial que detecta potenciais suicidas para tentar ajudá-los. E como sociedade, devemos fazer o mesmo.
Caso você conheça pessoas que precisem de apoio emocional ou queira conversar com alguém, o órgão de Centro de Valorização da Vida está sempre disponível pelo site www.cvv.org.br ou pelo número 188.
Comentários