in

TikTok anuncia atualização sobre proteção e explica como funciona algoritmo

A plataforma revelou que o sistema de indicação é similar ao que fazem serviços de streaming, sugerindo novos artistas com base nas músicas ouvidas

Foto: Cottonbro/Pexels

O TikTok anunciou atualizações na sua plataforma no quesito segurança do usuário. As mudanças vão desde a diversificação das recomendações no feed do “For You”, até uma ferramenta para permitir que às pessoas possam escolher palavras ou hashtags relacionadas com conteúdos que elas não querem ver.

“Nosso objetivo é fomentar um ambiente em que as pessoas se sintam seguras e apoiadas por serem exatamente quem são, seja criando vídeos para a nossa comunidade ou assistindo a eles”, revela o TikTok.

Primeiro entenda como funciona o feed “For You”

Existem muitas formas de descobrir e assistir a vídeos no TikTok, e o feed “For You” é parte do que permite às pessoas explorem a diversidade de ideias, criadores e interesses. O algoritmo de indicação é similar ao que fazem serviços de streaming, sugerindo novos artistas ou filmes com base nas músicas ouvidas ou filmes assistidos.

“Nosso sistema leva em consideração uma série de sinais de engajamento, como curtidas, pessoas que você segue e vídeos assistidos, para sugerir outros vídeos que possam ser interessantes”, conta a plataforma.

Para manter o feed “For You” atualizado – e quebrar padrões repetitivos – o sistema de recomendação trabalha intercalando diferentes tipos de conteúdo com aqueles que as pessoas já sabem que gostam.

No entanto, alguns tipos de vídeo podem, de forma inadvertida, reforçar uma experiência pessoal negativa para alguns espectadores. Por isso, o TikTok resolveu compartilhar mais sobre o trabalho que está desenvolvendo nos bastidores para melhorar a experiência dos espectadores dentro da plataforma.

Foto: Divulgação

Diversificando as recomendações

No TikTok, o sistema de recomendação trabalha para intercalar recomendações que podem estar fora das preferências escolhidas pelos usuários, oferecendo a oportunidade de descobrir novas categorias de conteúdo.

“Por exemplo, nossos sistemas não vão recomendar dois vídeos seguidos de um mesmo criador ou com um mesmo som. Isso enriquece a experiência de visualização e pode ajudar a promover uma exposição a uma variedade de ideias e perspectivas em nossa plataforma”, revelam.

Conforme a plataforma desenvolve novas estratégias para interromper padrões repetitivos, buscam maneiras de como o sistema pode variar os tipos de conteúdos recomendados em sequência. “É por isso que estamos testando formas para evitar recomendar uma série de conteúdos similares para proteger as pessoas de verem muito conteúdo de uma categoria que pode ser boa como um único vídeo, mas, problemática, se for vista em blocos”.

“Estamos informando especialistas de diferentes áreas, como medicina, psicologia clínica, e ética de Inteligência Artificial, membros do nosso Conselho Consultivo de Segurança, e nossa comunidade sobre este trabalho através de conversas que estão ocorrendo”, garante.

Leia mais:

Uma nova forma de moldar o que você vê

À medida que incluem segurança no TikTok desde o planejamento, a plataforma revela que também quer dar às pessoas mais opções de escolha para personalizar suas experiências de acordo com suas preferências e comodidade.

“Por exemplo, estamos trabalhando em uma ferramenta que permitiria às pessoas escolher palavras ou hashtags relacionadas com conteúdo que elas não querem ver no feed “Para Você”. Já permitimos que as pessoas cliquem em qualquer vídeo e selecionem “Não me interessa” para pular automaticamente futuros vídeos daquele mesmo criador ou usando o mesmo áudio”.

Essa nova ferramenta vai oferecer mais uma forma de ajudar as pessoas a customizarem seu feed – seja para um vegetariano ver menos receitas com carne, ou alguém trabalhando sua autoestima que queira ver menos tutoriais de beleza.

Incluindo Segurança nas recomendações

O feed “For You” possui uma série de proteções para nos ajudar nesse objetivo. Além de remover conteúdo que viola as Diretrizes da Comunidade, a plataforma tenta não recomendar algumas categorias de conteúdo que podem não ser apropriadas para uma audiência mais ampla.

“Nosso time de segurança toma medidas preventivas adicionais para revisar vídeos conforme eles se tornam mais populares para diminuir a probabilidade de ser apresentado conteúdo que não seja adequado para uma audiência mais ampla entrar em nosso sistema de recomendação”, garantem.

Por fim, a plataforma revela que está comprometida em trazer transparência para esse trabalho e como o sistema opera mais amplamente, incluindo nos Centros de Transparência e Responsabilidade. “Conforme aprendemos ou progredimos, vamos compartilhar as atualizações”, finalizam.