Quinta-feira, 18 de abril de 2024
Por Redação O Sul | 5 de dezembro de 2017
A CEO do YouTube, Susan Wojcicki, revelou nesta terça-feira (5), em nota oficial, novas medida para proteger sua comunidade contra conteúdos que, de alguma forma, transmitam violência, extremismos e intolerância.
O longo post no blog oficial do Google conta que novos sistemas foram testados no último ano como forma de combater ameaças existentes, e que possam surgir, aumentando as equipes de fiscalização e focando em tecnologias de aprendizado de máquina (machine learning).
De acordo com Susan Wojcicki, as lições aprendidas com problemas passados finalmente estão prontas para serem colocadas em prática.
Para a Google, o julgamento humano é mais crítico na hora de tomar decisões sobre o conteúdo avaliado e, desde o mês de junho, equipes de segurança vêm revisando milhões de vídeos de forma manual para treinar a tecnologia de aprendizado de máquina. Assim, será mais fácil fazer que os robôs executem bem a função no futuro, sem depender de um ser humano.
A companhia já havia anunciado anteriormente que passou a tomar medidas mais agressivas na hora de moderar os comentários.
Ainda de acordo com a nota, centenas de contas e centenas de milhares de comentários foram retirados do ar, numa medida que também denunciou comportamentos predatórios aos órgãos responsáveis.
“Nós vamos manter o aumento significativo das nossas equipes no próximo ano, com o objetivo de elevar para mais de 10.000 o número de pessoas em toda a Google trabalhando para encontrar conteúdos que possam violar nossas políticas em 2018”, conta Wojcicki.
Desde junho de 2017 até a data presente, o YouTube conquistou um enorme progresso com o uso da tecnologia e de moderadores humanos trabalhando em conjunto com robôs.
Foram mais de 150 mil vídeos de conteúdo extremista violento retirados do ar, sendo 98% deles identificados com os algoritmos da tecnologia do aprendizado de máquina.
Os robôs estão ajudando moderadores humanos a retirarem cinco vezes mais vídeos do que era feito antes, sendo um volume equivalente aos esforços de 180 mil pessoas trabalhando por 40 horas semanais.
Transparência
Segundo Susan Wojcicki, a companhia entendeu que as pessoas querem ter uma visão mais clara sobre como o YouTube resolve os problemas de conteúdo. A empresa divulga suas “Diretrizes para Comunidade”, para informar aos usuários sobre o que não é permitido nas plataformas da companhia, que quer compartilhar mais informação sobre como é executado o processo todo. Por isso, disse a executiva, em 2018 será criado um relatório permanente no qual serão fornecidos dados mais completos sobre as indicações que a companhoa recebe e as ações que foram tomadas para remover vídeos e comentários. Também estão sendo desenvolvidas ferramentas adicionais para ajudar a levar mais transparência sobre os conteúdos indicados.
A companhia também anunciou uma nova forma de abordagem de anúncios, pois muitas empresas acabaram tendo a sua marca veiculada em vídeos de conteúdo impróprio.
A CEO conta que serão aplicados critérios rígidos, com foco na curadoria manual, aumentando de forma relevante a equipe de revisores.