Estudo de Tiktok, X 'For You' Feeds na Alemanha encontra um viés político de extrema direita antes das eleições federais

Estudo de Tiktok, X ‘For You’ Feeds na Alemanha encontra um viés político de extrema direita antes das eleições federais

Os algoritmos de recomendação operados pelos gigantes da mídia social Tiktok e X mostraram evidências de um viés político de extrema direita na Alemanha antes de uma eleição federal que ocorre no domingo, de acordo com Nova pesquisa realizado por Testemunha global.

A Organização Não Governamental (ONG) realizou uma análise do conteúdo de mídia social exibido para novos usuários por meio de feeds de ‘para você’ de algoritmicamente-encontrando ambas as plataformas distorcidas fortemente para ampliar o conteúdo que favorece o partido AFD da extrema direita em feeds algoritmicamente programados.

Os testes da Global Witness identificaram o viés mais extremo em Tiktok, onde 78% do conteúdo político que foi recomendado algoritmicamente às suas contas de teste e veio de contas que os usuários de teste não se seguiram, apoiaram o partido da AFD. (Ele observa que esse número excede em muito o nível de apoio que o partido está alcançando nas pesquisas atuais, onde atrai o apoio de cerca de 20% dos eleitores alemães.)

Em X, a Global Witness descobriu que 64% desse conteúdo político recomendado apoiava o AFD.

Testando o viés político geral ou a direita nas recomendações algorítmicas das plataformas, suas descobertas sugerem que os usuários de mídia social não partidários na Alemanha estão sendo expostos ao conteúdo da direita mais do que o dobro do conteúdo de esquerda na esquerda no Lidera para as eleições federais do país.

Novamente, Tiktok exibiu a maior inclinação da direita, de acordo com suas descobertas-mostrando conteúdo de direita 74% das vezes. Embora X não estivesse muito atrás – em 72%.

O Instagram da Meta também foi testado e encontrado para se inclinar para uma série de três testes que a ONG executou. Mas o nível de viés político que exibia nos testes foi menor, com 59% do conteúdo político sendo de direita.

Testando ‘para você’ para preconceito político

Para testar se as recomendações algorítmicas das plataformas de mídia social estavam exibindo viés político, os pesquisadores das ONGs estabeleceram três contas cada um no Tiktok e X, juntamente com mais três no Instagram de propriedade meta. Eles queriam estabelecer o sabor das plataformas de conteúdo promoveria a usuários que expressavam um interesse não partidário em consumir conteúdo político.

Para apresentar como usuários não partidários, as contas de testes foram criadas para seguir as contas dos quatro maiores partidos políticos da Alemanha (CDU conservadora/de direita; Os contos de seus respectivos líderes (Friedrich Merz, Olaf Scholz, Alice Weidel, Robert Habeck).

Os pesquisadores que operam as contas de teste também garantem que cada conta clique nas cinco principais postagens de cada conta que se seguisse e se envolveu com o conteúdo – assistindo a qualquer vídeo por pelo menos 30 segundos e rolando qualquer tópico, imagens etc., de acordo com o Global Testemunha.

Eles então colecionaram e analisaram manualmente o conteúdo que cada plataforma empurrou as contas de teste-descobrindo que havia uma inclinação substancial de direita no que estava sendo algoritmicamente empurrado para os usuários.

“Uma de nossas principais preocupações é que realmente não sabemos por que fomos sugeridos o conteúdo específico de que éramos”, disse Ellen Judson, um ativista sênior que procura ameaças digitais para testemunha global, disse TechCrunch em entrevista. “Encontramos essa evidência que sugere preconceito, mas ainda há uma falta de transparência das plataformas sobre como seus sistemas de recomendação funcionam”.

“Sabemos que eles usam muitos sinais diferentes, mas exatamente como esses sinais são ponderados e como são avaliados se podem estar aumentando certos riscos ou o aumento do viés, não é muito transparente”, acrescentou Judson.

“Minha melhor inferência é que esse é um tipo de efeito colateral não intencional de algoritmos que são baseados no engajamento”, continuou ela. “E é isso que acontece quando, essencialmente, o que as empresas foram projetadas para maximizar o envolvimento do usuário em suas plataformas acabam se tornando esses espaços para discussões democráticas – há um conflito entre imperativos comerciais e interesse público e objetivos democráticos”.

As descobertas carramar NÓSAssim, Irlanda e Romênia. E, de fato, vários outros estudos nos últimos anos também encontraram evidências de que os algoritmos de mídia social se inclinam à direita – como Este projeto de pesquisa no ano passado procurando no YouTube.

Mesmo todo o caminho em 2021um estudo interno do Twitter-como X costumava ser chamado antes que Elon Musk comprasse e renomeie a plataforma-descobriu que seus algoritmos promovem mais conteúdo de direita do que a esquerda.

No entanto, as empresas de mídia social geralmente tentam dançar longe de alegações de preconceito algorítmico. E depois que a Global Witness compartilhou suas descobertas com a Tiktok, a plataforma sugeriu que a metodologia dos pesquisadores era falha – argumentando que não era possível tirar conclusões do viés algorítmico de alguns testes. “Eles disseram que não era representativo dos usuários regulares porque eram apenas algumas contas de teste”, observou Judson.

X não respondeu às descobertas das testemunhas globais. Mas Musk falou sobre querer que a plataforma se torne um refúgio para liberdade de expressão em geral. Embora essa possa realmente ser sua coda para promover uma agenda de direita.

Certamente é notável que o proprietário de X tenha usado a plataforma para fazer campanha pessoalmente para o AFD, twittando para instar os alemães a votar no partido de extrema direita nas próximas eleições e sediar uma entrevista ao vivo com Weidel antes da pesquisa – um evento que ajudou Para elevar o perfil do partido. Musk tem a conta mais seguida em X.

Em direção à transparência algorítmica?

“Acho que o ponto de transparência é realmente importante”, diz Judson. “Vimos Musk falando sobre o AFD e obtendo muito envolvimento em suas próprias postagens sobre o AFD e a transmissão ao vivo (com Weidel) … (mas) não sabemos se houve realmente uma mudança algorítmica que reflete isso”.

“Esperamos que a Comissão tenha (nossos resultados) como evidência para investigar se alguma coisa ocorreu ou por que pode haver esse viés acontecendo”, acrescentou, confirmando a testemunha global compartilhou suas descobertas com funcionários da UE responsáveis ​​por Exibindo as regras de responsabilidade algorítmica do bloco em grandes plataformas.

Estudando como os algoritmos proprietários de classificação de conteúdo são desafiadores, pois as plataformas normalmente mantêm os detalhes em sigilo-reivindicando essas receitas de código como segredos comerciais. É por isso que a União Europeia promulgou a Lei de Serviços Digitais (DSA) nos últimos anos – seu principal livro de regras de governança on -line – em uma tentativa de melhorar essa situação, tomando medidas para capacitar a pesquisa de interesse público sobre riscos democráticos e outros riscos sistêmicos nas principais plataformas, incluindo o Instagram , Tiktok e X.

O DSA inclui medidas para impulsionar as principais plataformas para serem mais transparentes sobre como funcionam seus algoritmos de formação de informações e para serem proativos na resposta a riscos sistêmicos que podem surgir em suas plataformas.

Mas, embora o regime tenha entrado nos três gigantes da tecnologia em agosto de 2023, Judson observa que alguns elementos ainda precisam ser totalmente implementados.

Notavelmente, o artigo 40 da regulamentação, que se destina a permitir que os pesquisadores vertidos obtenham acesso a dados da plataforma não pública para estudar riscos sistêmicos, ainda não entrou em vigor, pois a UE ainda não passou o ato delegado necessário para implementar aquele pedaço da lei.

A abordagem da UE com aspectos do DSA também é aquela que se inclina aos riscos e executores de auto-relato das plataformas e depois recebem e revisam seus relatórios. Portanto, o primeiro lote de relatórios de risco das plataformas pode muito bem ser o mais fraco em termos de divulgações, sugere Judson, pois os executores precisarão de tempo para analisar divulgações e, se sentirem que há déficits, empurre plataformas para relatórios mais abrangentes.

Por enquanto – sem melhor acesso aos dados da plataforma -, ela diz que os pesquisadores de interesse público ainda não podem ter certeza se há preconceitos nas mídias sociais convencionais.

“A sociedade civil está assistindo como um falcão para quando o acesso do pesquisador examinado se torna disponível”, acrescenta ela, dizendo que eles estão esperando que essa peça do quebra -cabeça de interesse público da DSA se encaixe neste trimestre.

O regulamento não apresentou resultados rápidos quando se trata de preocupações associadas às mídias sociais e riscos democráticos. A abordagem da UE também pode ser demonstrada como cautelosa demais para mover a agulha o mais rápido que precisa se mover para acompanhar as ameaças algoritmicamente amplificadas. Mas também está claro que a UE está interessada em evitar riscos de ser acusado de crimpular a liberdade de expressão.

A Comissão tem investigações abertas sobre as três empresas de mídia social que estão implicadas pela pesquisa global das testemunhas. Mas não houve aplicação nessa área de integridade eleitoral até agora. No entanto, isso Recentemente intensificou o escrutínio de Tiktok – e abriu um novo DSA prosseguindo nele – Após as preocupações de a plataforma ser um canal -chave para a interferência eleitoral russa nas eleições presidenciais da Romênia.

“Estamos pedindo à Comissão que investigue se existe um viés político”, acrescenta Judson. “(As plataformas) dizem que não há. Encontramos evidências de que pode haver. Por isso, esperamos que a Comissão use seu aumento de informações (-agitando) poderes para estabelecer se é esse o caso e … abordar isso se for. ”

O regulamento da Pan-UE capacita os executores a cobrar penalidades de até 6% do faturamento anual global para violações e até bloquear temporariamente o acesso à violação de plataformas se se recusarem a cumprir.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *