Como o Facebook poderia responder ao pesadelo dos moderadores
Os moderadores de conteúdo no Facebook estão passando pelo inferno para manter seus feeds agradáveis. Eles peneiram através de vídeos de assassinatos, suicídios, conteúdos explícitos e outros horrores dia após dia. Eles têm intervalos rigorosos no banheiro e um salário anual de apenas US $ 28.800. Seu tratamento certamente não compensa o tormento diário. The Verge relatou que muitos trabalhadores se voltaram para fumar maconha durante as pausas e atividades questionáveis para aliviar o trauma, sem mencionar o potencial impacto psicológico a longo prazo, que é uma preocupação alarmante.
Isso não é exatamente novo conhecimento, mas a exposição gráfica de The Verge chama a atenção para o Facebook e os gigantes da tecnologia mais uma vez e coloca a pressão necessária sobre para avaliar essa crise ética. Da Inteligência Artificial, a uma mudança na cultura a partir do zero, não há uma solução fácil para o Facebook. Mas grandes compromissos precisam ser feitos para resolver este caso de negligência irresponsável.
Melhore a cultura de trabalho
Se os efeitos relatados de exposição constante a conteúdo extremo provarem alguma coisa, ser moderador de conteúdo é um trabalho perigoso. Como em qualquer outra ocupação arriscada, a eficiência não pode ser a prioridade número um de seus gerentes. Você veria muito mais tragédias se os pilotos, construtores ou seguradores que ajudavam os escaladores trabalhavam exclusivamente com a eficiência em mente. É sobre segurança física e psicológica.
Eficiência teimosa parece ser a cultura no Facebook. Segundo relatos, o fornecedor de moderação que o Facebook emprega, a Cognizant, só permite que os funcionários tenham nove minutos diários de “bem-estar”. Até mesmo os trabalhadores muçulmanos são informados de que rezar não é uma desculpa válida para tirar folga.
É uma maneira desumana de gerenciar os trabalhadores constantemente expostos a punir conteúdo mentalmente. Esses funcionários precisam ser protegidos e incentivados.
Trabalhando em equipes
Os funcionários compartilham com o The Verge maneiras de despertar humor nesse ambiente desalentador. Eles racham o humor negro, compartilham memes que encontram e se envolvem em brincadeiras bem-humoradas.
Pode parecer trivial, mas o Facebook pode construir uma cultura melhor - e mais segura - fazendo com que os moderadores trabalhem em pares. A moderação é uma tarefa deprimida- mente isolada no momento, com trabalhadores colados em telas, sozinhas processando mais de 400 mensagens trançadas sozinhas diariamente. O emparelhamento ajuda a aliviar algum impacto psicológico e estimula a comunicação que pode criar um melhor ambiente de trabalho. Não pode ser sobre eficiência.
Rotação de pessoal
O Facebook deve aceitar que isso é resultado das falhas de sua própria plataforma. Se eles realmente se importam com a ética como uma instituição líder mundial, eles não podem continuar arrastando moderadores para baixo do tapete, pagando às empresas subsidiárias para limpar sua bagunça. Essa bagunça é um sintoma do Facebook.
Embora ainda seja necessário que os olhos humanos filtrem esse conteúdo, talvez seja um fardo que possa ser realizado pelos membros do próprio Facebook, para compartilhar o peso dos próprios erros da empresa. Ele tira a carga dos 15.000 trabalhadores, empregados apenas para filtrar pornografia, assassinato e outras formas de violência que entorpece a mente.
Certamente é doloroso sujeitar mais de seus funcionários a tal conteúdo, mas essa é uma realidade que os gigantes da mídia social enfrentam hoje. Alguém tem que fazer isso e é mais seguro compartilhar o fardo.
Esperança na Inteligência Artificial
AI é o futuro inevitável que a indústria de tecnologia está construindo. Certamente parece a luz no fim do túnel para os moderadores e as empresas de mídia social, já que a tecnologia toma o lugar dos humanos para filtrar o conteúdo e limpar a esfera cibernética.
No entanto, a dúvida envolve essa noção, já que os especialistas duvidam que a IA possa entender a cultura humana e suas nuances. Pode ser difícil para uma máquina diferenciar entre pornografia e um vídeo para educação sexual, por exemplo. Se nós humanos lutamos para traçar a linha do pornô e da arte, o que mais podemos pedir de uma máquina?
Não parece esperançoso, mas talvez haja esperança na IA se associada a novas diretrizes de conteúdo permitido nas mídias sociais.
AI pode sinalizar conteúdo prejudicial
AI pode não ser capaz de apreciar pequenas nuances, mas certamente pode detectar e compartimentar extremidades, como violência armada ou nudez. Quando a tecnologia chega lá, os moderadores podem utilizar as habilidades de reconhecimento da IA para sinalizar o conteúdo postado pelos usuários e adicionar um aviso para os espectadores, que pode ler: "Esteja avisado: este vídeo pode conter imagens violentas".
Ao fazer isso, torna a vida dos moderadores do Facebook mais simples também, já que o conteúdo é facilmente filtrado pela IA, simplificando o processo e reduzindo sua exposição a imagens violentas.
Criadores de conteúdo de licenciamento
Ficando mais tight com as regulamentações, o conteúdo que os AI flags podem ser bloqueados inicialmente, até a revisão. Pode ser um mal necessário, para manter o conteúdo nocivo fora dos nossos feeds - de forma eficiente.
As empresas que exigem que imagens desagradáveis sejam publicadas regularmente, como agências de notícias e outros canais informativos talvez possam buscar permissões para publicar prontamente conteúdo adulto por sua própria vontade, sem passar pelo processo estagnado de verificações de inteligência artificial e censura.
Também alivia o problema do Facebook de notícias falsas. As pessoas comuns que querem divulgar as mensagens, que apresentam imagens violentas que seriam rejeitadas pela IA, poderiam recorrer a esses meios de comunicação “credíveis” com permissões para publicar qualquer conteúdo no Facebook, criando um sistema lógico de filtragem e controle. Uma mistura dessas estratégias poderia ajudar significativamente a moderação.
Aumentando as barreiras morais
Obviamente, nenhuma das idéias compartilhadas aqui está próxima de como a mídia social opera hoje.
A liberdade de expressão está no centro das mídias sociais hoje. Essa liberdade levou a muitos conteúdos importantes e informativos, mas também produziu material nocivo de forma sintomática, que criou esses problemas.
Talvez seja hora de nos encontrarmos no meio. Liberdade de expressão não é um valor que é valorizado em todo o mundo. Muitas sociedades estão florescendo tão bem quanto regulamentos mais estritos sobre o que pode ser publicado e dito imediatamente.
O Facebook atende a um público internacional de mais de 1,8 bilhão de usuários em todos os tipos de governos e países - e apenas 214 milhões deles são americanos.
O mundo mostrou que não é civilizado o suficiente lidar com essa liberdade ilimitada no mundo cibernético. Reduzir a expressão pode ser fundamental para ajudar a moderação e contribuir para uma Internet mais segura.
Encruzilhada para o Facebook
Segurança, fraude, moderação e todos os tipos de crises nos últimos anos podem de fato favorecer o Facebook. Ele apresenta um bom momento para pedir mudança.
Ele precisa decidir rápido: é uma plataforma para qualquer pessoa, independentemente de seu histórico, fazer o upload e obter o que quiserem? Ou é um lugar que valoriza a segurança e o compartilhamento responsável de conteúdo?
Situações neste momento certamente exigem uma mudança radical em como progredir e construir a cultura da mídia. AI está chegando lá; moderadores - e crianças - estão sofrendo; as pessoas não têm a civilidade para postar coisas sensatas. Um compromisso deve ser feito, e talvez comece primeiro com controles mais rígidos e maior rigidez.
Sim, tudo é um conjunto de ideais, mas o que somos sem eles?
Via: Slash Gear
Nenhum comentário