Moderadores voluntários do Stack Overflow desativam ferramentas sobre nova política secreta que obstrui a remoção de IA
LarLar > blog > Moderadores voluntários do Stack Overflow desativam ferramentas sobre nova política secreta que obstrui a remoção de IA

Moderadores voluntários do Stack Overflow desativam ferramentas sobre nova política secreta que obstrui a remoção de IA

Mar 30, 2023

Vários moderadores do Stack Overflow declararam uma “greve de moderação geral” para protestar contra a instrução de não remover o conteúdo gerado por IA “fora de circunstâncias extremamente restritas”.

As duas questões principais são: primeiro, os moderadores se sentem incapazes de desempenhar seu papel de verificação de qualidade de forma eficaz por causa da nova política; e segundo, que a política foi imposta a eles sem consulta adequada.

"Os moderadores não têm mais permissão para remover respostas geradas por IA com base em serem geradas por IA, exceto em circunstâncias extremamente restritas. conteúdo", disseram os mods marcantes em uma carta aberta.

"Acreditamos profundamente na missão principal da rede Stack Exchange: fornecer um repositório de informações de alta qualidade na forma de perguntas e respostas, e as ações recentes tomadas pela Stack Overflow, Inc. são diretamente prejudiciais a esse objetivo", afirmou. eles acrescentaram.

O site ainda está funcionando, mas o volume de spam e conteúdo não sinalizado provavelmente aumentará, principalmente porque uma ferramenta chamada SmokeDetector, desenvolvida por uma rede voluntária chamada Charcoal for StackOverflow para detectar spam, também parou de funcionar. “Atenção: a Charcoal está participando da greve em toda a rede, portanto permanecerá fechada até que esta política de IA seja descartada”, disse um aviso em um tópico de discussão do site.

DevClass falou com Zoe, moderadora da Noruega, que está entre os signatários. "Há até agora 15/24 mods ativos no SO (se contei corretamente) que estão oficialmente em greve, e o resto simplesmente não tem chance de acompanhar os volumes da bandeira", ela nos disse.

O pano de fundo é que o StackOverflow parece estar lutando para entender o impacto de ferramentas de IA como GitHub Copilot e ChatGPT em seu site de perguntas e respostas. O tráfego caiu. A reação inicial da empresa foi proibir o uso do ChatGPT para postar respostas do Stack Overflow por meio de uma "política temporária", com a aprovação da comunidade, mas uma postagem oficial da equipe também afirma que "não decidimos nenhuma política geral em toda a rede em relação proibir o ChatGPT ou outro conteúdo gerado por IA é necessário ou útil neste momento." Há uma distinção entre o Stack Overflow, o site do desenvolvedor, e o Stack Exchange, uma família de sites que cobrem uma ampla gama de tópicos diferentes, embora o Stack Overflow seja o mais movimentado.

Na semana passada, o CEO Prashanth Chandrasekar postou positivamente sobre o papel da IA ​​no Stack Overflow e que "a ascensão do GenAI é uma grande oportunidade para o Stack. Aproximadamente 10% da nossa empresa está trabalhando em recursos e aplicativos que aproveitam o GenAI que têm o potencial de aumentar o engajamento ." Chandrasekar escreveu sobre ter "IA e comunidade no centro"; mas as ações dos moderadores sugerem que o aspecto da comunidade está em dúvida.

O gatilho para a crise atual foi uma instrução na segunda-feira da semana passada (um feriado) para os moderadores do Stack Overflow em um fórum oficial, mas privado: "Os moderadores foram informados, por meio de mensagens de bate-papo fixadas em várias salas de moderadores (não é um método normal), para veja uma postagem na equipe de moderadores que instruía todos os moderadores a parar de usar detectores de IA (conforme descrito acima) ao tomar ações de moderação", disse um post. Os detalhes da instrução não são públicos. O vice-presidente da comunidade, Philippe Beaudette, postou que "o conteúdo gerado por IA não está sendo identificado adequadamente na rede", que "o potencial para falsos positivos é muito alto" e "evidências internas sugerem fortemente que a aplicação excessiva de suspensões para conteúdo gerado por IA pode estar recusando um grande número de colaboradores legítimos do site." Ele disse que os moderadores foram solicitados a "aplicar um padrão de evidência muito rígido para determinar se uma postagem é de autoria de IA ao decidir suspender um usuário". No entanto, os moderadores afirmam que uma descrição da política postada por Beaudette "difere muito da orientação do Teams ... que não temos permissão para compartilhar publicamente".