Um dos pontos mais debatidos no projeto de lei 2630/2020, conhecido como PL das Fake News, é a moderação de conteúdo nas plataformas digitais, incluindo aplicativos de mensagem, redes sociais e mecanismos de busca. A moderação é uma decisão automatizada ou humana? As empresas são responsáveis pelos conteúdos divulgados pelos usuários em suas plataformas? O Marco Civil da Internet regula o assunto, estabelecendo que as plataformas digitais não são obrigadas a moderar o conteúdo que hospedam, mas também não estão isentas de decisões judiciais que determinem a remoção ou outro tipo de ação de algum conteúdo. Cada plataforma tem suas regras específicas e a maioria dos conteúdos é moderada de forma automatizada por inteligência artificial. A inteligência artificial é eficiente para reconhecer padrões, mas ainda falha ao entender o contexto em que uma mensagem se insere. Por isso, a moderação humana é necessária para conteúdos que precisam de contexto na hora de decidir sobre a exclusão ou não de uma publicação. A transparência é fundamental para regulamentar as plataformas, já que os algoritmos usados pelas empresas não são públicos.