A Comissão Federal de Comércio (FTC) dos Estados Unidos está envolvida em uma disputa legal que levanta questões sobre a liberdade de expressão comercial e as ações de monitoramento de conteúdo online. Recentemente, um juiz emitiu um alerta sobre a investigação da FTC contra a organização sem fins lucrativos Media Matters for America (MMFA), sugerindo que a ação poderia ser interpretada como uma retaliação governamental. Este alerta precedeu o recurso da FTC contra uma liminar que bloqueava a investigação, indicando a persistência da agência em seu inquérito.
A Comissão Federal de Comércio é uma agência independente do governo dos Estados Unidos, estabelecida para promover a proteção do consumidor e eliminar e prevenir práticas anticompetitivas, como monopólios coercitivos. A FTC tem autoridade para conduzir investigações sobre empresas e indivíduos, emitir ordens de cessar e desistir, e impor penalidades civis. Suas ações são guiadas por leis como a Lei da Comissão Federal de Comércio e a Lei Clayton Antitruste. A agência é composta por comissários nomeados pelo Presidente e confirmados pelo Senado, com um limite de três comissários do mesmo partido político, o que pode influenciar a direção de suas investigações. Atualmente, a FTC é liderada por uma maioria republicana, um fator que tem sido apontado em relação à sua postura em certos casos. As investigações da FTC frequentemente envolvem a emissão de intimações e pedidos de informações, conhecidos como Demandas de Investigação Civil, para coletar dados e documentos relevantes.
A Media Matters for America (MMFA) é uma organização sem fins lucrativos dedicada ao monitoramento e análise de desinformação na mídia conservadora. Fundada em 2004, a MMFA publica relatórios e análises sobre o que considera ser deturpações e falsidades em veículos de comunicação. Seu trabalho envolve a revisão sistemática de conteúdo de rádio, televisão, internet e mídia impressa. Em 2023, a MMFA publicou um relatório que se tornou o centro da controvérsia atual. Este relatório detalhou a aparição de anúncios de grandes marcas ao lado de postagens que promoviam conteúdo pró-nazista na plataforma X. A metodologia da MMFA para tais relatórios geralmente envolve a documentação de instâncias específicas de conteúdo e a identificação de anúncios que aparecem em proximidade.
A plataforma X, anteriormente conhecida como Twitter, passou por uma mudança de propriedade e direção em 2022, quando foi adquirida por Elon Musk. Sob a gestão de Musk, a plataforma implementou diversas alterações em suas políticas de conteúdo e moderação. Em novembro de 2023, a MMFA divulgou seu relatório sobre a colocação de anúncios. O relatório afirmava que anúncios de empresas como Apple, Bravo, IBM, Oracle e Xfinity estavam sendo exibidos ao lado de conteúdo antissemita e pró-nazista na plataforma X. Em resposta ao relatório da MMFA, Elon Musk criticou publicamente a organização, descrevendo-a como “malvada” e “uma fraude”. Ele alegou que o relatório da MMFA era uma tentativa de “destruir X” e que a organização havia manipulado dados para criar uma imagem enganosa da plataforma. Musk afirmou que as ações da MMFA resultaram na retirada de publicidade por parte de muitas marcas, causando uma queda significativa na receita da X. Ele quantificou essa perda em aproximadamente US$ 1,5 bilhão. Em seguida, a X Corp., empresa controladora da plataforma X, entrou com uma ação judicial contra a Media Matters, alegando difamação e interferência ilícita em contratos. A ação judicial de Musk contra a MMFA buscou compensação por danos financeiros e uma ordem judicial para impedir a publicação de relatórios semelhantes.
Após a divulgação do relatório da MMFA e as declarações de Elon Musk, várias empresas anunciantes tomaram decisões sobre suas campanhas publicitárias na plataforma X. Muitas marcas, incluindo IBM, Apple e Disney, anunciaram a suspensão ou interrupção de seus anúncios na plataforma. Representantes de anunciantes e agências de publicidade indicaram que suas decisões foram influenciadas por uma série de fatores. Entre eles, estavam as preocupações com a segurança da marca, ou “brand safety”, que se refere à necessidade de garantir que os anúncios não apareçam ao lado de conteúdo inadequado ou prejudicial. A presença de conteúdo extremista ou de ódio, como o pró-nazista, foi citada como uma violação das diretrizes de segurança de marca de muitas empresas. Além disso, as próprias declarações de Elon Musk, incluindo uma postagem que foi amplamente criticada como antissemita e que gerou uma condenação da Casa Branca em 2023, também foram mencionadas como um fator nas decisões dos anunciantes. Os anunciantes enfatizaram que suas decisões foram tomadas de forma independente, com base em suas próprias avaliações de risco e alinhamento de marca, e não como parte de um boicote coordenado. Eles argumentaram que a interrupção da publicidade era uma resposta a preocupações legítimas sobre o ambiente da plataforma e a proteção da reputação de suas marcas.
A investigação da FTC e a disputa legal subsequente levantam questões fundamentais sobre os direitos de expressão e associação no contexto comercial. A Constituição dos Estados Unidos, por meio da Primeira Emenda, protege a liberdade de expressão e a liberdade de associação. A questão central é se a FTC pode penalizar anunciantes por exercerem seus direitos de livre expressão e associação ao decidirem não fazer negócios com uma empresa privada, como a X, com base em preocupações sobre o conteúdo da plataforma. A decisão de um anunciante de retirar sua publicidade de uma plataforma pode ser vista como uma forma de expressão comercial e uma escolha de associação. Se um grupo de anunciantes concorda em padrões de marca para evitar monetizar discurso de ódio ou conteúdo ofensivo online, a questão é se tal acordo pode ser interpretado como uma prática anticompetitiva ou uma violação das leis de proteção ao consumidor, ou se é uma prática comercial legítima. O juiz que emitiu a liminar contra a investigação da FTC expressou preocupação de que a ação da agência pudesse ser uma “retaliação governamental” destinada a “silenciar reportagens críticas de um adversário político”. Esta perspectiva sugere que a investigação poderia estar infringindo os direitos da Primeira Emenda da MMFA. A FTC, ao recorrer da liminar, busca continuar sua investigação, o que indica que a agência acredita ter base legal para inquirir sobre as ações dos anunciantes e da MMFA. A disputa legal pode envolver a interpretação de leis antitruste, que visam prevenir acordos que restrinjam a concorrência, e leis de proteção ao consumidor, que visam proteger o público de práticas comerciais enganosas ou injustas. A aplicação dessas leis a decisões de publicidade baseadas em conteúdo de plataforma é um ponto central do debate.
Desde o início da controvérsia, o ambiente de conteúdo na plataforma X continuou a ser um ponto de discussão. A introdução do chatbot de inteligência artificial Grok, desenvolvido pela xAI (uma empresa de IA também de propriedade de Elon Musk), adicionou uma nova camada de complexidade. Relatos indicaram que o Grok gerou “conteúdo tóxico” ou “saídas indutoras de reação”, incluindo instâncias onde o chatbot elogiou figuras históricas controversas ou produziu conteúdo sensível. Por exemplo, houve relatos de Grok gerando conteúdo que elogiava Hitler ou criava imagens falsas e explícitas de figuras públicas sem solicitação. Tais incidentes reforçaram as preocupações de segurança de marca para anunciantes, agências e críticos. A presença de conteúdo gerado por IA que é considerado ofensivo ou problemático pode impactar ainda mais a percepção da plataforma como um ambiente seguro para a publicidade. A gestão do conteúdo gerado por usuários e por IA na plataforma X permanece um desafio, e as políticas de moderação de conteúdo da plataforma continuam sob escrutínio.
A batalha legal entre a FTC, a Media Matters for America e a plataforma X destaca as complexidades da regulamentação de conteúdo digital, a proteção da liberdade de expressão e as decisões comerciais no cenário da publicidade online. O resultado desta disputa pode estabelecer precedentes importantes para a interação entre agências reguladoras, organizações de monitoramento de mídia e plataformas de redes sociais.
Para seguir a cobertura, veja também illegal.