Lead
A Apple modificou as diretrizes de avaliação de aplicativos da App Store e passou a enquadrar serviços de chat anônimo ou aleatório, como os que imitavam o antigo Omegle, entre os motivos que podem levar à exclusão imediata de um app da plataforma. A medida amplia o rol de características de conteúdo gerado por usuários que podem resultar em remoção sem aviso prévio, reforçando as exigências de segurança presentes na seção 1.2 das regras para desenvolvedores.
O que mudou nas diretrizes da App Store
A alteração anunciada pela empresa insere exemplos específicos de aplicativos que, de acordo com o texto oficial, “não pertencem à App Store”. Dentro desse grupo estão:
– serviços de chat anônimo ou aleatório;
– experiências do tipo Chatroulette;
– aplicativos cujo conteúdo ou uso acabe sendo primordialmente pornográfico;
– ferramentas que promovam a objetificação de pessoas reais, como votações do tipo “hot-or-not”;
– espaços que resultem em ameaças físicas ou em práticas de bullying.
Com a nova redação, qualquer aplicativo que se enquadre nessas descrições pode ser removido sem comunicação prévia ao desenvolvedor. A referência direta aos chats anônimos representa a principal novidade, já que outros pontos — como a proibição de pornografia explícita — já constavam de versões anteriores das regras.
Onde as exigências estão detalhadas
O trecho alterado pertence à seção 1.2 do tópico “Conteúdo gerado pelo usuário”, parte integrante das App Store Review Guidelines. Esse conjunto de normas é aplicado a todos os aplicativos submetidos à loja, tanto novos quanto atualizações de apps já publicados. As orientações definem os requisitos mínimos que um app deve cumprir para ser aceito ou continuar disponível no ecossistema da empresa.
Como funciona a remoção sem aviso
Quando um aplicativo viola regras categorizadas como de alto risco — caso da nova restrição a chats anônimos —, a Apple pode retirar o software da loja imediatamente. O processo dispensa notificação prévia e, em situações de infração grave, também pode resultar na rescisão da conta de desenvolvedor associada. A justificativa da empresa é impedir que conteúdos considerados potencialmente danosos continuem acessíveis enquanto haveria uma discussão sobre adequações.
Regras específicas para conteúdo NSFW
A mesma atualização aborda aplicativos que se conectam a serviços baseados na web e, por consequência, podem exibir material adulto classificado como NSFW (not safe for work). Nesses casos, o texto determina duas condições obrigatórias:
1. O material deve permanecer oculto por padrão.
2. A exibição só é liberada se o usuário ativar manualmente a opção, e essa ativação precisa ocorrer fora do aplicativo, diretamente no site responsável pelo conteúdo.
Segundo as diretrizes, o objetivo é garantir que usuários não sejam expostos inadvertidamente a imagens ou vídeos adultos dentro do ambiente da App Store, preservando o controle individual sobre experiências potencialmente sensíveis.
Por que os chats anônimos entraram na mira
A inclusão explícita de plataformas de chat aleatório reflete preocupações de segurança digital já discutidas em relatórios externos. Um documento da Comissão de Segurança Digital da Austrália (eSafety) destacou que esse tipo de serviço pode representar risco elevado para crianças e adolescentes, pois facilita o contato instantâneo com desconhecidos e a circulação de conteúdo inadequado para menores.

Imagem: Internet
Após a divulgação do relatório, Apple e Google removeram de suas lojas o aplicativo OmeTV, citado como exemplo de plataformas que expõem jovens a situações potencialmente abusivas. O Omegle, que inspirou grande parte desses serviços, já havia descontinuado suas atividades, mas alternativas similares continuaram circulando. A atualização das diretrizes da App Store formaliza a postura da empresa contra o retorno ou a permanência desses aplicativos.
Implicações para desenvolvedores
Com a nova redação, criadores de aplicativos que dependam de comunicação entre estranhos precisam avaliar se seu modelo de funcionamento oferece canais de verificação de identidade ou de moderação prévia. Ausências nesse sentido colocam o app no grupo diretamente proibido. Caso a plataforma permita conteúdo sexual explícito ou interações anônimas que escapem ao controle, a remoção sem aviso passa a ser risco imediato.
Além disso, mesmo serviços que não se concentram em chat aleatório, mas que aceitarem usuários provenientes da web, devem assegurar que qualquer material classificado como adulto permaneça bloqueado até opção expressa do usuário. O descumprimento pode levar a sanções semelhantes.
Relação com políticas anteriores
A Apple mantém diretrizes de segurança rígidas desde o lançamento da App Store, em 2008. Conteúdo pornográfico, bullying e ameaças físicas já eram alvos de veto. A diferença, agora, está na ênfase a formatos que, segundo a empresa, adotam o anonimato e a aleatoriedade como proposta central. Nos termos atualizados, a companhia evidencia que o conjunto dessas características — exposição de menores, ausência de filtros, interação sem identificação — fere princípios de proteção do usuário.
Perspectiva para usuários finais
Para o público que utiliza a loja em iPhones, iPads e Macs, a medida significa que aplicativos semelhantes ao OmeTV podem desaparecer sem período de transição. Usuários que ainda mantenham versões instaladas podem ver o serviço interrompido caso os servidores sejam desativados em decorrência da exclusão da plataforma ou caso o próprio desenvolvedor opte por encerrar a operação.
Reflexos nas demais plataformas
Embora a iniciativa seja interna à Apple, empresas que atuam simultaneamente nas lojas da Google Play e da App Store tendem a alinhar políticas para evitar inconsistências de regras. A retirada simultânea de OmeTV tanto por Apple quanto por Google, mencionada no contexto do relatório australiano, reforça essa tendência de harmonização gradual entre grandes marketplaces de aplicativos.
Resumo dos principais pontos da atualização
1. Expansão da lista de violações graves – Entram em destaque os chats anônimos ou aleatórios, experiências no estilo Chatroulette, votações de “hot-or-not” e conteúdos focados em pornografia.
2. Remoção imediata – Aplicativos enquadrados nessas categorias podem ser excluídos sem aviso, e os desenvolvedores podem perder o acesso à conta.
3. Política para conteúdo adulto incidental – Permissão condicional de NSFW oriundo de serviços web, desde que permaneça oculto até ação voluntária do usuário.
4. Base de decisão – A Apple reforça preocupações com segurança de crianças e adolescentes, consonantes com relatórios de órgãos externos como a Comissão de Segurança Digital da Austrália.
5. Impacto no ecossistema – Desenvolvedores que mantenham elementos de anonimato ou aleatoriedade precisam revisar fluxos de moderação, pois a conduta passa a ser fator de veto direto.
Conclusão factual
A atualização das diretrizes da App Store estabelece parâmetros mais específicos sobre o que caracteriza risco inaceitável dentro do ecossistema da Apple. Ao apontar explicitamente os chats anônimos e aleatórios como incompatíveis com o marketplace, a empresa consolida uma posição que já vinha se delineando na prática, como evidenciado pela remoção prévia de aplicativos semelhantes em conjunto com outras lojas digitais.

Paulistano apaixonado por tecnologia e videojogos desde criança.
Transformei essa paixão em análises críticas e narrativas envolventes que exploram cada universo virtual.
No blog CELULAR NA MÃO, partilho críticas, guias e curiosidades, celebrando a comunidade gamer e tudo o que torna o mundo dos jogos e tecnologia tão fascinante.

