Pular para o conteúdo

O processo de classificação etária da App Store não é protetor o suficiente

Tempo de leitura: 4 minutos

O sistema de classificação etária da Apple na App Store não está fazendo o suficiente para proteger as crianças, afirma um relatório, depois que um dia de pesquisa descobriu que uma alta proporção de aplicativos considerados aceitáveis ​​para crianças realmente representava um risco.

A Apple possui vários sistemas e mecanismos para tornar o uso de um iPhone, iPad ou Mac relativamente seguro para crianças. O controle dos pais pode limitar as faixas etárias dos aplicativos que podem ser usados ​​no dispositivo de uma criança, entre outros recursos.

No entanto, para que essas restrições sejam realmente úteis, os próprios aplicativos devem ser avaliados corretamente. Num relatório conjunto da Heat Initiative e da ParentsTogether Action, parece que as classificações não estão a fazer o suficiente.

O relatório encarregou um pesquisador de revisar o maior número possível de aplicativos em 24 horas. Houve também um foco em aplicativos em categorias onde havia um histórico de aparentes riscos de segurança apresentados às crianças, incluindo aplicativos sobre beleza, bate-papo, dieta e perda de peso, acesso geral à Internet e jogos.

Nesse período, cerca de 800 aplicativos foram analisados, mas descobriu-se que mais de 200 tinham “conteúdo ou recursos relativos” e ainda eram voltados para crianças. Por exemplo, embora os aplicativos de bate-papo fossem comumente avaliados para maiores de 17 anos, com poucos classificados para crianças, outras categorias, como perda de peso, eram frequentemente avaliadas para crianças com mais de 4 anos.

“Isso indica que o sistema de classificação da Apple não contém apenas aplicativos individuais em categorias de risco e voltadas para adultos, mas também categorias inteiras de danos potenciais”, afirma o relatório.

Os aplicativos arriscados incluíam 25 aplicativos de bate-papo com um total de 37 milhões de downloads, consistindo em aplicativos que se conectavam com estranhos, aplicativos de bate-papo anônimos e aplicativos de bate-papo com IA. O relatório acrescenta que um dos aplicativos de bate-papo para crianças tinha usuários dizendo que “nada além de pedófilos”.

Foram 40 aplicativos de acesso à Internet não filtrados no grupo, com 291 milhões de downloads combinados. Esses aplicativos incluíam alguns que anunciavam a capacidade de contornar filtros escolares, concedendo acesso a sites proibidos.

Aplicativos relacionados à beleza e ao corpo representavam 75 do total de aplicativos arriscados, incluindo incentivos a jejuns de 20 horas e metas de calorias para níveis de fome.

Descobriu-se que 52 aplicativos de jogos tinham elementos arriscados, com alguns oferecendo recursos “XXXSpicy”, incluindo desafios como listras. Outros foram considerados videogames violentos e com jogadores se passando por assassinos e traficantes de drogas.

Processo questionado

Parte do problema, segundo o relatório, é como a Apple realmente lida com seu processo de classificação etária. Em vez de depender de um sistema de classificação de terceiros, como o Entertainment Software Ratings Board (ESRB), a Apple depende de desenvolvedores que respondam a um questionário sobre o conteúdo do aplicativo, que é então usado como base para a classificação.

O relatório afirma que “não está claro” se existem outras etapas realizadas pela Apple sobre o assunto, se outros critérios são usados ​​ou se a Apple faz o acompanhamento para confirmar a classificação etária após a publicação do aplicativo.

Além disso, o relatório acusa a Apple de se esquivar da responsabilidade quando “promete às famílias criar um ambiente seguro na App Store”. A Apple é acusada de impor responsabilidade legal ao desenvolvedor e de se proteger de responsabilidades.

“Se o seu aplicativo for avaliado incorretamente, os clientes poderão se surpreender com o que receberão ou isso poderá desencadear uma investigação dos reguladores governamentais”, cita o relatório das diretrizes de revisão de aplicativos da Apple, ponto 2.3.6.

Pedindo uma solução

As duas organizações acreditam que há vários lugares onde a Apple deveria melhorar seus processos para a “segurança de seus usuários mais vulneráveis”.

Primeiro, insiste-se que a Apple deveria “instituir uma revisão e verificação independente por terceiros das classificações etárias dos aplicativos antes de serem disponibilizados para crianças na Apple App Store. Isso implicaria o uso de especialistas em um painel, semelhante a o processo ESRB para vendas de jogos.

Esta proposta faz sentido até certo ponto, pois introduz opiniões externas de especialistas no processo. No entanto, isso pode agregar despesas extras ao processo de publicação, algo que quase certamente será repassado ao desenvolvedor, não à Apple.

Também é proposto que a Apple torne o processo de classificação etária mais transparente do que é atualmente.

Também é necessário que haja um processo para verificar a adequação das classificações etárias após a publicação, acrescenta o relatório. “A Apple deveria agir rapidamente para corrigir classificações inadequadas e tomar medidas contra desenvolvedores que tentam contornar o sistema de classificação”, afirma.

Por último, há um apelo por “controles parentais eficazes” e para que a Apple imponha classificações etárias, permitindo apenas que usuários infantis baixem aplicativos apropriados para a idade. Isso é algo que a Apple já faz com seus controles parentais, mas evidentemente não há o suficiente sendo feito pelas organizações.

Impulso de responsabilidade

Os apelos à responsabilidade por parte da Apple não são algo novo, mas é algo contra o qual já se lutou antes.

Em setembro, um relatório detalhou como os estados que buscam regular o uso de smartphones por adolescentes sentiram pressão da Apple. O legislador da Louisiana, Kim Carver, em um caso, foi contatado por quatro lobistas contratados pela Apple sobre um projeto de lei que forçava a Apple a adicionar e impor restrições de idade na App Store, em vez de confiar no questionário do desenvolvedor de aplicativos.

Embora o requisito da App Store tenha sido retirado da conta, Carver ainda quer trazê-lo de volta. “Percebi rapidamente que os controles parentais da Apple não são a panacéia que prometem ser”, disse Carver.