A Apple pratica seu plano contencioso de escanear iPhones privados em busca de fotos ilegais

A Apple pratica seu plano contencioso de escanear iPhones privados em busca de fotos ilegais
A Apple pratica seu plano contencioso de escanear iPhones privados em busca de fotos ilegais
Avatar de Harry Johnson
Escrito por Harry johnson

Até mesmo funcionários da Apple expressaram preocupações com a tecnologia de detecção, preocupando-se que ela pudesse ser usada para contornar as proteções de criptografia, que poderia facilmente identificar erroneamente e sinalizar algumas fotos.

  • Apple para atrasar varreduras invasivas do iPhone.
  • As varreduras da Apple procuravam material de abuso sexual infantil.
  • Ativistas e grupos de direita expressam preocupações com questões de censura e privacidade.

O recente anúncio polêmico da Apple dos planos de escanear todos os iPhones privados em busca de fotos e conversas que possam consistir em material de abuso sexual infantil (CSAM) foi imediatamente recebido com apelos para abandonar os planos por grupos de direitos civis, incluindo a American Civil Liberties Union (ACLU).

0a1a14 | eTurboNews | eTN

Após a enxurrada de críticas que se seguiram ao anúncio, a Apple anunciou que “levará mais tempo” nos próximos meses para trabalhar em planos para denunciar o CSAM, em meio a preocupações de ativistas e grupos de direitos sobre questões de censura e privacidade.

“Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes”, um Apple porta-voz disse em um comunicado hoje.

A tecnologia da Apple faria a varredura iPhone fotos e conversas para CSAM, usando um programa que a empresa alegou anteriormente ainda protegeria a privacidade individual porque a tecnologia não identifica os detalhes gerais de uma imagem ou conversa, ou precisa estar em posse de qualquer um - embora muitos críticos tenham expressado suas dúvidas.

O sistema usa um banco de dados de referências ou 'hashtags de imagem' para reconhecer o conteúdo específico a ser sinalizado, embora especialistas em segurança tenham alertado que essa tecnologia pode ser manipulada ou que imagens inocentes podem ser mal interpretadas. 

Até mesmo funcionários da Apple expressaram preocupações com a tecnologia de detecção, preocupando-se que ela pudesse ser usada para contornar as proteções de criptografia, que pudesse facilmente identificar erroneamente e sinalizar algumas fotos - ou mesmo que alguns governos pudessem explorá-la para encontrar outro material. A Apple afirma que recusará qualquer solicitação de governos para usar o sistema para qualquer coisa que não seja imagens de abuso infantil.

“O iMessages não fornecerá mais confidencialidade e privacidade a esses usuários por meio de um sistema de mensagens criptografadas de ponta a ponta, em que apenas o remetente e os destinatários pretendidos têm acesso às informações enviadas”, dizia uma carta de uma coalizão de mais de 90 grupos ativistas ao CEO da Apple, Tim Cook, sobre as possíveis mudanças. 

O cronograma exato para o atraso atual é desconhecido, mas o novo sistema de detecção foi originalmente planejado para ser usado neste ano.

Sobre o autor

Avatar de Harry Johnson

Harry johnson

Harry Johnson foi o editor de atribuição de eTurboNews por mais de 20 anos. Ele mora em Honolulu, Havaí, e é originário da Europa. Ele gosta de escrever e cobrir as notícias.

Subscrever
Receber por
convidado
0 Comentários
Comentários em linha
Ver todos os comentários
0
Adoraria seus pensamentos, por favor, comente.x
Compartilhar com...