Acessórios 13 Ago
Atualização (20/08/2021) - HA
A Apple se enfiou em mais uma polêmica. Depois de enfrentar questionamentos pontuais a respeito do seu recurso que escaneia fotos de dispositivos Apple para buscar material de abuso sexual infantil, agora houve reação de mais de 90 grupos ligados aos direitos humanos de todo o mundo, que assinaram uma carta aberta pedindo que a empresa desista desse plano. A mensagem é dirigida ao CEO da Apple, Tim Cook:
"As organizações abaixo assinadas, comprometidas com os direitos civis, direitos humanos e direitos digitais em todo o mundo, estão escrevendo para instar a Apple a abandonar os planos que anunciou em 5 de agosto de 2021 para construir capacidades de vigilância em iPhones, iPads e outros produtos Apple. Embora esses recursos tenham como objetivo proteger as crianças e reduzir a disseminação de material de abuso sexual infantil, estamos preocupados que eles sejam usados para ameçar a liberdade de expressão, a privacidade e a segurança de pessoas em todo o mundo e causar desastres consequências para muitas crianças. "
Há signatários de dezenas de países, incluindo o Brasil. A lista completa e a carta na íntegra pode ser acessada clicando aqui.
O Center for Democracy & Technology (CDT) anunciou a carta, com a co-diretora do projeto de Segurança e Vigilância do CDT, Sharon Bradford Franklin, dizendo: "Podemos esperar que os governos aproveitem a capacidade de vigilância que a Apple está construindo em iPhones, iPads e computadores. Eles exigirão que a Apple procure e bloqueie imagens de abusos de direitos humanos, protestos políticos e outros conteúdos que devem ser protegidos como liberdade de expressão, que constitui a espinha dorsal de uma sociedade livre e democrática."
E você, o que achou desse posicionamento e dessa iniciativa da Apple? Que fim você acha que terá essa discussão?
Atualização (14/08/2021) - PF
Após anunciar que uma nova função de detecção de pedofilia na galeria de fotos do iPhone seria implementada, a Apple se viu em um mar de controvérsias. Afinal, como uma empresa que diz presar tanto por privacidade seria capaz de inserir tal funcionalidade nos dispositivos dos usuários sem comprometer, justamente, sua privacidade?
Agora, após o comunicado do vice-presidente da companhia esclarecer que a funcionalidade do recurso pode ter sido mal interpretada, especialistas afirmam que a plataforma precisa de ajustes para garantir o uso correto.
Entrevistado pelo portal Tecmundo, o professor Marcos Barreto, da Escola Politécnica da Universidade de São Paulo (Poli-USP), especialista em cibersegurança, explica que a iniciativa da empresa é louvável, mas que ela precisa estar bem descrita nos termos de uso da plataforma de nuvem (iCloud) e, mais ainda, que deveria ser submetida a um processo de auditoria.
"Se pensarmos como uma nova tecnologia, ela é muito bacana. [Os desenvolvedores da Apple] usaram soluções não triviais para fazer a coisa certa, já que a posse e distribuição de materiais sexuais com crianças é um crime grave quase que no mundo inteiro"
"Apesar de não ser fácil, eu acredito que seria importante um processo de auditoria. É preciso garantir que a tecnologia está sendo usada, de fato, para o que ela se propõe. Como praticamente tudo no mundo, a ferramenta poderia ter seu propósito desviado", afirmou.
O professor argumenta que por delimitar o processo de verificação das imagens ao iCloud, a empresa acaba garantindo o direito de escolha aos seus usuários, uma vez que eles poderão continuar a optar por outros serviços caso não se sintam confortáveis.
No entanto, apesar dos elogios, Barreto também aponta tópicos que não foram abordados pela marca. O especialista lembra que não é possível garantir que a Apple não irá utilizar o sistema de detecção para outros propósitos – mesmo que garanta isso em um termo, e que o próprio processo em si é questionável.
Isso, pois segundo a própria Maçã, antes do material ser denunciado ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), ele passará por uma “revisão humana”, o que segundo o especialista, caso o material seja mesmo ilegal, acarretaria em uma nova exposição da criança .
"A revisão é essencial para garantir a efetividade. Porém, as diretrizes dão a entender que quem vai realizar a checagem é um profissional da Apple. Isso acarretaria uma nova exposição da criança, caso o material seja ilegal mesmo. Seria interessante se ela [Apple] pudesse explicar novamente este ponto ou simplesmente fazer de um outro jeito, se for este mesmo o procedimento".
Como explicado por Barreto, o algoritmo capaz de identificar o crime funciona a partir da comparação das fotos analisadas com as do banco de imagens do NCMEC; mas essas imagens não são vistas da maneira que estamos acostumados.
Primeiro, uma rede neural transforma as figuras em números que, em conjunto, compõe um único número capaz de representar aquela imagem, o que permite que imagens iguais para a tecnologia tenham identificações iguais. Com isso, se alguma imagem armazenada no iCloud possuir um identificador idêntico ou muito parecido com as do banco de imagens citado, ela é considerada suspeita e será separada para análise posterior.
Outros pilares da tecnologia garantem que o sistema “aprenda” somente com imagens que estão dentro de um determinado padrão, e que os dados dos usuários estarão seguros através de um modelo de organização capaz de embaralhar as informações a fim que as imagens não sejam acessadas e, em alguns casos, não sejam nem mesmo buscadas por cibercriminosos.
No Brasil?
Quando perguntado sobre a chegada da tecnologia ao Brasil, o professor lembra que alguns complicadores atuam para dificultar o desembarque.
"A tecnologia está baseada em um conjunto de imagens sabidamente de pornografia infantil. Por isso, seria preciso localizar no país qual instituição possui essa competência para fazer a verificação das fotos dos brasileiros no iCloud. Além disso, toda a questão criminal em relação à denúncia dos perfis teria que ser pensada. A burocracia que envolve a utilização de um sistema do tipo me faz pensar que é difícil que a Apple pense, em um primeiro momento, em utilizar isso por aqui".
No Brasil, instituições públicas atuam no combate a produção e disseminação de conteúdo pornográfico e sexual envolvendo crianças na Internet. Para denunciar esse tipo de material, basta ligar para o número 100 e realizar sua denúncia. O Disque 100 é um canal mantido pelo Governo Federal aberto a denúncias de violação de direitos humanos.
Atualização (13/08/2021) por LL
A Apple se envolveu em uma grande polêmica recentemente, quando um especialista em criptografia revelou um controverso plano da companhia. A Gigante de Cupertino estaria se preparando para lançar uma ferramenta escaneadora da galeria de imagens em busca de conteúdo relativo a abuso infantil e pedofilia no iOS 15, iPadOS 15 e macOS Monterey 12.
O vice-presidente sênior de engenharia de software da Apple, Craig Federighi, foi a público esclarecer a situação. Em entrevista ao The Wall Street Journal, o executivo afirmou que a Apple causou confusão ao lançar três recursos de proteção infantil ao mesmo tempo.
No entanto, o processo utilizado é similar ao — já existente — modelo de digitalização e reconhecimento de fotos relacionadas a abuso infantil no iCloud. Confira a explicação de Federighi:
Gostaríamos que isso tivesse ficado um pouco mais claro para todos, porque nos sentimos muito positivos sobre o que estamos fazendo, e podemos ver que [os recursos] têm sido mal interpretados.
Admito que, em retrospectiva, apresentar esses dois recursos ao mesmo tempo foi uma receita para esse tipo de confusão. É realmente claro que muitas informações foram confundidas. Eu acredito que a frase de efeito que saiu mais cedo foi: “Meu Deus, a Apple está examinando meu telefone em busca de imagens”. Não é isso que está acontecendo.
Isso [o escaneamento de imagens] só está sendo aplicado como parte de um processo de armazenamento de algo na nuvem. Isso não é um processamento executado nas imagens que você armazena no Mensagens ou no Telegram, ou no que você está navegando na web. Isso literalmente faz parte do processo para armazenar imagens no iCloud.
Muito embora a proposta seja viável e importante para o combate à pedofilia, a Apple deve enfrentar mais problemas na implementação dessa ferramenta. Existe uma discussão em torno da privacidade dos usuários do ecossistema.
Qual sua opinião sobre essa medida da Apple? Acredita que funcionaria bem?
Texto original (05/08/2021)
Apple deve lançar recurso para detectar pedofilia na galeria de fotos do iPhone, diz especialista
A Apple está trabalhando em um polêmico recurso de detecção de conteúdo impróprio em fotos e vídeos armazenados nos dispositivos de usuários do iPhone.
De acordo com o professor e especialista em criptografia Matthew Green, fontes confiáveis explicam que a ferramenta escaneará a galeria de imagens à procura de conteúdo relativo a abuso infantil e pedofilia, e deve chegar ao sistema operacional do celular em breve.
Conforme anunciado pela big tech no ano passado, um recurso similar passou a ser utilizado em dados armazenados no iCloud. O primeiro estágio do processo consiste em executar um algoritmo de reconhecimento de imagem para analisar o conteúdo, comparando o teor com os dados armazenados em um banco de dados administrado pelas autoridades.
Agora, essa mesma funcionalidade pode chegar diretamente aos clientes da empresa, que vem implementando recursos de inteligência artificial para melhorar a experiência de uso do aplicativo Fotos. Com isso, imagens com teor que aparente estar relacionado à exploração infantil no iPhone, teoricamente, serão analisadas por moderadores da Apple.
Embora a proposta seja viável e importante para o combate à pedofilia, Green ressalta que as implicações dessa ferramenta, que deve chegar na próxima sexta-feira (06), são debatíveis. Muito além do fato de algoritmos de hashing não serem totalmente precisos, fica claro que existe uma discussão em torno da privacidade dos usuários do ecossistema.
As consequências de utilizar essa função, caso a empresa forneça controle de seus servidores aos governos, as informações adquiridas poderiam ser usadas para outros fins, como suprimir o ativismo político ou coletar outros dados dos usuários.
A ideia de que a Apple é uma empresa de 'privacidade' rendeu-lhes muita repercussão boa, mas é importante lembrar que esta é a mesma empresa que não criptografa seus backups do iCloud devido à pressão do FBI.
Matthew Green
Professor e Especialista em Criptografia no Johns Hopkins
Futuramente, é possível que a Apple desenvolva sistemas semelhantes para digitalizar esse conteúdo no lado do cliente e armazená-lo em um servidor com criptografia de ponta-a-ponta. Autoridades são favoráveis a esse tipo de tecnologia, visto que as constantes migrações para dados criptografados preocupam por dificultar a execução da lei sobre materiais impróprios.
Green, por outro lado, acredita que ainda não existe investimento em criptografia de ponta-a-ponta, o que impactaria diretamente na privacidade do consumidor.
Comentários