NOTÍCIAS

[ANONYMOUS][grids]

Facebook adiciona criptografia ponta a ponta para chamadas de áudio e vídeo no Messenger


O Facebook anunciou na sexta-feira que está estendendo a criptografia ponta a ponta (E2EE) para chamadas de voz e vídeo no Messenger, além de testar uma nova configuração opcional que ativará a criptografia ponta a ponta para DMs do Instagram.

"O conteúdo de suas mensagens e chamadas em uma conversa cifrada end-to-end é protegido do momento em que deixa o dispositivo para o momento em que atinge o dispositivo do receptor," Mensageiro Ruth Kricheli disse em um post. "Isso significa que ninguém mais, incluindo o Facebook, pode ver ou ouvir o que é enviado ou dito. Lembre-se de que você pode denunciar uma mensagem criptografada de ponta a ponta se algo estiver errado."

O gigante da mídia social disse que o E2EE está se tornando o padrão da indústria para maior privacidade e segurança.

É importante notar que o principal serviço de mensagens da empresa ganhou suporte para E2EE em chats de texto em 2016, quando adicionou uma opção de " conversa secreta " ao seu aplicativo, enquanto as comunicações em sua plataforma irmã WhatsApp tornaram-se totalmente criptografadas no mesmo ano após a integração do Signal Protocolo no aplicativo.

Além disso, a empresa também deve iniciar um teste limitado em certos países que permite aos usuários optar por receber mensagens criptografadas de ponta a ponta e chamadas para conversas individuais no Instagram.

As mudanças são parte do pivô do Facebook para uma plataforma de comunicações focada na privacidade que a empresa anunciou em março de 2019, com o CEO Mark Zuckerberg afirmando que "o futuro da comunicação mudará cada vez mais para serviços criptografados privados, onde as pessoas podem ter certeza do que dizem a cada um outro permanece seguro e suas mensagens e conteúdo não permanecerão para sempre. "

Desde então, as mudanças geraram preocupações de que a criptografia completa poderia criar esconderijos digitais para os perpetradores, com o Facebook sendo responsável por mais de 90% do material ilícito e de abuso sexual infantil (CSAM) sinalizado por empresas de tecnologia, ao mesmo tempo que representa um desafio significativo quando trata de equilibrar a necessidade de evitar que suas plataformas sejam usadas para atividades criminosas ou abusivas, ao mesmo tempo que preserva a privacidade.

O desenvolvimento também vem uma semana depois que a Apple anunciou planos de escanear as bibliotecas de fotos dos usuários em busca de conteúdo CSAM como parte de uma ampla iniciativa de segurança infantil que foi sujeita a ampla resistência de usuários, pesquisadores de segurança, a Electronic Frontier Foundation (EFF) e até Funcionários da Apple , levantando preocupações de que as propostas poderiam estar maduras para mais abusos ou criar novos riscos, e que "mesmo uma porta dos fundos totalmente documentada, cuidadosamente pensada e com escopo restrito ainda é uma porta dos fundos".

A fabricante do iPhone, no entanto, defendeu seu sistema , acrescentando que pretende incorporar mais proteções para proteger a tecnologia de ser aproveitada por governos ou terceiros com "vários níveis de auditabilidade", ou rejeitar quaisquer demandas governamentais para redirecionar a tecnologia para fins de vigilância.

"Se e somente se você atingir um limite de algo na ordem de 30 imagens de pornografia infantil conhecidas, só então a Apple saberá alguma coisa sobre sua conta e saberá alguma coisa sobre essas imagens e, nesse ponto, só saberá sobre essas imagens, não sobre qualquer uma das suas outras imagens ", vice-presidente sênior da Apple de engenharia de software, Craig Federighi, disse em uma entrevista com o Wall Street Journal.

"Isso não está fazendo uma análise porque você tinha uma foto do seu filho na banheira? Ou, por falar nisso, você tinha uma foto de alguma pornografia de qualquer outro tipo? Isso está literalmente coincidindo com as impressões digitais exatas de imagens pornográficas infantis específicas conhecidas ", explicou Federighi.