2
Osvaldo Gonçalves O termo“fake news” entrou no léxico das pessoas. Já quase ninguém fala em boa- tos e a zongolagem tornou- se mais sofisticada. Agora, após as notícias falsas, recurso predilecto de alguns políticos e de empresários envolvidos em concorrên- cias desleais, que têm cau- sado muitos problemas sociais, surgiram as “deep- fakes”, técnica de síntese de imagens ou sons huma- nos baseada no uso da inte- ligência artificial. “Deepfake” é uma siglo- minização dos termos em inglês “deep learning” (aprendizagem profunda) e “fake” (falso) e é usada para combinar uma fala qualquer a um vídeo já exis- tente e pode ser utilizada para gerar notícias falsas e embustes maliciosos. Também é muito usada na pornografia. Os sites porno- gráficos estão ultimamente recheados de vídeos nos quais rostos de actrizes e actores porno são trocados pelos de celebridades. Essa prática ganhou o nome de “upskirting” e o resultado final pode enganar até olhares mais atentos. A 20 de Junho do ano passado, a Primeira-Ministra do Reino Unido, Theresa May, afirmou que isso passou a ser con- siderado crime. Os crimi- nosos podem ser punidos com até dois anos de cadeia. Inicialmente, conside- rava-se “upskirting” como a prática de fazer fotografias não autorizadas sob a saia de uma mulher ou o kilt do homem, capturando uma imagem da área da virilha, roupas íntimas e, às vezes, agenitália. Hoje, o que era visto como uma forma de fetichismo sexual ou voyeurismo ganha novos contornos. A preocupação das auto- ridades britânicas resultou da grande utilização da téc- nica na produção de vídeos pornográficos e na chamada pornografia de vingança, o que levou alguns sites porno a banirem a “deepfake”. Passado ligado à pornografia A história remonta a 2017, quando um utilizador do Reddit, sob o pseudónimo “Deepfakes”, publicou vários vídeos pornográficos na Internet. O Reddit é um site de media social, baseado em São Francisco, Califórnia (EUA), em que os utilizadores podem divulgar ligações para conteúdo na Web, para que outros votem nas ligações divulgadas, fazendo com que apareçam de uma forma mais ou menos destacada na sua página inicial. A coisa chamou a aten- ção quando Daisy Ridley, actriz de “Star Wars VII – O Despertar da Força”, foi usada num vídeo desses e quando Gal Gadot, que inter- pretou “Mulher-Maravilha”, aparece num vídeo falso a fazer sexo com o seu meio-irmão. Desde então, várias outras pessoas famosas, entre actri- zes e políticos, também foram vítimas de “Deepfakes”, vídeos que, mesmo sendo desmascarados pouco tempo depois, provando-se que as cenas não eram reais, pro- vocaram danos de alguma forma irreparáveis. Em sites de streaming, como o Youtube, é fácil encontrar vídeos falsos não pornográficos. Novos apli- cativos de manipulação de vídeos e imagens são hoje famosos e são desenvolvidos e disponibilizados por gigan- tes da Internet. “Deepfake” é uma siglominização dos termos em inglês “deep learning” (aprendizagem profunda) e “fake” (falso) e é usada para combinar uma fala qualquer a um vídeo já existente e pode ser utilizada para gerar notícias falsas e embustes maliciosos. Também é muito usada na pornografia. Os sites pornográficos estão ultimamente recheados de vídeos nos quais rostos de actrizes e actores porno são trocados pelos de celebridades A indústria cinematográfica também faz muito recurso às “deepfakes”. Cenas de luta, cenários de guerra, etc., são recreados com amplo sucesso. Pesquisadores suge- rem que a técnica pode tra- zer vantagens. Nos filmes, falas equivocadas poderiam ser consertadas, sem ser preciso regravar as cenas por completo. Em Junho passado, cien- tistas da Universidade de Stanford, do Instituto Max Planck de Informática, da Universidade de Princeton e da AdobeResearch, nos Estados Unidos, demons- traram como a técnica de “deepfake” se tem tor- nado cada vez mais aces- sível e convincente. Num estudo que envol- veu 138 voluntários, cerca de 60 por cento apontaram haver edições nos vídeos falsos, enquanto apenas 80 por cento acertaram nos legítimos. Os pesquisadores alertaram que o facto de os participantes saberem que se tratava de uma pes- quisa sobre edição de vídeos pode ter influenciado nas respostas. “Deepfakes” só funcionam bem em vídeos que tenham foco num falante e exigem, pelo menos, 40 minutos de dados de entrada, base do treinamento da inteligência artificial do software uti- lizado. É importante que o falso discurso não seja muito diferente do original. Até as falsificações serem criadas, os vídeos de base passam por algumas etapas. São scaneados para a captação de fonemas e do modelo 3D da parte inferior do rosto dos falantes. Os fonemas são depois combinados com as expressões faciais de cada som. Entendidos afir- mam que para as pessoas se protegerem dos “deepfakes, o mais sensato é evi- tarem a compartilha de vídeos pessoais ou não hospedá-los nas redes sociais de forma pública, o que dificulta o tra- balho dos editores. Por se tratar de uma tecnologia nova, a sociedade, de forma geral, está ainda a ajustar-se às “deepfakes”. Porém, o mais aconselhável é que se ande depressa, dando respaldo legal a esse fenómeno. Forma de protecção deste fenómeno Até na indústria cinematográfica A “Deepfake” é usada para combinar uma fala qualquer a um vídeo já existente e pode ser utilizada para gerar notícias falsas. O resultado final pode enganar até olhares mais atentos DR DR Os meandros da manipulação de vídeos “DEEPFAKES” É O ABUSO DO MOMENTO NA INTERNET 10 DESTAQUE Domingo 28 de Julho de 2019

“DEEPFAKES” É O ABUSO DO MOME N TO I ER Os ...imgs.sapo.pt/jornaldeangola/img/1304284049_binder1.pdfpessoas famosas, entre actri-zes e políticos, também foram vítimas de “Deepfakes”,

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

Page 1: “DEEPFAKES” É O ABUSO DO MOME N TO I ER Os ...imgs.sapo.pt/jornaldeangola/img/1304284049_binder1.pdfpessoas famosas, entre actri-zes e políticos, também foram vítimas de “Deepfakes”,

Osvaldo Gonçalves

O termo“fake news” entrouno léxico das pessoas. Jáquase ninguém fala em boa-tos e a zongolagem tornou-se mais sofisticada. Agora,após as notícias falsas,recurso predilecto de algunspolíticos e de empresáriosenvolvidos em concorrên-cias desleais, que têm cau-sado muitos problemassociais, surgiram as “deep-fakes”, técnica de síntesede imagens ou sons huma-nos baseada no uso da inte-ligência artificial.

“Deepfake” é uma siglo-minização dos termos eminglês “deep learning”(aprendizagem profunda)e “fake” (falso) e é usadapara combinar uma falaqualquer a um vídeo já exis-tente e pode ser utilizadapara gerar notícias falsase embustes maliciosos.Também é muito usada napornografia. Os sites porno-gráficos estão ultimamenterecheados de vídeos nosquais rostos de actrizes eactores porno são trocadospelos de celebridades.

Essa prática ganhou onome de “upskirting” e oresultado final pode enganaraté olhares mais atentos. A20 de Junho do ano passado,a Primeira-Ministra do ReinoUnido, Theresa May, afirmouque isso passou a ser con-siderado crime. Os crimi-nosos podem ser punidos

com até dois anos de cadeia.Inicialmente, conside-

rava-se “upskirting” comoa prática de fazer fotografiasnão autorizadas sob a saiade uma mulher ou o kiltdo homem, capturandouma imagem da área davirilha, roupas íntimas e,às vezes, agenitália. Hoje,

o que era visto como umaforma de fetichismo sexualou voyeu r i smo ganhanovos contornos.

A preocupação das auto-ridades britânicas resultouda grande utilização da téc-nica na produção de vídeospornográficos e na chamadapornografia de vingança, o

que levou alguns sites pornoa banirem a “deepfake”.

Passado ligado à pornografiaA história remonta a 2017,quando um utilizador doReddit, sob o pseudónimo“Deepfakes”, publicouvários vídeos pornográficosna Internet.

O Reddit é um site demedia social, baseado emSão Francisco, Califórnia(EUA), em que os utilizadorespodem divulgar ligações paraconteúdo na Web, para queoutros votem nas ligaçõesdivulgadas, fazendo comque apareçam de uma formamais ou menos destacadana sua página inicial.

A coisa chamou a aten-ção quando Daisy Ridley,actriz de “Star Wars VII –

O Despertar da Força”, foiusada num vídeo desses equando Gal Gadot, que inter-pretou “Mulher-Maravilha”,aparece num vídeo falso a fazersexo com o seu meio-irmão.

Desde então, várias outraspessoas famosas, entre actri-zes e políticos, também foramvítimas de “Deepfakes”,vídeos que, mesmo sendodesmascarados pouco tempodepois, provando-se que ascenas não eram reais, pro-vocaram danos de algumaforma irreparáveis.

Em sites de streaming,como o Youtube, é fácilencontrar vídeos falsos nãopornográficos. Novos apli-cativos de manipulação devídeos e imagens são hojefamosos e são desenvolvidose disponibilizados por gigan-tes da Internet.

“Deepfake” é uma siglominização dos termosem inglês “deep learning” (aprendizagemprofunda) e “fake” (falso) e é usada paracombinar uma fala qualquer a um vídeo já existente e pode ser utilizada para

gerar notícias falsas e embustes maliciosos. Também é muito usada

na pornografia. Os sites pornográficos estão ultimamente recheados de vídeos nos quais rostos de actrizes e actores

porno são trocados pelos de celebridades

A indústriacinematográficatambém faz muito recursoàs “deepfakes”. Cenas deluta, cenários de guerra, etc.,são recreados com amplosucesso. Pesquisadores suge-rem que a técnica pode tra-zer vantagens. Nos filmes,falas equivocadas poderiamser consertadas, sem serpreciso regravar as cenaspor completo.

Em Junho passado, cien-tistas da Universidade deStanford, do Instituto MaxPlanck de Informática, daUniversidade de Princetone da AdobeResearch, nosEstados Unidos, demons-traram como a técnica de“deepfake” se tem tor-nado cada vez mais aces-sível e convincente.

Num estudo que envol-veu 138 voluntários, cercade 60 por cento apontaramhaver edições nos vídeosfalsos, enquanto apenas80 por cento acertaram noslegítimos. Os pesquisadoresalertaram que o facto deos participantes saberemque se tratava de uma pes-quisa sobre edição de vídeospode ter influenciado nasrespostas.

“Deepfakes” só funcionam bem emvídeos que tenham foco num falante eexigem, pelo menos, 40 minutos dedados de entrada, base do treinamentoda inteligência artificial do software uti-lizado. É importante que o falso discursonão seja muito diferente do original.

Até as falsificações serem criadas,os vídeos de base passam por algumasetapas. São scaneadospara a captaçãode fonemas e do modelo 3D da parteinferior do rosto dos falantes. Os fonemassão depois combinados com as expressões

faciais de cada som. Entendidos afir-mam que para as pessoas se protegeremdos “deepfakes, o mais sensato é evi-tarem a compartilha de vídeos pessoaisou não hospedá-los nas redes sociaisde forma pública, o que dificulta o tra-balho dos editores.

Por se tratar de uma tecnologianova, a sociedade, de forma geral, estáainda a ajustar-se às “deepfakes”.Porém, o mais aconselhável é que seande depressa, dando respaldo legala esse fenómeno.

Forma de protecção deste fenómeno

Até na indústriacinematográfica

A “Deepfake” é usada para combinar uma fala qualquer a um vídeo já existente e pode ser utilizadapara gerar notícias falsas. O resultado final pode enganar até olhares mais atentos

DR

DR

Os meandros da manipulação de vídeos“DEEPFAKES” É O ABUSO DO MOMENTO NA INTERNET

10 DESTAQUE Domingo28 de Julho de 2019

Page 2: “DEEPFAKES” É O ABUSO DO MOME N TO I ER Os ...imgs.sapo.pt/jornaldeangola/img/1304284049_binder1.pdfpessoas famosas, entre actri-zes e políticos, também foram vítimas de “Deepfakes”,

Osvaldo Gonçalves

O sucesso repentino do apli-cativo FaceApp, aquele quefaz as pessoas envelhecerem,levantou grande polémicano mundo inteiro devido àhisteria provocada a partirda segunda semana de Julho.

Criado em Janeiro de2017, pela empresa russaWireless Lab, o aplicativopassou meses sem chamara atenção, até que, de umdia para o outro, tomouconta da Internet. Com talsucesso, surgiram tambémos alertas, primeiro deespecialistas, depois depolíticos e, por último,oFaceApp passou a ser inves-tigado pela Polícia.

A principal suspeita éque, com a autorização dosutilizadores, a empresa russaestaria a recolher informa-ções sobre os mesmos e aconstruir uma enorme basede dados à custa de filtrose outras funcionalidades.

A Wireless Lab foi acu-sada de partilhar essas infor-mações com os serviços dein te l igênc ia ru ssos . Aempresa negou-o e garantiunão vender ou parftilhardados com terceiros e expli-cou que a maioria das ima-gens são apagadas dosservidores ao fim de 48horas. Mas isso não impediuo agravamento das suspeitas,sobretudo, após ChuckSchumer, senador demo-crata de Nova Iorque, con-siderar “preocupante” aforma como os dados sãotratados e ter pedido ao FBIpara invest igar , o que,segundo algumas informa-ções, passou a ser feito.

Origem da polémicaToda a polémica à volta doFaceApp terá sido causadapor um programador daVirgínia, que, tarde da noite,publicou no Twitter umanota em que expressava asua revolta contra tal apli-cativo, por, alegadamente,lhe ter roubado todas asfotos do celular sem auto-rização. A denúncia veioreforçar a percepção geralsobre a invasão de priva-cidade que vimos sendoalvo das mais variadas for-

mas, sob o pretexto damelhoria das condições devida e da segurança.

Analistas apontam duasrealidades que terão feitodisparar os alarmes em rela-ção a esse aplicativo, que

emprega um sistema neu-ronal baseado na inteligên-cia artificial, que analisa afotografia para conseguiros efeitos desejados, enve-lhecer ou rejuvenescer oprotagonista com um rea-

lismo surpreendente: pri-meiro, os servidores encon-tram-se na Rússia; segundo,a política de privacidade édemasiado vaga.

Esta não é a primeiragrande polémica à volta doFaceApp. Em Agosto de2017, o aplicativo introdu-ziu um filtro “racial”, quepermitia pessoas mudarema cor da pele. A maka foitanta que a empresa acaboupor retirá-lo, deixandoapenas que estas vissem asi mesmas mais velhas oumais novas.

“Made in” RússiaApesar de toda a polémica,os utilizadores da Internetcontinuaram a brincadeira,demonstração de que gos-taram de se ver mais velhase a coisa tornou-se aindamais “viral”, quando o apli-cativo passou a ser usadocom fotos de celebridades.

Alguns analistas referiramque toda a polémica não ini-biria as pessoas e que, seestas deixassem de usar oFaceApp, passariam a usaroutro aplicativo similar.Quando em causa está a pri-vacidade, afirmaram, o pro-blema não está apenas naorigem do produto, pois talfoi apenas o abrir de umajanela a um cenário onde aprivacidade dos utilizadoresé a última prioridade.

A pânico gerado à voltado FaceApp deveu-se, sobre-tudo, ao facto de ser de ori-gem russa, quando, de facto,é da China que provêm osmaiores apps de sucesso nospaíses ocidentais.

O editor do site CNet,RyCrist, afirmou, a propósito,que o aplicativo FaceAppveio, uma vez mais, demons-trar não estarmos prepara-do s pa ra l i d a r c om o sdesafios relativos â priva-cidade na Internet.

Para aquele editor, é incrí-vel como as pessoas estãototalmente despreocupadassobre os poderes que dãoaos criadores do aplicativo,não apenas por ser russa,mas pela facilidade comque permitimos que as nos-sas informações vão pararàs mãos de uma empresapraticamente desconhecidada população.

A principal suspeita é que, com a autorizaçãodos utilizadores, a empresa russa estariaa recolher informações sobre os mesmose a construir uma enorme base de dadosà custa de filtros e outras funcionalidades

Ramón López de Mántaras,director do Instituto de Pes-quisa de Inteligência Artificialdo Centro Superior de Pes-quisas Científicas da Espanha,que apoia a proibição do usode sistemas de reconheci-mento facial, na generalidade,afirmou que, nos dias dehoje, entregamos a nossaprivacidade de “forma exces-sivamente frívola e alegre”.

Numa entrevista conce-dida, em Junho, ao jornalespanhol “El País”, López deMántaras afirmou que, coma chegada do 5G e a incor-poração de um g randenúmero de dispositivos inte-ligentes nas residências,será como viver numa casacom paredes de vidro, quepermitem que qualquer umdo lado de fora veja tudo oque se faz dentro, conheçaos nossos movimentos, hábi-tos e comportamentos.

Ele mencionou os casos decompanhias como a Amazon,

Google e Apple, que têm fun-cionários que revisam dia-riamente conversas aleatóriasque os usuários mantêm comos assistentes para melhoraro sistema.

“Ter um monte de objec-tos e aparelhos em casa liga-dos à Internet é uma péssimaideia”, afirmou, porque “elespodem saber o que você con-some, o que compra, quandolava a roupa, o que cozinha,o que come e até coisas tãoíntimas como as que ocorremdentro do banheiro”.

O risco de se ter a priva-cidade violada vem de todosos lados. Utilizadores alegamque os telemóveis, tabletsou computadores portáteisconseguem ouvir conversasprivadas e que é possível queos sistemas de reconheci-mento de voz estejam acti-vados 24 horas por dia. Eles

garantem que, após conver-sarem sobre determinadosassuntos com parentes ouamigos perto dos aparelhosligados à Internet, no diaseguinte, ou até momentosdepois, viram surgir nos feedsde notícias publicidade sobreesses mesmos assuntos.

Especialistas em cyberse-gurança apontam a existênciade uma série de “gatilhos”(palavras-chave) que, quandoditos, accionam dispositivosque levam alguém, algures,a prestar atenção ao quedizemos, sem que, necessa-riamente, esse alguém sejauma pessoa.

O Google afirma aberta-mente que usa “gatilhos”, oque, dizem, “faz sentido deum ponto de vista de mar-keting”, até porque os seusacordos de uso e a lei permi-tem-no”.Outras grandes com-

panhias do sector negamcom veemência o uso dessesartifícios, mas tudo indicaque possuam milhares degatilhos, só que, sendo estescriptografados, é muito difí-cil nos apercebermos dasua existência.

CuidadosOs cuidados para não termosa nossa privacidade violadavão dos mais simples aosmais complexos, como obri-gar as pessoas a frequenta-rem cursos de iniciação parautilizadores da Internet. Mas,algumas medidas são dema-siado básicas e começampela necessidade de ler osacordos sempre, antes deaceder aos aplicativos.

Mas, tal como acontececom a maioria dos serviços,quase ninguém lê essesacordos. Adere simples-mente e, dessa forma, abrea porta para que a sua vidaseja monitorizada.

APLICATIVO QUE ENVELHECE PESSOAS

FaceApp cria polémica,mas “toma” a Internet

É o fim da privacidade

Num cenário hipotético,mas funcional, os clientesnão precisariam de sair decasa para ir às compras,pois os frigoríficos, ligadosà Internet, comunicariamaos fornecedores quandoo stock de determinadoproduto está no fim e,sendo tudo processadopor criptomoedas, as nos-sas contas seriam pagasimediatamente.

O mesmo aconteceriacom outros aparelhos eserviços básicos, como ofornecimento e consumode água e electricidade,pelo que seriam dispen-sáveis as torneiras e osinterruptores. Até as nos-sas casas passariam a“reconhecer-nos”, fran-queando as portas paraentrarmos e trancando-as depois disso ou quandosaíssemos para trabalhar.

Só que, pelo facto degrande parte dos acidentesocorrerem nos domicílios,ser ia necessár io quealguém estivesse perma-nentemente de olho emnós , uma espéc ie de“grande irmão” (big bro-ther). Seria o mesmo queatirar pela janela o mínimode privacidade que aindajulgamos deter.

Criado em Janeiro de 2017, pela empresa russa Wireless Lab,o aplicativo passou meses sem chamar a atenção, até que,

de um dia para o outro, tomou conta da Internet

Big brotherentre nós

Domingo28 de Julho de 2019 11DESTAQUE