sociais

logos

Cresce Brasil

Especialista aponta riscos da “deepfake” e chama atenção para necessidade de políticas públicas de educação digital

inteligencia artificialSe notícias falsas (“fakenews”) tumultuaram eleições ao redor do mundo nos anos recentes, uma nova onda de truques vem aí e atende pelo nome de “deepfake”. Trata-se de uma tecnologia que usa Inteligência Artificial (IA) para montagens a partir de imagens (fotos, vídeos), substituindo rostos e vozes de forma realista.

“Deepfake” são imagens totalmente algoritmizadas, explica Giselle Beiguelman, artista e professora Livre-Docente da Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo (FAU/USP). “Passamos da era do homem sem câmera, agora estamos na época da imagem sem olhar, que prescinde das categorias humanas tradicionais”, afirmou Beiguelman durante apresentação no seminário “Afetando Tecnologias, Maquinando Inteligências”, realizado no início de fevereiro pelo Instituto de Estudos Avançados (IEA) da USP.

Líder do Grupo de Pesquisa CNPq/FAU Estéticas da Memória no Século 21, e membro do Laboratório Interdisciplinar de Conhecimento de Imagens da Universidade Humboldt de Berlin, Beiguelman chama a atenção para o avanço do “deepfake” sobre a influência já excessiva das redes sociais e para a deficiência da maior parte das pessoas em lidar com elas de maneira crítica.

 

Entretenimento

Por enquanto, “deepfake” é mais popular como entretenimento. Por exemplo, o site Reddit fez sucesso dois anos atrás com um aplicativo que permitia que os internautas “tirassem” a roupa de celebridades e as inserissem em cenas pornográficas. Recentemente circularam entre os grupos de Whatsapp um vídeo bem-intencionado em que líderes mundiais aparecem cantando “Imagine”, de John Lennon, à perfeição. Ambos os programas foram feitos com técnicas de “deepfake”.

Beiguelman afirma que talvez em nenhum campo como o da fotografia, a IA se faz tão presente hoje. Muitas das aplicações que estão em desenvolvimento, tanto nas universidades quanto em laboratórios públicos e privados, se utilizam da enorme produção de imagens e conteúdos produzidos pelos usuários das redes sociais. “Há uma estimativa de que a quantidade de imagens produzidas no ano de 2017 foi maior que toda a quantidade de imagens analógicas produzida desde a invenção da fotografia”, informa a pesquisadora.

Embora pareça que a “deepfake” atingiu o estado da arte em IA, na verdade está só no começo. As máquinas ainda estão “aprendendo” por meio da função “machine learning”, e quem está “ensinando” somos nós, usuários da internet e das redes sociais. Exemplo de “aula”: cada vez que clicamos um aplicativo no Facebook que nos oferece nossa imagem como velhos, a máquina aprende como são nossas expressões e como podemos evoluir com o tempo.

“Se não houvesse esse manancial de dados, de caras de pessoas, de vozes, olhares, sendo cotidianamente disponibilizado por nós, não haveria deepfake”, analisa Beiguelman. “A indústria do fake (‘falso’) depende de nós, de doarmos dados diariamente”, conclui.

Em entrevista ao Jornal da Ciência, Beiguelman destacou a necessidade de políticas públicas de educação para o que ela chama de “letramento digital”. O objetivo seria que as pessoas aprendessem a lidar com a tecnologia de forma crítica e independente. “Estamos criando uma geração de dependentes, completamente inebriados, nos quais nós nos incluímos, somos analfabetos digitais”.

Construção de padrões

Um aspecto positivo da “deepfake” é a possibilidade de construir padrões faciais que auxiliam em algumas atividades, como na indústria do cinema, da moda e na investigação policial. Departamentos de polícia nos Estados Unidos usam há duas décadas um sistema de justiça preditiva baseado em IA, cujo objetivo é desarticular gangues e analisar a possibilidade de concessão de benefícios de execução penal. No entanto, um estudo publicado em 2018 por pesquisadores do Dartmouth College mostrou que o software utilizado no programa carregava premissas racistas.

Hoje, especialistas e organizações de vários países estudam como evitar a antropomorfização das máquinas e garantir os direitos humanos digitais. Este é o tema da reportagem “Os limites Sociais da Inteligência Artificial”, na página 8 da nova edição do Jornal da Ciência. Leia na íntegra.

 

Jornal da Ciência

Adicionar comentário


logoMobile