Fake videos of real people -- and how to spot them
Supasorn Suwajanakorn

     

Letras em inglês
Letras em português
Veloc.:

Letra e Tradução
Clique para ir ao ponto exato

00:12Look at these images.
Olhem para estas imagens.

00:14Now, tell me which Obama here is real.
Agora, digam-me qual desses Obama aqui é real.

00:16(Video) Barack Obama: To help families refinance their homes,
(Vídeo) Barack Obama: Para ajudar a refinanciar moradias,

00:19to invest in things like high-tech manufacturing,
para investir em coisas como produção de alta tecnologia,

00:22clean energy
energia limpa

00:23and the infrastructure that creates good new jobs.
e a infraestrutura que cria bons novos empregos.

00:26Supasorn Suwajanakorn: Anyone?
Supasorn Suwajanakorn: Alguém?

00:28The answer is none of them.
A resposta é: nenhum deles.

00:30(Laughter)
(Risos)

00:31None of these is actually real.
Nenhum deles é, na verdade, real.

00:33So let me tell you how we got here.
Vou contar a vocês como chegamos até aqui.

00:35My inspiration for this work
Minha inspiração por este trabalho

00:37was a project meant to preserve our last chance for learning about the Holocaust
foi um projeto para preservar nossa última chance de aprender sobre o holocausto

00:42from the survivors.
a partir dos sobreviventes.

00:44It's called New Dimensions in Testimony,
É chamado "New Dimensions in Testimony",

00:47and it allows you to have interactive conversations
e permite conversas interativas

00:50with a hologram of a real Holocaust survivor.
com um holograma de um sobrevivente real do holocausto.

00:53(Video) Man: How did you survive the Holocaust?
(Vídeo) Homem: Como o senhor sobreviveu ao holocausto?

00:55(Video) Hologram: How did I survive?
(Vídeo) Holograma: Como sobrevivi?

00:57I survived,
Eu sobrevivi,

01:00I believe,
creio eu,

01:01because providence watched over me.
porque Deus me protegeu.

01:05SS: Turns out these answers were prerecorded in a studio.
SS: Acontece que essas respostas foram pré-gravadas em um estúdio.

01:09Yet the effect is astounding.
Mas o efeito é surpreendente.

01:11You feel so connected to his story and to him as a person.
Você se sente muito ligado à história dele e a ele como pessoa.

01:16I think there's something special about human interaction
Acredito que há algo especial sobre a interação humana

01:19that makes it much more profound
que a torna muito mais profunda

01:22and personal
e pessoal

01:24than what books or lectures or movies could ever teach us.
do que os livros, as palestras ou os filmes jamais poderiam nos ensinar.

01:28So I saw this and began to wonder,
Vi isso e comecei a me perguntar:

01:30can we create a model like this for anyone?
"Será que podemos criar um modelo como esse para qualquer um,

01:33A model that looks, talks and acts just like them?
um modelo que se pareça, fale e aja exatamente como eles?"

01:37So I set out to see if this could be done
Comecei a ver se isso poderia ser feito

01:39and eventually came up with a new solution
e, finalmente, propus uma nova solução

01:41that can build a model of a person using nothing but these:
para construir um modelo de uma pessoa usando nada além disso:

01:45existing photos and videos of a person.
fotos e vídeos existentes de uma pessoa.

01:48If you can leverage this kind of passive information,
Se for possível aprimorar esse tipo de informação passiva,

01:51just photos and video that are out there,
fotos e vídeos que estão por aí,

01:53that's the key to scaling to anyone.
esse é o segredo para representar qualquer um.

01:56By the way, here's Richard Feynman,
A propósito, esse é Richard Feynman,

01:57who in addition to being a Nobel Prize winner in physics
que, além de ser ganhador do Prêmio Nobel de física,

02:01was also known as a legendary teacher.
também era conhecido como um professor extraordinário.

02:05Wouldn't it be great if we could bring him back
Não seria ótimo se pudéssemos trazê-lo de volta

02:07to give his lectures and inspire millions of kids,
para dar suas palestras e inspirar milhões de crianças,

02:10perhaps not just in English but in any language?
talvez não apenas em inglês, mas em qualquer idioma?

02:14Or if you could ask our grandparents for advice and hear those comforting words
Ou se pudéssemos pedir conselhos a nossos avós e ouvir palavras de conforto

02:19even if they're no longer with us?
mesmo que não estejam mais conosco?

02:21Or maybe using this tool, book authors, alive or not,
Ou talvez, usando essa ferramenta, os autores de livros, vivos ou não,

02:25could read aloud all of their books for anyone interested.
poderiam ler todos os seus livros em voz alta para qualquer interessado.

02:29The creative possibilities here are endless,
As possibilidades criativas aqui são infinitas,

02:31and to me, that's very exciting.
e, para mim, isso é muito empolgante.

02:34And here's how it's working so far.
E é assim que está funcionando até agora.

02:36First, we introduce a new technique
Primeiro, apresentamos uma nova técnica que pode reconstruir

02:38that can reconstruct a high-detailed 3D face model from any image
um modelo facial em 3D altamente detalhado a partir de qualquer imagem,

02:42without ever 3D-scanning the person.
sem nunca fazer um exame em 3D da pessoa.

02:45And here's the same output model from different views.
Aqui está o mesmo modelo de saída a partir de visões diferentes.

02:49This also works on videos,
Também funciona para vídeos,

02:51by running the same algorithm on each video frame
executando o mesmo algoritmo para cada quadro de vídeo

02:54and generating a moving 3D model.
e gerando um modelo em 3D em movimento.

02:57And here's the same output model from different angles.
Aqui está o mesmo modelo de saída a partir de ângulos diferentes.

03:01It turns out this problem is very challenging,
Acontece que esse problema é muito desafiador,

03:04but the key trick is that we are going to analyze
mas o truque principal é que iremos analisar de antemão

03:07a large photo collection of the person beforehand.
uma grande coleção de fotos da pessoa.

03:10For George W. Bush, we can just search on Google,
Para George W. Bush, podemos simplesmente procurar no Google,

03:14and from that, we are able to build an average model,
e, a partir daí, podemos construir um modelo médio,

03:16an iterative, refined model to recover the expression
iterativo e refinado para recuperar a expressão

03:19in fine details, like creases and wrinkles.
em detalhes distintos, como marcas e rugas.

03:23What's fascinating about this
O fascinante sobre isso

03:24is that the photo collection can come from your typical photos.
é que a coleção de fotos pode vir de suas fotos comuns.

03:28It doesn't really matter what expression you're making
Não importa realmente que expressão você esteja fazendo

03:30or where you took those photos.
ou onde você tirou aquelas fotos.

03:32What matters is that there are a lot of them.
O que importa é que haja muitas delas.

03:35And we are still missing color here,
Ainda falta cor aqui.

03:36so next, we develop a new blending technique
Então, a seguir, desenvolvemos uma nova técnica de mistura

03:39that improves upon a single averaging method
que aperfeiçoa um método único de obter a média

03:42and produces sharp facial textures and colors.
e produz texturas faciais e cores definidas.

03:45And this can be done for any expression.
Isso pode ser feito para qualquer expressão.

03:49Now we have a control of a model of a person,
Agora temos o controle de um modelo de uma pessoa,

03:52and the way it's controlled now is by a sequence of static photos.
por meio de uma sequência de fotos estáticas.

03:55Notice how the wrinkles come and go, depending on the expression.
Reparem como as rugas vêm e vão dependendo da expressão.

04:00We can also use a video to drive the model.
Também podemos usar um vídeo para conduzir o modelo.

04:02(Video) Daniel Craig: Right, but somehow,
(Vídeo) Daniel Craig: Certo, mas, por alguma razão,

04:05we've managed to attract some more amazing people.
temos conseguido atrair algumas das pessoas mais incríveis.

04:10SS: And here's another fun demo.
SS: Aqui está outra demo divertida.

04:11So what you see here are controllable models
O que vemos aqui são modelos controláveis

04:13of people I built from their internet photos.
de pessoas criadas a partir de suas fotos da internet.

04:16Now, if you transfer the motion from the input video,
Agora, se transferirmos o movimento do vídeo de entrada

04:19we can actually drive the entire party.
podemos, na verdade, conduzir o grupo todo.

04:21George W. Bush: It's a difficult bill to pass,
George W. Bush: É uma conta difícil de aprovar,

04:23because there's a lot of moving parts,
porque há muitas partes móveis,

04:26and the legislative processes can be ugly.
e os processos legislativos podem ser desagradáveis.

04:31(Applause)
(Aplausos)

04:32SS: So coming back a little bit,
SS: Voltando um pouquinho,

04:34our ultimate goal, rather, is to capture their mannerisms
nosso objetivo final, ao contrário, é capturar seus trejeitos

04:38or the unique way each of these people talks and smiles.
ou a maneira única como cada uma dessas pessoas fala e sorri.

04:41So to do that, can we actually teach the computer
Para isso, será que conseguimos ensinar o computador

04:43to imitate the way someone talks
a imitar a maneira como alguém fala

04:45by only showing it video footage of the person?
mostrando apenas imagens de vídeo da pessoa?

04:48And what I did exactly was, I let a computer watch
O que fiz exatamente foi deixar um computador assistir

04:5114 hours of pure Barack Obama giving addresses.
a 14 horas do autêntico Barack Obama dando palestras.

04:55And here's what we can produce given only his audio.
Aqui está o que podemos produzir apenas com o áudio dele.

04:58(Video) BO: The results are clear.
(Vídeo) BO: Os resultados são claros.

05:00America's businesses have created 14.5 million new jobs
Os negócios dos Estados Unidos criaram 14,5 milhões de novos empregos

05:05over 75 straight months.
mais de 75 meses consecutivos.

05:07SS: So what's being synthesized here is only the mouth region,
SS: O que está sendo combinado aqui é apenas a região da boca,

05:10and here's how we do it.
e é assim que fazemos.

05:12Our pipeline uses a neural network
Nosso canal usa uma rede neural

05:14to convert and input audio into these mouth points.
para converter e entrar com áudio nestes pontos da boca.

05:18(Video) BO: We get it through our job or through Medicare or Medicaid.
(Vídeo) BO: Conseguimos isso por meio do trabalho, do Medicare ou do Medicaid.

05:22SS: Then we synthesize the texture, enhance details and teeth,
SS: Então, combinamos a textura, aprimoramos os detalhes e os dentes,

05:26and blend it into the head and background from a source video.
e integramos isso no início e no fundo de um vídeo de origem.

05:29(Video) BO: Women can get free checkups,
(Vídeo) BO: As mulheres têm direito a exames gratuitos

05:31and you can't get charged more just for being a woman.
e não se pode cobrá-las a mais por serem mulheres.

05:34Young people can stay on a parent's plan until they turn 26.
Os jovens podem permanecer no plano dos pais até completarem 26 anos.

05:39SS: I think these results seem very realistic and intriguing,
SS: Considero esses resultados muito realistas e intrigantes,

05:42but at the same time frightening, even to me.
mas, ao mesmo tempo, assustadores, até para mim.

05:45Our goal was to build an accurate model of a person, not to misrepresent them.
Nosso objetivo foi construir um modelo exato de uma pessoa e não desvirtuá-la.

05:49But one thing that concerns me is its potential for misuse.
Mas uma coisa que me preocupa é o seu potencial para uso indevido.

05:53People have been thinking about this problem for a long time,
As pessoas têm considerado esse problema há muito tempo,

05:56since the days when Photoshop first hit the market.
desde que o Photoshop chegou ao mercado.

05:59As a researcher, I'm also working on countermeasure technology,
Como pesquisador, também trabalho com tecnologia de medida preventiva,

06:03and I'm part of an ongoing effort at AI Foundation,
e faço parte de um esforço contínuo na AI Foundation,

06:06which uses a combination of machine learning and human moderators
que usa uma combinação de aprendizado de máquina e moderadores humanos

06:10to detect fake images and videos,
para detectar imagens e vídeos falsos,

06:12fighting against my own work.
lutando contra meu próprio trabalho.

06:14And one of the tools we plan to release is called Reality Defender,
Uma das ferramentas que planejamos lançar é chamada "Reality Defender",

06:17which is a web-browser plug-in that can flag potentially fake content
um "plug-in" de navegador da web que pode sinalizar conteúdo potencialmente falso

06:21automatically, right in the browser.
automaticamente, direto no navegador.

06:24(Applause)
(Aplausos)

06:28Despite all this, though,
Apesar de tudo isso, vídeos falsos podem causar muitos prejuízos,

06:30fake videos could do a lot of damage,
mesmo antes de alguém ter a chance de verificar.

06:32even before anyone has a chance to verify,
Por isso, é muito importante

06:35so it's very important that we make everyone aware
que conscientizemos todos do que é possível atualmente

06:38of what's currently possible
para que possamos supor de forma correta e ser críticos sobre o que vemos.

06:40so we can have the right assumption and be critical about what we see.
Ainda há um longo caminho a percorrer antes de podermos modelar as pessoas

06:44There's still a long way to go before we can fully model individual people
e garantir a segurança dessa tecnologia.

06:49and before we can ensure the safety of this technology.
Mas estou animado e esperançoso,

06:53But I'm excited and hopeful,
porque, se usarmos de forma correta e cuidadosa,

06:54because if we use it right and carefully,
essa ferramenta pode permitir

06:58this tool can allow any individual's positive impact on the world
que o impacto positivo de qualquer indivíduo no mundo

07:02to be massively scaled
seja medido em larga escala

07:04and really help shape our future the way we want it to be.
e ajude a modelar nosso futuro como queremos que ele seja.

07:07Thank you.
Obrigado.

07:08(Applause)
(Aplausos)

Tags:
Do you think you're good at spotting fake videos, where famous people say things they've never said in real life? See how they're made in this astonishing talk and tech demo. Computer scientist Supasorn Suwajanakorn shows how, as a grad student, he used AI and 3D modeling to create photorealistic fake videos of people synced to audio. Learn more about both the ethical implications and the creative possibilities of this tech -- and the steps being taken to fight against its misuse.


Comentários  


Fake videos of real people -- and how to spot them - Supasorn Suwajanakorn