00:12I would like to tell you a story
Eu gostaria de contar-lhes uma história
00:14connecting the notorious privacy incident
que conecta o famoso incidente de privacidade
00:18involving Adam and Eve,
envolvendo Adão e Eva,
00:20and the remarkable shift in the boundaries
e a notável mudança no limite
00:24between public and private which has occurred
entre o público e o privado que vem acontecendo
00:27in the past 10 years.
nos últimos 10 anos.
00:28You know the incident.
Vocês conhecem o incidente.
00:30Adam and Eve one day in the Garden of Eden
Adão e Eva, um dia, no Jardim do Éden,
00:33realize they are naked.
se dão conta de que estão nus.
00:35They freak out.
Eles se apavoram.
00:36And the rest is history.
E o resto vocês já conhecem.
00:39Nowadays, Adam and Eve
Hoje em dia, Adão e Eva
00:41would probably act differently.
provavelmente reagiriam diferente.
00:48We do reveal so much more information
Nós publicamos muito mais informações
00:50about ourselves online than ever before,
sobre nós mesmos on-line do que jamais antes,
00:54and so much information about us
e tanta informação sobre nós
00:55is being collected by organizations now.
está sendo coletada por organizações agora.
00:58There is much to gain and benefit
Há muito a se ganhar e a se beneficiar
01:05but there are also complex tradeoffs that come
mas há também desvantagens complexas
01:08from giving away our privacy.
ao abrir mão da privacidade.
01:11And my story is about these tradeoffs.
E minha história é sobre essas desvantagens.
01:21that any personal information
de que qualquer informação pessoal
01:23can become sensitive information.
pode se tornar delicada.
01:25Back in the year 2000, about 100 billion photos
No ano de 2000, cerca de 100 bilhões de fotos
01:30were shot worldwide,
foram tiradas em todo o mundo,
01:31but only a minuscule proportion of them
mas somente uma porção minúscula delas
01:34were actually uploaded online.
acabou sendo carregada na Internet.
01:36In 2010, only on Facebook, in a single month,
Em 2010, somente no Facebook, em um único mês,
01:402.5 billion photos were uploaded,
2,5 bilhões de fotos foram carregadas,
01:43most of them identified.
a maioria identificada.
01:45In the same span of time,
No mesmo período de tempo,
01:52improved by three orders of magnitude.
melhorou em três ordens de grandeza.
01:55What happens when you combine
O que acontece quando colocamos
01:57these technologies together:
essas tecnologias juntas:
01:59increasing availability of facial data;
crescente disponibilidade de informações faciais;
02:05but also cloud computing,
mas também computação em nuvem,
02:07which gives anyone in this theater
que oferece a qualquer um neste salão
02:09the kind of computational power
o tipo de poder computacional
02:11which a few years ago was only the domain
que há alguns anos era somente o domínio
02:12of three-letter agencies;
de agências de três letras;
02:14and ubiquitous computing,
e computação ubíqua,
02:18to connect to the Internet
conecte-se à Internet
02:20and do there hundreds of thousands
e faça lá centenas de milhares
02:23of face metrics in a few seconds?
de correspondências faciais em alguns segundos?
02:25Well, we conjecture that the result
Bem, nós conjecturamos que o resultado
02:28of this combination of technologies
dessa combinação de tecnologias
02:30will be a radical change in our very notions
será uma mudança radical em nossas noções
02:33of privacy and anonymity.
de privacidade e anonimato.
02:35To test that, we did an experiment
Para testar isso, fizemos um experimento
02:37on Carnegie Mellon University campus.
no campus da universidade de Carnegie Mellon.
02:39We asked students who were walking by
Nós pedimos a estudantes que estavam passando
02:41to participate in a study,
para participarem em um estudo,
02:43and we took a shot with a webcam,
e tiramos uma foto com uma webcam,
02:48While they were filling out the survey,
Enquanto estavam preenchendo a pesquisa,
02:53and we started using a facial recognizer
e começamos a usar um reconhecedor facial
02:55to match that shot to a database
para equiparar aquela foto com um banco de dados
02:57of some hundreds of thousands of images
de algumas centenas de milhares de fotos
03:00which we had downloaded from Facebook profiles.
que tínhamos baixado de perfis do Facebook.
03:10with the 10 best matching photos
com as 10 fotos que melhor se ajustavam
03:12which the recognizer had found,
e que o reconhecedor tinha encontrado,
03:14and we asked the subjects to indicate
e pedimos que os participantes indicassem
03:16whether he or she found themselves in the photo.
se eles estavam ou não na foto.
03:20Do you see the subject?
Você vê o participante?
03:24Well, the computer did, and in fact did so
Bem, o computador viu e, de fato, viu
03:27for one out of three subjects.
para um em cada três participantes.
03:36to give a name to that anonymous face
para dar um nome a um rosto anônimo,
03:38thanks to social media data.
graças a dados de mídia social.
03:40But a few years back, we did something else.
Mas há alguns anos, nós fizemos algo diferente.
03:42We started from social media data,
Nós partimos de dados de mídia social,
03:44we combined it statistically with data
combinamos estatisticamente com dados
03:47from U.S. government social security,
da seguridade social do governo americano,
03:52which in the United States
que nos Estados Unidos
03:54are extremely sensitive information.
são informações extremamente delicadas.
03:56Do you see where I'm going with this?
Vocês veem onde estou indo com isso?
03:58So if you combine the two studies together,
Então, se combinarmos os dois estudos,
04:01then the question becomes,
a questão se torna:
04:02can you start from a face and,
dá para partir de um rosto e,
04:05using facial recognition, find a name
usando reconhecimento facial, encontrar um nome
04:07and publicly available information
e informação disponível publicamente
04:10about that name and that person,
sobre esse nome e essa pessoa,
04:12and from that publicly available information
e dessa informação publicamente disponível
04:14infer non-publicly available information,
inferir informação indisponível publicamente,
04:16much more sensitive ones
muito mais delicada,
04:18which you link back to the face?
que podemos conectar de volta com o rosto?
04:19And the answer is, yes, we can, and we did.
E a resposta é, sim, dá para fazer, e nós fizemos.
04:21Of course, the accuracy keeps getting worse.
Claro, a precisão continua caindo.
04:29which uses the phone's internal camera
que usa a câmera interna do celular
04:31to take a shot of a subject
para tirar a foto de um indivíduo
04:33and then upload it to a cloud
e então envia para a nuvem
04:39trying to infer sensitive information,
tenta inferir informação delicada,
04:41and then sending back to the phone
e então envia de volta ao iPhone
04:47an example of augmented reality,
um exemplo de realidade aumentada,
04:55just as a proof of concept.
somente como prova de conceito.
04:57In fact, take these technologies
De fato, pegue essas tecnologias
04:59and push them to their logical extreme.
e coloque-as até seu extremo lógico.
05:01Imagine a future in which strangers around you
Imagine um futuro onde estranhos à sua volta
05:04will look at you through their Google Glasses
olharão para você por seus Google Glasses
05:06or, one day, their contact lenses,
ou, um dia, suas lentes de contato,
05:08and use seven or eight data points about you
e usar sete ou oito pontos de dados sobre você
05:12to infer anything else
para inferir qualquer outra coisa
05:15which may be known about you.
que se possa saber sobre você.
05:17What will this future without secrets look like?
Como será esse futuro sem segredos?
05:22And should we care?
E deveríamos nos preocupar?
05:24We may like to believe
Nós talvez queiramos acreditar
05:26that the future with so much wealth of data
que o futuro com tanta riqueza de dados
05:29would be a future with no more biases,
será um futuro sem preconceitos,
05:32but in fact, having so much information
mas na verdade, ter tanta informação
05:35doesn't mean that we will make decisions
não quer dizer que tomaremos decisões
05:37which are more objective.
que sejam mais objetivas.
05:44We included in this information some references
Incluímos nessas informações algumas referências
05:47to some funny, absolutely legal,
a informações engraçadas, totalmente legais,
05:50but perhaps slightly embarrassing information
mas talvez levemente constrangedoras
05:52that the subject had posted online.
que o participante tinha postado on-line.
05:54Now interestingly, among our subjects,
Agora, curiosamente, entre os participantes,
05:57some had posted comparable information,
alguns tinham postado informações comparáveis,
06:00and some had not.
e outros não.
06:02Which group do you think
Que grupo vocês acham
06:09Paradoxically, it was the group
Paradoxalmente, foi o grupo
06:10who had posted similar information,
que tinha postado informação similar,
06:12an example of moral dissonance.
um exemplo de dissonância moral.
06:15Now you may be thinking,
Você podem estar pensando.
06:17this does not apply to me,
isso não se aplica a mim,
06:19because I have nothing to hide.
porque não tenho nada a esconder.
06:21But in fact, privacy is not about
Mas na verdade, privacidade não se trata
06:23having something negative to hide.
de ter algo negativo a esconder.
06:27Imagine that you are the H.R. director
Imagine que você é o diretor de RH
06:35Therefore, you Google their names
Portanto, você pesquisa seus nomes
06:37and in a certain universe,
e em um certo universo,
06:39you find this information.
você encontra esta informação.
06:46Do you think that you would be equally likely
Você acha que estaria igualmente disposto
06:49to call either candidate for an interview?
a chamar o candidato para uma entrevista?
06:51If you think so, then you are not
Se você pensa que sim, então você não é
06:54like the U.S. employers who are, in fact,
como os empregadores americanos que, na verdade,
07:06and we detected, we monitored,
e detectamos, monitoramos,
07:07whether they were searching for our candidates,
se estavam procurando pelos nossos candidatos,
07:10and whether they were acting on the information
e se estavam reagindo às informações
07:12they found on social media. And they were.
que encontravam na mídia social. E estavam.
07:16for equally skilled candidates.
para candidatos igualmente capazes.
07:19Now marketers like us to believe
Marqueteiros gostam que acreditemos
07:23that all information about us will always
que toda informação sobre nós sempre será
07:26be used in a manner which is in our favor.
usada de uma maneira a nosso favor.
07:33In a movie which came out a few years ago,
Em um filme que saiu há alguns anos,
07:35"Minority Report," a famous scene
"Minority Report", uma cena famosa
07:38had Tom Cruise walk in a mall
tinha Tom Cruise entrando em um shopping
07:40and holographic personalized advertising
e anúncios holográficos personalizados
07:44would appear around him.
apareciam a sua volta.
07:46Now, that movie is set in 2054,
Agora, esse filme acontece em 2054,
07:49about 40 years from now,
cerca de daqui a 40 anos,
07:51and as exciting as that technology looks,
e por mais interessante que pareça essa tecnologia,
07:54it already vastly underestimates
ela já subestima enormemente
07:56the amount of information that organizations
a quantidade de informação que as organizações
07:59can gather about you, and how they can use it
podem juntar sobre você, e como podem usá-la
08:04So as an example, this is another experiment
E como exemplo, este é um outro experimento
08:07actually we are running, not yet completed.
que estamos fazendo, ainda não terminamos.
08:09Imagine that an organization has access
Imagine que uma organização tem acesso
08:11to your list of Facebook friends,
à sua lista de amigos no Facebook,
08:13and through some kind of algorithm
e através de algum tipo de algoritmo
08:19And then they create, in real time,
E eles criam, em tempo real,
08:21a facial composite of these two friends.
uma composição facial desses dois amigos.
08:27don't recognize any longer even themselves
não reconhecem mais, mesmo se forem elas mesmas
08:30in facial composites, but they react
em composições faciais, mas elas reagem
08:32to those composites in a positive manner.
a essas composições de maneira positiva.
08:38and there is an ad suggesting you to buy it,
e houver um anúncio sugerindo que você o compre,
08:40it will not be just a standard spokesperson.
não será somente um porta-voz em geral.
08:43It will be one of your friends,
Será um de seus amigos,
08:49Now the problem is that
E o problema é que
08:51the current policy mechanisms we have
os mecanismos de políticas que temos atualmente
08:57are like bringing a knife to a gunfight.
são como levar uma faca para um tiroteio.
09:00One of these mechanisms is transparency,
Um desses mecanismos é a transparência,
09:06And in principle, that's a very good thing.
E, em princípio, isso é uma coisa muito boa.
09:08It's necessary, but it is not sufficient.
É necessário, mas não é suficiente.
09:12Transparency can be misdirected.
A transparência pode ser mal direcionada.
09:16You can tell people what you are going to do,
Você pode dizer às pessoas o que vai fazer,
09:18and then you still nudge them to disclose
e você ainda avisa para revelar
09:20arbitrary amounts of personal information.
quantidades arbitrárias de informações pessoais.
09:26we asked them to provide information
nós pedimos que eles fornecessem informações
09:29about their campus behavior,
a respeito de seu comportamento no campus,
09:31including pretty sensitive questions, such as this one.
incluindo questões delicadas, como esta.
09:34[Have you ever cheated in an exam?]
[Você já colou em uma prova?]
09:34Now to one group of subjects, we told them,
Agora para um grupo de participantes nós dissemos:
09:36"Only other students will see your answers."
"Somente outros estudantes verão suas respostas."
09:39To another group of subjects, we told them,
Para outro grupo de participantes, nós dissemos:
09:41"Students and faculty will see your answers."
"Estudantes e professores verão suas respostas."
09:51It makes sense, right?
Faz sentido, certo?
09:52But then we added the misdirection.
Mas aí adicionamos um despiste.
09:57this time adding a delay
desta vez adicionando uma demora
09:59between the time we told subjects
entre o momento quando dizíamos aos participantes
10:02how we would use their data
como usaríamos seus dados
10:09How long a delay do you think we had to add
Quanto tempo vocês acham que tivemos que adicionar
10:11in order to nullify the inhibitory effect
para anular o efeito inibitório
10:21Five minutes?
Cinco minutos?
10:25How about 15 seconds?
Que tal 15 segundos?
10:29disclose the same amount of information,
expusessem a mesma quantidade de informação,
10:31as if the second group now no longer cares
como se o segundo grupo não se importasse mais
10:34for faculty reading their answers.
com os professores lendo suas respostas.
10:40may sound exceedingly gloomy,
pode parecer excessivamente sombria,
10:42but that is not my point.
mas não é esse meu argumento.
10:46there are alternatives.
há alternativas.
10:54they can be done.
pelo qual podem ser feitas.
11:00consider whether the game has been designed
pense que o jogo foi projetado
11:09is already halfway through the process
já é metade do caminho
11:10of being able to protect yourself.
para ser capaz de se proteger.
11:16with the benefits of big data,
com os benefícios da big data,
11:18consider that in the last 20 years,
considere que nos últimos 20 anos,
11:20researchers have created technologies
pesquisadores criaram tecnologias
11:26to take place in a more privacy-preserving manner.
aconteça protegendo mais a privacidade.
11:29We can browse the Internet anonymously.
Podemos navegar pela internet anonimamente.
11:32We can send emails that can only be read
Podemos enviar e-mails que só podem ser lidos
11:35by the intended recipient, not even the NSA.
pelo destinatário desejado, nem mesmo a NSA.
11:45while protecting privacy.
e proteger a privacidade ao mesmo tempo.
11:47Of course, these technologies imply a shifting
Claro, essas tecnologias implicam numa mudança
11:51of cost and revenues
de custos e receitas
11:53between data holders and data subjects,
entre os detentores dos dados e as pessoas referidas,
11:58Which brings me back to the Garden of Eden.
O que me leva de volta ao Jardim do Éden.
12:02There is a second privacy interpretation
Há uma segunda interpretação de privacidade
12:05of the story of the Garden of Eden
da história do Jardim do Éden
12:07which doesn't have to do with the issue
que não tem a ver com a questão
12:09of Adam and Eve feeling naked
de Adão e Eva se sentirem nus
12:11and feeling ashamed.
e envergonhados.
12:13You can find echoes of this interpretation
Dá para encontrar ecos desta interpretação
12:16in John Milton's "Paradise Lost."
no poema de John Milton, "Paraíso Perdido".
12:23They're happy. They are satisfied.
Estão felizes. Estão satisfeitos.
12:25However, they also lack knowledge
Entretanto, eles também não têm conhecimento
12:27and self-awareness.
e autoconsciência.
12:29The moment they eat the aptly named
No momento em que eles comem o que é
12:32fruit of knowledge,
chamado apropriadamente de fruta do conhecimento,
12:34that's when they discover themselves.
é aí que eles se descobrem.
12:36They become aware. They achieve autonomy.
Eles se tornam cientes. Eles atingem autonomia.
12:43So privacy, in a way, is both the means
Então, privacidade, de certa maneira, é tanto o meio
12:47and the price to pay for freedom.
quanto o preço a se pagar pela liberdade.
12:50Again, marketers tell us
Novamente, marqueteiros nos dizem
12:53that big data and social media
que big data e mídia social
12:56are not just a paradise of profit for them,
não são somente um paraíso de lucros para eles,
12:59but a Garden of Eden for the rest of us.
mas um Jardim do Éden para o resto de nós.
13:02We get free content.
Nós temos conteúdo gratuito.
13:06But in fact, in a few years, organizations
Mas na verdade, em alguns anos, organizações
13:09will know so much about us,
saberão tanto sobre nós,
13:10they will be able to infer our desires
que conseguirão inferir nossos desejos
13:13before we even form them, and perhaps
antes mesmo que os tenhamos e, talvez,
13:15buy products on our behalf
comprar produtos em nosso nome
13:18before we even know we need them.
antes mesmo de sabermos que precisamos deles.
13:20Now there was one English author
Bom, havia um escritor inglês
13:23who anticipated this kind of future
que antecipou esse tipo de futuro
13:26where we would trade away
onde ofereceríamos
13:28our autonomy and freedom for comfort.
nossa autonomia e liberdade em troca de conforto.
13:31Even more so than George Orwell,
Mais ainda do que George Orwell,
13:33the author is, of course, Aldous Huxley.
o escritor é, obviamente, Aldous Huxley.
13:36In "Brave New World," he imagines a society
Em "Admirável Mundo Novo", ele imagina uma sociedade
13:39where technologies that we created
onde as tecnologias que criamos
13:41originally for freedom
originalmente por liberdade
13:43end up coercing us.
acabam nos reprimindo.
13:50of that society, similar to the path
dessa sociedade, parecida com o caminho
13:58In the words of the Savage,
No mundo dos Selvagens,
14:00regaining autonomy and freedom is possible,
recuperar a autonomia e a liberdade é possível,
14:03although the price to pay is steep.
porém o preço a se pagar é alto.
14:11of our times will be the fight
nossa época será a luta
14:14for the control over personal information,
pelo controle de informações pessoais,
14:20for freedom,
pela liberdade,
14:26Right now, many of us
Agora mesmo, muitos de nós
14:29do not even know that the fight is going on,
nem mesmo sabem que a luta está acontecendo,
14:31but it is, whether you like it or not.
mas ela está, quer vocês gostem ou não.
14:34And at the risk of playing the serpent,
E com o risco de fazer o papel da serpente,
14:37I will tell you that the tools for the fight
vou lhes dizer que as ferramentas para a luta
14:40are here, the awareness of what is going on,
estão aqui, a consciência do que está acontecendo,
14:43and in your hands,
e em suas mãos,
14:44just a few clicks away.
só a alguns cliques de distância.