Why privacy matters
Alessandro Acquisti

     

Letras em inglês
Letras em português
Veloc.:

Letra e Tradução
Clique para ir ao ponto exato

00:12I would like to tell you a story
Eu gostaria de contar-lhes uma história

00:14connecting the notorious privacy incident
que conecta o famoso incidente de privacidade

00:18involving Adam and Eve,
envolvendo Adão e Eva,

00:20and the remarkable shift in the boundaries
e a notável mudança no limite

00:24between public and private which has occurred
entre o público e o privado que vem acontecendo

00:27in the past 10 years.
nos últimos 10 anos.

00:28You know the incident.
Vocês conhecem o incidente.

00:30Adam and Eve one day in the Garden of Eden
Adão e Eva, um dia, no Jardim do Éden,

00:33realize they are naked.
se dão conta de que estão nus.

00:35They freak out.
Eles se apavoram.

00:36And the rest is history.
E o resto vocês já conhecem.

00:39Nowadays, Adam and Eve
Hoje em dia, Adão e Eva

00:41would probably act differently.
provavelmente reagiriam diferente.

00:44[@Adam Last nite was a blast! loved dat apple LOL]
[@Adão Ontem à noite foi show! Curti akela maçã LOL]

00:46[@Eve yep.. babe, know what happened to my pants tho?]
[@Eva pois é... gata, cê viu minha calça por aí?]

00:48We do reveal so much more information
Nós publicamos muito mais informações

00:50about ourselves online than ever before,
sobre nós mesmos on-line do que jamais antes,

00:54and so much information about us
e tanta informação sobre nós

00:55is being collected by organizations now.
está sendo coletada por organizações agora.

00:58There is much to gain and benefit
Há muito a se ganhar e a se beneficiar

01:01from this massive analysis of personal information,
dessa análise massiva de informações pessoais,

01:03or big data,
ou big data,

01:05but there are also complex tradeoffs that come
mas há também desvantagens complexas

01:08from giving away our privacy.
ao abrir mão da privacidade.

01:11And my story is about these tradeoffs.
E minha história é sobre essas desvantagens.

01:15We start with an observation which, in my mind,
Começamos com uma observação que, na minha mente,

01:18has become clearer and clearer in the past few years,
se tornou cada vez mais clara nos últimos anos,

01:21that any personal information
de que qualquer informação pessoal

01:23can become sensitive information.
pode se tornar delicada.

01:25Back in the year 2000, about 100 billion photos
No ano de 2000, cerca de 100 bilhões de fotos

01:30were shot worldwide,
foram tiradas em todo o mundo,

01:31but only a minuscule proportion of them
mas somente uma porção minúscula delas

01:34were actually uploaded online.
acabou sendo carregada na Internet.

01:36In 2010, only on Facebook, in a single month,
Em 2010, somente no Facebook, em um único mês,

01:402.5 billion photos were uploaded,
2,5 bilhões de fotos foram carregadas,

01:43most of them identified.
a maioria identificada.

01:45In the same span of time,
No mesmo período de tempo,

01:47computers' ability to recognize people in photos
a capacidade dos computadores de reconhecerem pessoas em fotos

01:52improved by three orders of magnitude.
melhorou em três ordens de grandeza.

01:55What happens when you combine
O que acontece quando colocamos

01:57these technologies together:
essas tecnologias juntas:

01:59increasing availability of facial data;
crescente disponibilidade de informações faciais;

02:01improving facial recognizing ability by computers;
crescente capacidade de reconhecimento facial por computadores;

02:05but also cloud computing,
mas também computação em nuvem,

02:07which gives anyone in this theater
que oferece a qualquer um neste salão

02:09the kind of computational power
o tipo de poder computacional

02:11which a few years ago was only the domain
que há alguns anos era somente o domínio

02:12of three-letter agencies;
de agências de três letras;

02:14and ubiquitous computing,
e computação ubíqua,

02:16which allows my phone, which is not a supercomputer,
que permite que meu celular, que não é um supercomputador,

02:18to connect to the Internet
conecte-se à Internet

02:20and do there hundreds of thousands
e faça lá centenas de milhares

02:23of face metrics in a few seconds?
de correspondências faciais em alguns segundos?

02:25Well, we conjecture that the result
Bem, nós conjecturamos que o resultado

02:28of this combination of technologies
dessa combinação de tecnologias

02:30will be a radical change in our very notions
será uma mudança radical em nossas noções

02:33of privacy and anonymity.
de privacidade e anonimato.

02:35To test that, we did an experiment
Para testar isso, fizemos um experimento

02:37on Carnegie Mellon University campus.
no campus da universidade de Carnegie Mellon.

02:39We asked students who were walking by
Nós pedimos a estudantes que estavam passando

02:41to participate in a study,
para participarem em um estudo,

02:43and we took a shot with a webcam,
e tiramos uma foto com uma webcam,

02:46and we asked them to fill out a survey on a laptop.
e pedimos que eles preenchessem uma pesquisa em um laptop.

02:48While they were filling out the survey,
Enquanto estavam preenchendo a pesquisa,

02:50we uploaded their shot to a cloud-computing cluster,
nós enviamos a foto para um cluster de computação em nuvem,

02:53and we started using a facial recognizer
e começamos a usar um reconhecedor facial

02:55to match that shot to a database
para equiparar aquela foto com um banco de dados

02:57of some hundreds of thousands of images
de algumas centenas de milhares de fotos

03:00which we had downloaded from Facebook profiles.
que tínhamos baixado de perfis do Facebook.

03:03By the time the subject reached the last page
No momento que o participante atingia a última página

03:06on the survey, the page had been dynamically updated
na pesquisa, a página tinha sido atualizada dinamicamente

03:10with the 10 best matching photos
com as 10 fotos que melhor se ajustavam

03:12which the recognizer had found,
e que o reconhecedor tinha encontrado,

03:14and we asked the subjects to indicate
e pedimos que os participantes indicassem

03:16whether he or she found themselves in the photo.
se eles estavam ou não na foto.

03:20Do you see the subject?
Você vê o participante?

03:24Well, the computer did, and in fact did so
Bem, o computador viu e, de fato, viu

03:27for one out of three subjects.
para um em cada três participantes.

03:29So essentially, we can start from an anonymous face,
Então essencialmente, podemos partir de um rosto anônimo,

03:32offline or online, and we can use facial recognition
off-line ou on-line, e podemos usar reconhecimento facial

03:36to give a name to that anonymous face
para dar um nome a um rosto anônimo,

03:38thanks to social media data.
graças a dados de mídia social.

03:40But a few years back, we did something else.
Mas há alguns anos, nós fizemos algo diferente.

03:42We started from social media data,
Nós partimos de dados de mídia social,

03:44we combined it statistically with data
combinamos estatisticamente com dados

03:47from U.S. government social security,
da seguridade social do governo americano,

03:49and we ended up predicting social security numbers,
e acabamos prevendo números de seguridade social,

03:52which in the United States
que nos Estados Unidos

03:54are extremely sensitive information.
são informações extremamente delicadas.

03:56Do you see where I'm going with this?
Vocês veem onde estou indo com isso?

03:58So if you combine the two studies together,
Então, se combinarmos os dois estudos,

04:01then the question becomes,
a questão se torna:

04:02can you start from a face and,
dá para partir de um rosto e,

04:05using facial recognition, find a name
usando reconhecimento facial, encontrar um nome

04:07and publicly available information
e informação disponível publicamente

04:10about that name and that person,
sobre esse nome e essa pessoa,

04:12and from that publicly available information
e dessa informação publicamente disponível

04:14infer non-publicly available information,
inferir informação indisponível publicamente,

04:16much more sensitive ones
muito mais delicada,

04:18which you link back to the face?
que podemos conectar de volta com o rosto?

04:19And the answer is, yes, we can, and we did.
E a resposta é, sim, dá para fazer, e nós fizemos.

04:21Of course, the accuracy keeps getting worse.
Claro, a precisão continua caindo.

04:24[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
[27% dos cinco primeiros dígitos do SSN do indivíduo identificados (em 4 tentativas)]

04:25But in fact, we even decided to develop an iPhone app
Mas na verdade, nós até decidimos desenvolver um aplicativo para iPhone

04:29which uses the phone's internal camera
que usa a câmera interna do celular

04:31to take a shot of a subject
para tirar a foto de um indivíduo

04:33and then upload it to a cloud
e então envia para a nuvem

04:34and then do what I just described to you in real time:
e faz em tempo real o que acabei de descrever:

04:37looking for a match, finding public information,
faz a correspondência, encontra informação pública,

04:39trying to infer sensitive information,
tenta inferir informação delicada,

04:41and then sending back to the phone
e então envia de volta ao iPhone

04:44so that it is overlaid on the face of the subject,
para que seja sobreposta ao rosto do indivíduo,

04:47an example of augmented reality,
um exemplo de realidade aumentada,

04:49probably a creepy example of augmented reality.
provavelmente um exemplo assustador de realidade aumentada.

04:51In fact, we didn't develop the app to make it available,
Na verdade, não desenvolvemos o aplicativo para disponibilizar,

04:55just as a proof of concept.
somente como prova de conceito.

04:57In fact, take these technologies
De fato, pegue essas tecnologias

04:59and push them to their logical extreme.
e coloque-as até seu extremo lógico.

05:01Imagine a future in which strangers around you
Imagine um futuro onde estranhos à sua volta

05:04will look at you through their Google Glasses
olharão para você por seus Google Glasses

05:06or, one day, their contact lenses,
ou, um dia, suas lentes de contato,

05:08and use seven or eight data points about you
e usar sete ou oito pontos de dados sobre você

05:12to infer anything else
para inferir qualquer outra coisa

05:15which may be known about you.
que se possa saber sobre você.

05:17What will this future without secrets look like?
Como será esse futuro sem segredos?

05:22And should we care?
E deveríamos nos preocupar?

05:24We may like to believe
Nós talvez queiramos acreditar

05:26that the future with so much wealth of data
que o futuro com tanta riqueza de dados

05:29would be a future with no more biases,
será um futuro sem preconceitos,

05:32but in fact, having so much information
mas na verdade, ter tanta informação

05:35doesn't mean that we will make decisions
não quer dizer que tomaremos decisões

05:37which are more objective.
que sejam mais objetivas.

05:39In another experiment, we presented to our subjects
Em outro experimento, nós apresentamos aos participantes

05:42information about a potential job candidate.
informações sobre um potencial candidato de emprego.

05:44We included in this information some references
Incluímos nessas informações algumas referências

05:47to some funny, absolutely legal,
a informações engraçadas, totalmente legais,

05:50but perhaps slightly embarrassing information
mas talvez levemente constrangedoras

05:52that the subject had posted online.
que o participante tinha postado on-line.

05:54Now interestingly, among our subjects,
Agora, curiosamente, entre os participantes,

05:57some had posted comparable information,
alguns tinham postado informações comparáveis,

06:00and some had not.
e outros não.

06:02Which group do you think
Que grupo vocês acham

06:04was more likely to judge harshly our subject?
que estava mais suscetível a julgar severamente nosso participante?

06:09Paradoxically, it was the group
Paradoxalmente, foi o grupo

06:10who had posted similar information,
que tinha postado informação similar,

06:12an example of moral dissonance.
um exemplo de dissonância moral.

06:15Now you may be thinking,
Você podem estar pensando.

06:17this does not apply to me,
isso não se aplica a mim,

06:19because I have nothing to hide.
porque não tenho nada a esconder.

06:21But in fact, privacy is not about
Mas na verdade, privacidade não se trata

06:23having something negative to hide.
de ter algo negativo a esconder.

06:27Imagine that you are the H.R. director
Imagine que você é o diretor de RH

06:29of a certain organization, and you receive résumés,
de uma certa organização, e você recebe currículos,

06:32and you decide to find more information about the candidates.
e decide procurar mais informações sobre os candidatos.

06:35Therefore, you Google their names
Portanto, você pesquisa seus nomes

06:37and in a certain universe,
e em um certo universo,

06:39you find this information.
você encontra esta informação.

06:41Or in a parallel universe, you find this information.
Ou em um universo paralelo, você encontra esta informação.

06:46Do you think that you would be equally likely
Você acha que estaria igualmente disposto

06:49to call either candidate for an interview?
a chamar o candidato para uma entrevista?

06:51If you think so, then you are not
Se você pensa que sim, então você não é

06:54like the U.S. employers who are, in fact,
como os empregadores americanos que, na verdade,

06:56part of our experiment, meaning we did exactly that.
são parte de nosso experimento, ou seja, fizemos exatamente isso.

07:00We created Facebook profiles, manipulating traits,
Criamos perfis no Facebook, manipulando características,

07:03then we started sending out résumés to companies in the U.S.,
e começamos a enviar currículos para empresas nos EUA,

07:06and we detected, we monitored,
e detectamos, monitoramos,

07:07whether they were searching for our candidates,
se estavam procurando pelos nossos candidatos,

07:10and whether they were acting on the information
e se estavam reagindo às informações

07:12they found on social media. And they were.
que encontravam na mídia social. E estavam.

07:14Discrimination was happening through social media
Discriminação estava acontecendo pela mídia social

07:16for equally skilled candidates.
para candidatos igualmente capazes.

07:19Now marketers like us to believe
Marqueteiros gostam que acreditemos

07:23that all information about us will always
que toda informação sobre nós sempre será

07:26be used in a manner which is in our favor.
usada de uma maneira a nosso favor.

07:29But think again. Why should that be always the case?
Mas pensem novamente. Por que esse deve ser sempre o caso?

07:33In a movie which came out a few years ago,
Em um filme que saiu há alguns anos,

07:35"Minority Report," a famous scene
"Minority Report", uma cena famosa

07:38had Tom Cruise walk in a mall
tinha Tom Cruise entrando em um shopping

07:40and holographic personalized advertising
e anúncios holográficos personalizados

07:44would appear around him.
apareciam a sua volta.

07:46Now, that movie is set in 2054,
Agora, esse filme acontece em 2054,

07:49about 40 years from now,
cerca de daqui a 40 anos,

07:51and as exciting as that technology looks,
e por mais interessante que pareça essa tecnologia,

07:54it already vastly underestimates
ela já subestima enormemente

07:56the amount of information that organizations
a quantidade de informação que as organizações

07:59can gather about you, and how they can use it
podem juntar sobre você, e como podem usá-la

08:01to influence you in a way that you will not even detect.
para influenciá-lo de uma maneira que você nem perceba.

08:04So as an example, this is another experiment
E como exemplo, este é um outro experimento

08:07actually we are running, not yet completed.
que estamos fazendo, ainda não terminamos.

08:09Imagine that an organization has access
Imagine que uma organização tem acesso

08:11to your list of Facebook friends,
à sua lista de amigos no Facebook,

08:13and through some kind of algorithm
e através de algum tipo de algoritmo

08:15they can detect the two friends that you like the most.
eles conseguem detectar seus dois amigos preferidos.

08:19And then they create, in real time,
E eles criam, em tempo real,

08:21a facial composite of these two friends.
uma composição facial desses dois amigos.

08:24Now studies prior to ours have shown that people
E estudos anteriores ao nosso mostraram que as pessoas

08:27don't recognize any longer even themselves
não reconhecem mais, mesmo se forem elas mesmas

08:30in facial composites, but they react
em composições faciais, mas elas reagem

08:32to those composites in a positive manner.
a essas composições de maneira positiva.

08:34So next time you are looking for a certain product,
Então, da próxima vez que você estiver procurando por um certo produto,

08:38and there is an ad suggesting you to buy it,
e houver um anúncio sugerindo que você o compre,

08:40it will not be just a standard spokesperson.
não será somente um porta-voz em geral.

08:43It will be one of your friends,
Será um de seus amigos,

08:46and you will not even know that this is happening.
e você nem vai saber que isso está acontecendo.

08:49Now the problem is that
E o problema é que

08:51the current policy mechanisms we have
os mecanismos de políticas que temos atualmente

08:54to protect ourselves from the abuses of personal information
para nos proteger dos abusos de informações pessoais

08:57are like bringing a knife to a gunfight.
são como levar uma faca para um tiroteio.

09:00One of these mechanisms is transparency,
Um desses mecanismos é a transparência,

09:03telling people what you are going to do with their data.
dizer às pessoas o que se vai fazer com os dados delas.

09:06And in principle, that's a very good thing.
E, em princípio, isso é uma coisa muito boa.

09:08It's necessary, but it is not sufficient.
É necessário, mas não é suficiente.

09:12Transparency can be misdirected.
A transparência pode ser mal direcionada.

09:16You can tell people what you are going to do,
Você pode dizer às pessoas o que vai fazer,

09:18and then you still nudge them to disclose
e você ainda avisa para revelar

09:20arbitrary amounts of personal information.
quantidades arbitrárias de informações pessoais.

09:23So in yet another experiment, this one with students,
E ainda em outro experimento, este com estudantes,

09:26we asked them to provide information
nós pedimos que eles fornecessem informações

09:29about their campus behavior,
a respeito de seu comportamento no campus,

09:31including pretty sensitive questions, such as this one.
incluindo questões delicadas, como esta.

09:34[Have you ever cheated in an exam?]
[Você já colou em uma prova?]

09:34Now to one group of subjects, we told them,
Agora para um grupo de participantes nós dissemos:

09:36"Only other students will see your answers."
"Somente outros estudantes verão suas respostas."

09:39To another group of subjects, we told them,
Para outro grupo de participantes, nós dissemos:

09:41"Students and faculty will see your answers."
"Estudantes e professores verão suas respostas."

09:44Transparency. Notification. And sure enough, this worked,
Transparência. Notificação. E com certeza, funcionou,

09:47in the sense that the first group of subjects
no sentido de que o primeiro grupo de participantes

09:48were much more likely to disclose than the second.
estava muito mais disposto a se expor do que o segundo.

09:51It makes sense, right?
Faz sentido, certo?

09:52But then we added the misdirection.
Mas aí adicionamos um despiste.

09:54We repeated the experiment with the same two groups,
Nós repetimos o experimento com os mesmos dois grupos,

09:57this time adding a delay
desta vez adicionando uma demora

09:59between the time we told subjects
entre o momento quando dizíamos aos participantes

10:02how we would use their data
como usaríamos seus dados

10:04and the time we actually started answering the questions.
e o momento em que eles realmente começaram a responder as perguntas.

10:09How long a delay do you think we had to add
Quanto tempo vocês acham que tivemos que adicionar

10:11in order to nullify the inhibitory effect
para anular o efeito inibitório

10:16of knowing that faculty would see your answers?
de saber que os professores veriam suas respostas?

10:19Ten minutes?
Dez minutos?

10:21Five minutes?
Cinco minutos?

10:23One minute?
Um minuto?

10:25How about 15 seconds?
Que tal 15 segundos?

10:27Fifteen seconds were sufficient to have the two groups
15 segundos foram suficientes para que os dois grupos

10:29disclose the same amount of information,
expusessem a mesma quantidade de informação,

10:31as if the second group now no longer cares
como se o segundo grupo não se importasse mais

10:34for faculty reading their answers.
com os professores lendo suas respostas.

10:36Now I have to admit that this talk so far
Bem, eu tenho que admitir que, até agora, essa palestra

10:40may sound exceedingly gloomy,
pode parecer excessivamente sombria,

10:42but that is not my point.
mas não é esse meu argumento.

10:44In fact, I want to share with you the fact that
Na verdade, quero compartilhar com vocês o fato de que

10:46there are alternatives.
há alternativas.

10:48The way we are doing things now is not the only way
O jeito pelo qual estamos fazendo as coisas agora não é o único

10:51they can done, and certainly not the best way
pelo qual elas podem ser feitas, e certamente não é o melhor

10:54they can be done.
pelo qual podem ser feitas.

10:56When someone tells you, "People don't care about privacy,"
Quando alguém lhe diz: "As pessoas não se importam com privacidade",

11:00consider whether the game has been designed
pense que o jogo foi projetado

11:03and rigged so that they cannot care about privacy,
e manipulado para que elas não possam se importar com privacidade,

11:05and coming to the realization that these manipulations occur
e chegar à percepção de que essas manipulações ocorrem

11:09is already halfway through the process
já é metade do caminho

11:10of being able to protect yourself.
para ser capaz de se proteger.

11:12When someone tells you that privacy is incompatible
Quando alguém lhe diz que a privacidade é incompatível

11:16with the benefits of big data,
com os benefícios da big data,

11:18consider that in the last 20 years,
considere que nos últimos 20 anos,

11:20researchers have created technologies
pesquisadores criaram tecnologias

11:22to allow virtually any electronic transactions
para permitir que praticamente qualquer transação eletrônica

11:26to take place in a more privacy-preserving manner.
aconteça protegendo mais a privacidade.

11:29We can browse the Internet anonymously.
Podemos navegar pela internet anonimamente.

11:32We can send emails that can only be read
Podemos enviar e-mails que só podem ser lidos

11:35by the intended recipient, not even the NSA.
pelo destinatário desejado, nem mesmo a NSA.

11:38We can have even privacy-preserving data mining.
Podemos até ter mineração de dados preservando a privacidade.

11:41In other words, we can have the benefits of big data
Em outras palavras, podemos ter os benefícios da big data

11:45while protecting privacy.
e proteger a privacidade ao mesmo tempo.

11:47Of course, these technologies imply a shifting
Claro, essas tecnologias implicam numa mudança

11:51of cost and revenues
de custos e receitas

11:53between data holders and data subjects,
entre os detentores dos dados e as pessoas referidas,

11:55which is why, perhaps, you don't hear more about them.
que é o motivo, talvez, por que não se fala mais disso.

11:58Which brings me back to the Garden of Eden.
O que me leva de volta ao Jardim do Éden.

12:02There is a second privacy interpretation
Há uma segunda interpretação de privacidade

12:05of the story of the Garden of Eden
da história do Jardim do Éden

12:07which doesn't have to do with the issue
que não tem a ver com a questão

12:09of Adam and Eve feeling naked
de Adão e Eva se sentirem nus

12:11and feeling ashamed.
e envergonhados.

12:13You can find echoes of this interpretation
Dá para encontrar ecos desta interpretação

12:16in John Milton's "Paradise Lost."
no poema de John Milton, "Paraíso Perdido".

12:19In the garden, Adam and Eve are materially content.
No jardim, Adão e Eva estão satisfeitos materialmente

12:23They're happy. They are satisfied.
Estão felizes. Estão satisfeitos.

12:25However, they also lack knowledge
Entretanto, eles também não têm conhecimento

12:27and self-awareness.
e autoconsciência.

12:29The moment they eat the aptly named
No momento em que eles comem o que é

12:32fruit of knowledge,
chamado apropriadamente de fruta do conhecimento,

12:34that's when they discover themselves.
é aí que eles se descobrem.

12:36They become aware. They achieve autonomy.
Eles se tornam cientes. Eles atingem autonomia.

12:40The price to pay, however, is leaving the garden.
O preço a se pagar, entretanto, é abandonar o jardim.

12:43So privacy, in a way, is both the means
Então, privacidade, de certa maneira, é tanto o meio

12:47and the price to pay for freedom.
quanto o preço a se pagar pela liberdade.

12:50Again, marketers tell us
Novamente, marqueteiros nos dizem

12:53that big data and social media
que big data e mídia social

12:56are not just a paradise of profit for them,
não são somente um paraíso de lucros para eles,

12:59but a Garden of Eden for the rest of us.
mas um Jardim do Éden para o resto de nós.

13:02We get free content.
Nós temos conteúdo gratuito.

13:03We get to play Angry Birds. We get targeted apps.
Podemos jogar Angry Birds. Temos aplicativos direcionados.

13:06But in fact, in a few years, organizations
Mas na verdade, em alguns anos, organizações

13:09will know so much about us,
saberão tanto sobre nós,

13:10they will be able to infer our desires
que conseguirão inferir nossos desejos

13:13before we even form them, and perhaps
antes mesmo que os tenhamos e, talvez,

13:15buy products on our behalf
comprar produtos em nosso nome

13:18before we even know we need them.
antes mesmo de sabermos que precisamos deles.

13:20Now there was one English author
Bom, havia um escritor inglês

13:23who anticipated this kind of future
que antecipou esse tipo de futuro

13:26where we would trade away
onde ofereceríamos

13:28our autonomy and freedom for comfort.
nossa autonomia e liberdade em troca de conforto.

13:31Even more so than George Orwell,
Mais ainda do que George Orwell,

13:33the author is, of course, Aldous Huxley.
o escritor é, obviamente, Aldous Huxley.

13:36In "Brave New World," he imagines a society
Em "Admirável Mundo Novo", ele imagina uma sociedade

13:39where technologies that we created
onde as tecnologias que criamos

13:41originally for freedom
originalmente por liberdade

13:43end up coercing us.
acabam nos reprimindo.

13:46However, in the book, he also offers us a way out
Entretanto, no livro, ele também nos oferece uma saída

13:50of that society, similar to the path
dessa sociedade, parecida com o caminho

13:54that Adam and Eve had to follow to leave the garden.
que Adão e Eva tiveram que seguir para sair do jardim.

13:58In the words of the Savage,
No mundo dos Selvagens,

14:00regaining autonomy and freedom is possible,
recuperar a autonomia e a liberdade é possível,

14:03although the price to pay is steep.
porém o preço a se pagar é alto.

14:06So I do believe that one of the defining fights
Então eu acredito que uma das lutas que definirão

14:11of our times will be the fight
nossa época será a luta

14:14for the control over personal information,
pelo controle de informações pessoais,

14:16the fight over whether big data will become a force
a luta por se big data vai se tornar um força

14:20for freedom,
pela liberdade,

14:21rather than a force which will hiddenly manipulate us.
em vez de uma força que vai nos manipular ocultamente.

14:26Right now, many of us
Agora mesmo, muitos de nós

14:29do not even know that the fight is going on,
nem mesmo sabem que a luta está acontecendo,

14:31but it is, whether you like it or not.
mas ela está, quer vocês gostem ou não.

14:34And at the risk of playing the serpent,
E com o risco de fazer o papel da serpente,

14:37I will tell you that the tools for the fight
vou lhes dizer que as ferramentas para a luta

14:40are here, the awareness of what is going on,
estão aqui, a consciência do que está acontecendo,

14:43and in your hands,
e em suas mãos,

14:44just a few clicks away.
só a alguns cliques de distância.

14:48Thank you.
Obrigado.

14:49(Applause)
(Aplausos)

Tags:
The line between public and private has blurred in the past decade, both online and in real life, and Alessandro Acquisti is here to explain what this means and why it matters. In this thought-provoking, slightly chilling talk, he shares details of recent and ongoing research -- including a project that shows how easy it is to match a photograph of a stranger with their sensitive personal information.


Comentários  


Why privacy matters - Alessandro Acquisti