00:12The two most likely largest inventions
Provavelmente as duas maiores invenções
00:17of our generation
da nossa geração
00:19are the Internet and the mobile phone.
são a Internet e o telefone celular.
00:22They've changed the world.
Eles mudaram o mundo.
00:24However, largely to our surprise,
No entanto, em grande parte, para nossa surpresa,
00:28they also turned out to be the perfect tools
eles também acabaram sendo as ferramentas perfeitas
00:32for the surveillance state.
para o estado de vigilância.
00:35It turned out that the capability
Acabou acontecendo que a capacidade
00:38to collect data, information and connections
de coletar dados, informações e conexões
00:42about basically any of us and all of us
sobre, basicamente, qualquer um de nós e todos nós
00:46is exactly what we've been hearing
é exatamente sobre o que temos ouvido
00:53about Western intelligence agencies,
sobre agências de inteligência ocidentais,
00:56mostly U.S. intelligence agencies,
na maior parte, agências de inteligência dos EUA,
00:59watching over the rest of the world.
vigiando o resto do mundo.
01:02We've heard about these starting with the
Ouvimos falar disso começando com
01:05revelations from June 6.
as revelações de 6 de junho.
01:09Edward Snowden started leaking information,
Edward Snowden começou a vazar informações,
01:12top secret classified information,
informações confidenciais, altamente secretas,
01:14from the U.S. intelligence agencies,
das agências de inteligência dos EUA,
01:18and XKeyscore and others.
o XKeyscore e outros.
01:22And these are examples of the kinds of programs
E esses são exemplos dos tipos de programas
01:29against the whole rest of the world.
contra todo o resto do mundo.
01:32And if you look back about the forecasts
E se examinarmos as previsões
01:36on surveillance by George Orwell,
sobre vigilância, de George Orwell,
01:40well it turns out that
bem, vê-se que
01:42George Orwell was an optimist.
George Orwell era um otimista.
01:47We are right now seeing a much larger scale
Estamos vendo agora uma escala muito maior
01:50of tracking of individual citizens
de rastreamento dos cidadãos
01:52than he could have ever imagined.
do que ele jamais poderia ter imaginado.
01:56And this here is the infamous
E este aqui é o infame
01:59NSA data center in Utah.
centro de dados da NSA em Utah.
02:03Due to be opened very soon,
Prestes a ser inaugurado muito em breve,
02:06it will be both a supercomputing center
será um centro tanto de supercomputadores
02:09and a data storage center.
quanto de armazenamento de dados.
02:14filled with hard drives storing data
cheio de discos rígidos armazenando dados
02:16they are collecting.
que eles estão coletando.
02:19And it's a pretty big building.
E é um edifício bem grande.
02:23140,000 square meters --
140 mil metros quadrados --
02:25but that doesn't really tell you very much.
mas isso realmente não diz muita coisa.
02:31You think about the largest IKEA store
Pensem na maior loja IKEA
02:33you've ever been in.
que já visitaram.
02:35This is five times larger.
Ele é cinco vezes maior.
02:41Right? It's pretty big.
Certo? É muito grande.
02:43We estimate that just the electricity bill
Estima-se que apenas a conta de energia
02:46for running this data center
para executar esse centro de dados
02:51And this kind of wholesale surveillance
E esse tipo de vigilância por atacado
02:54means that they can collect our data
significa que eles podem coletar nossos dados
02:57and keep it basically forever,
e mantê-los, basicamente, para sempre,
02:59keep it for extended periods of time,
mantê-los por longos períodos de tempo,
03:01keep it for years, keep it for decades.
mantê-los por anos, mantê-los por décadas.
03:04And this opens up completely new kinds of risks
E isso traz tipos de riscos completamente novos
03:08to us all.
para todos nós.
03:10And what this is is that it is wholesale
E isso é vigilância generalizada
03:13blanket surveillance on everyone.
por atacado, sobre todos.
03:18Well, not exactly everyone,
Bem, não exatamente todos,
03:24to monitor foreigners.
de monitorar estrangeiros.
03:26They can monitor foreigners
Eles podem monitorar estrangeiros
03:28when foreigners' data connections
quando as conexões de dados dos estrangeiros
03:34And monitoring foreigners doesn't sound too bad
E monitorar estrangeiros não soa tão mal,
03:37until you realize
até que você percebe
03:39that I'm a foreigner and you're a foreigner.
que eu sou um estrangeiro e você também é um.
03:42In fact, 96 percent of the planet are foreigners.
Na verdade, 96% do planeta são estrangeiros.
03:58But don't get me wrong:
Mas não me interpretem mal.
04:05I love freedom, but even I agree
Eu amo a liberdade, mas até eu concordo
04:08that some surveillance is fine.
que um pouco de vigilância está bem.
04:14or they're trying to catch a drug lord
ou estão tentando capturar um traficante de drogas,
04:17or trying to prevent a school shooting,
ou tentando impedir um tiroteio em uma escola,
04:21and they have leads and they have suspects,
e eles têm pistas e suspeitos,
04:26and to intercept his Internet communications.
e interceptem suas comunicações na Internet.
04:30I'm not arguing that at all,
Não estou rejeitando isso, de jeito nenhum,
04:34They are not about doing surveillance on people
Não se trata de vigilância sobre pessoas
04:41They're about doing surveillance on people
Trata-se de vigiar as pessoas
04:42they know are innocent.
que eles sabem que são inocentes.
04:46So the four main arguments
Assim, os quatro principais argumentos
04:48supporting surveillance like this,
a favor de vigilância como essa...
04:53discussing about these revelations,
a discutir sobre essas revelações,
04:54there will be naysayers trying to minimize
haverá opositores tentando minimizar
04:57the importance of these revelations, saying that
a importância dessas revelações, dizendo que
04:59we knew all this already,
já sabíamos disso tudo,
05:17but we didn't know this was happening.
mas não sabíamos que isso estava acontecendo.
05:19Now we know for a fact it's happening.
Agora sabemos com certeza que está acontecendo.
05:27We didn't know about DoubleArrow.
Não sabíamos do DoubleArrow.
05:29We did not know about Skywriter --
Não sabíamos do Skywriter --
05:31all these different programs
todos esses programas diferentes,
05:33run by U.S. intelligence agencies.
utilizados por agências de inteligência dos EUA.
05:36But now we do.
Mas agora sabemos.
05:39And we did not know
E nós não sabíamos
05:44such as infiltrating standardization bodies
como infiltrar órgãos de padronização
05:53And what that means
E o que isso significa
05:55is that you take something which is secure,
é que você pega algo que é seguro,
05:57an encryption algorithm which is so secure
um algoritmo de criptografia que é tão seguro
06:02nobody can decrypt that file.
ninguém pode descriptografá-lo.
06:08it's going to take millions of years.
vai demorar milhões de anos.
06:13You take something which is that good
Você pega algo que é tão bom assim
06:15and then you weaken it on purpose,
e enfraquece-o, de propósito,
06:23A real-world equivalent would be that
Um equivalente no mundo real seria
06:25intelligence agencies would force
se as agências de inteligência forçassem
06:31so they could get into every single house
para que pudessem entrar em todas as casas
06:35but it will also make all of us
mas isso também tornará todos nós
06:37less secure as an end result.
menos seguros como resultado final.
06:39Backdooring encryption algorithms
Sabotar algoritmos de criptografia
06:43just boggles the mind.
é impressionante.
06:50This is what they have been told to do:
Isso é o que lhes foi dito para fazer:
06:52do signals intelligence,
"Façam sinais de inteligência,
06:54monitor telecommunications,
monitorem telecomunicações,
06:56monitor Internet traffic.
monitorem o tráfego da Internet".
06:57That's what they're trying to do,
Isso é o que elas estão tentando fazer,
07:04One way is to sabotage encryption algorithms,
Uma maneira é sabotar algoritmos de criptografia,
07:07which is a great example
que é um ótimo exemplo
07:09about how U.S. intelligence agencies
de como as agências de inteligência dos EUA
07:11are running loose.
estão correndo soltas.
07:13They are completely out of control,
Elas estão completamente fora de controle,
07:21So what do we actually know about the leaks?
Então, o que realmente sabemos sobre os vazamentos?
07:24Everything is based on the files
Tudo se baseia nos arquivos
07:26leaked by Mr. Snowden.
vazados pelo Sr. Snowden.
07:29The very first PRISM slides
Os primeiros slides do PRISM,
07:32from the beginning of June
a partir do início de junho,
07:34detail a collection program where the data
detalham um programa de coleta onde os dados
07:36is collected from service providers,
são coletados de prestadores de serviços,
07:40they have access to.
a que têm acesso.
07:42They even have a specific date
Eles têm até uma data específica
07:45on when the collection of data began
de quando a coleta de dados começou
07:47for each of the service providers.
para cada um dos prestadores de serviços.
07:51started on September 11, 2007,
começou em 11 de setembro de 2007.
07:55for Yahoo on the March 12, 2008,
Para o Yahoo, no dia 12 de março de 2008
07:58and then others: Google, Facebook,
e, em seguida, outros: Google, Facebook,
08:01Skype, Apple and so on.
Skype, Apple e assim por diante.
08:04And every single one of these companies denies.
E cada uma dessas empresas nega.
08:07They all say that this simply isn't true,
Todas dizem que isso simplesmente não é verdade,
08:16Yet we have these files.
Ainda assim, temos esses arquivos.
08:20So is one of the parties lying,
Será que uma das partes está mentindo,
08:22or is there some other alternative explanation?
ou há alguma outra explicação alternativa?
08:25And one explanation would be
E uma explicação seria
08:28that these parties, these service providers,
que essas partes, esses prestadores de serviços,
08:31are not cooperating.
não estão cooperando.
08:33Instead, they've been hacked.
Em vez disso, eles foram hackeados.
08:44That might sound outlandish,
Isso pode soar estranho,
08:46but we already have cases where this has happened,
mas já houve casos em que isso aconteceu.
08:48for example, the case of the Flame malware
Por exemplo, o caso do malware Flame,
08:51which we strongly believe was authored
que acreditamos fortemente que é de autoria
08:53by the U.S. government,
do governo dos EUA,
08:55and which, to spread, subverted the security
e que, para espalhá-lo, subverteu a segurança
08:59of the Windows Update network,
da rede da atualizações do Windows,
09:02meaning here, the company was hacked
o que quer dizer que aqui a empresa foi hackeada
09:06by their own government.
por seu próprio governo.
09:08And there's more evidence
E há mais evidências
09:10supporting this theory as well.
que também apoiam essa teoria.
09:21operating inside these intelligence agencies.
operando dentro dessas agências de inteligência.
09:24Inside NSA, the unit is called TAO,
Dentro da NSA, a unidade é chamada TAO,
09:27Tailored Access Operations,
Operações de Acesso sob Medida,
09:32it's called NAC, Network Analysis Centre.
chama-se NAC, Centro de Análise de Rede.
09:36And these recent leaks of these three slides
E esses vazamentos recentes desses três slides
09:40detail an operation
detalham uma operação
09:42run by this GCHQ intelligence agency
executada por essa agência de inteligência, GCHQ,
09:45from the United Kingdom
do Reino Unido,
09:47targeting a telecom here in Belgium.
visando uma empresa de telecomunicações aqui na Bélgica.
09:51And what this really means
E o que isso significa de verdade
09:57is breaching the security
está violando a segurança
10:08business as usual.
como algo de rotina.
10:10Here's the primary target,
Esse é o alvo principal,
10:11here's the secondary target,
esse é o alvo secundário,
10:13here's the teaming.
aqui está a formação das equipes.
10:18They even use cheesy PowerPoint clip art
Eles até usam clip arts bregas de PowerPoint,
10:21like, you know, "Success,"
como "Sucesso",
10:23when they gain access to services like this.
quando conseguem acesso a serviços como este.
10:26What the hell?
Mas que diabos?
10:31And then there's the argument
E também há o argumento:
10:33that okay, yes, this might be going on,
"Tudo bem, sim, isso pode estar acontecendo,
10:37All countries spy.
Todos os países espionam".
10:40And maybe that's true.
E talvez isso seja verdade.
10:44Let's take, for example, Sweden.
Tomemos, por exemplo, a Suécia.
10:46I'm speaking of Sweden because Sweden
Estou falando da Suécia porque ela
10:50When your data traffic goes through Sweden,
Quando seu tráfego de dados passa pela Suécia,
10:55to intercept that traffic.
de interceptar o tráfego.
10:57All right, how many Swedish decisionmakers
Certo, quantos tomadores de decisão suecos,
11:00and politicians and business leaders
políticos e líderes empresariais
11:03use, every day, U.S.-based services,
usam, todos os dias, serviços baseados nos EUA,
11:06like, you know, run Windows or OSX,
por exemplo, sabem, rodam o Windows ou o OSX,
11:09or use Facebook or LinkedIn,
ou usam o Facebook ou o LinkedIn,
11:11or store their data in clouds like iCloud
ou armazenam seus dados em nuvens como no iCloud
11:15or Skydrive or DropBox,
ou no Skydrive ou no DropBox,
11:27And then we turn it around.
E, então, invertemos a situação.
11:28How many American leaders
Quantos líderes americanos
11:30use Swedish webmails and cloud services?
usam webmails e serviços em nuvem suecos?
11:35And the answer is zero.
E a resposta é: zero.
11:37So this is not balanced.
Então, isso não está equilibrado.
11:44And when we do have the occasional
E quando temos a história
11:46European success story,
ocasional de sucesso europeia,
11:52Like, Skype used to be secure.
Por exemplo, o Skype costumava ser seguro.
11:54It used to be end-to-end encrypted.
Costumava ser criptografado de ponta a ponta.
11:57Then it was sold to the United States.
Então, foi vendido para os Estados Unidos.
11:59Today, it no longer is secure.
Hoje, não é mais seguro.
12:01So once again, we take something which is secure
Então, mais uma vez, pegamos algo que é seguro
12:04and then we make it less secure on purpose,
e o tornamos menos seguro de propósito,
12:06making all of us less secure as an outcome.
tornando todos nós menos seguros como resultado.
12:12And then the argument that the United States
E o argumento de que os Estados Unidos
12:15is only fighting terrorists.
estão apenas lutando contra terroristas:
12:17It's the war on terror.
"É a guerra contra o terror.
12:18You shouldn't worry about it.
Vocês não deveriam se preocupar com isso".
12:20Well, it's not the war on terror.
Bem, não é a guerra contra o terror.
12:23Yes, part of it is war on terror, and yes,
Sim, parte dela é a guerra contra o terror, e sim,
12:25there are terrorists, and they do kill and maim,
existem terroristas, e eles matam e mutilam,
12:28and we should fight them,
e devemos combatê-los,
12:29but we know through these leaks
mas sabemos, por esses vazamentos,
12:31that they have used the same techniques
que eles usaram as mesmas técnicas
12:33to listen to phone calls of European leaders,
para ouvir telefonemas de líderes europeus,
12:48from inside the E.U. Parliament, right?
dentro do Parlamento da U.E., certo?
12:51It's not the war on terror.
Não é a guerra contra o terror.
12:53Part of it might be, and there are terrorists,
Parte disso talvez seja, e existem terroristas,
12:57but are we really thinking about terrorists
mas será que estamos mesmo pensando em terroristas
13:00as such an existential threat
como uma ameaça existencial tal
13:16and the Universal Declaration of Human Rights
e a Declaração Universal dos Direitos Humanos
13:23and the press freedom?
e a liberdade de imprensa?
13:29we are ready to do anything at all?
que estejamos dispostos a fazer qualquer coisa?
13:34But people are scared about terrorists,
Mas as pessoas estão com medo dos terroristas,
13:39because they have nothing to hide.
porque não têm nada a esconder.
13:41Feel free to survey me if that helps.
"Sinta-se livre para me examinar, se isso ajuda."
13:47simply hasn't thought about this long enough.
simplesmente não pensou sobre isso o suficiente.
14:00Because we have this thing called privacy,
Porque temos essa coisa chamada privacidade,
14:07because then I know
porque assim vou saber
14:09that I should not trust you with any secrets,
que eu não devo te confiar nenhum segredo,
14:20and when these leaks started,
e quando esses vazamentos começaram,
14:23many people were asking me about this.
muitas pessoas estavam me perguntando sobre isso.
14:25And I have nothing to hide.
E eu não tenho nada a esconder.
14:27I'm not doing anything bad or anything illegal.
Não estou fazendo nada de ruim ou ilegal.
14:33like to share with an intelligence agency,
de compartilhar com uma agência de inteligência,
14:40And if we indeed need a Big Brother,
E se nós realmente precisarmos de um Grande Irmão,
14:46than a foreign Big Brother.
do que um Grande Irmão estrangeiro.
14:54was a comment about how,
foi um comentário sobre como,
14:56when you've been using search engines,
quando vocês usam ferramentas de busca,
15:02And two minutes later, I got a reply
E dois minutos depois, recebi uma resposta
15:12And my answer to Kimberly was
E a minha resposta a Kimberly foi
15:14that what I'm sending is none of your business,
que o que eu estou enviando não é da sua conta,
15:24Privacy is nonnegotiable.
A privacidade não é negociável.
15:38And one thing we should all understand
E uma coisa que todos deveríamos compreender
15:46You show me your search history,
Se você me mostrar seu histórico de pesquisa,
15:48and I'll find something incriminating
vou encontrar algo incriminador
15:51or something embarrassing there in five minutes.
ou algo embaraçoso lá em cinco minutos.
15:54We are more honest with search engines
Somos mais honestos com ferramentas de busca
15:56than we are with our families.
do que somos com nossas famílias.
15:58Search engines know more about you
As ferramentas de busca sabem mais sobre você
16:00than your family members know about you.
do que os seus familiares.
16:06we are giving away to the United States.
estamos oferecendo para os Estados Unidos.
16:10And surveillance changes history.
E a vigilância muda a história.
16:20And let me actually quote
E deixe-me realmente citar
16:22the president of Brazil, Ms. Dilma Rousseff.
a presidente do Brasil, Srta. Dilma Rousseff.
16:26She was one of the targets of NSA surveillance.
Ela foi um dos alvos de vigilância da NSA.
16:29Her email was read, and she spoke
Seu e-mail foi lido e ela falou
16:31at the United Nations Headquarters, and she said,
na sede das Nações Unidas, e disse:
16:34"If there is no right to privacy,
"Se não houver direito à privacidade,
16:44That's what it's about.
É disso que se trata.
16:59as it would be treating one of its colonies.
como se estivessem tratando uma das suas colônias.
17:02So we are back to the age of colonization,
Portanto, estamos de volta à era das colonizações,
17:05and we, the foreign users of the Internet,
e nós, os usuários estrangeiros da Internet,
17:18Some are blaming him for causing problems
Alguns estão culpando-o por causar problemas
17:29would be the equivalent of blaming Al Gore
seria o equivalente de culpar Al Gore
17:31for causing global warming.
por causar o aquecimento global.
17:43So, what is there to be done?
Então, o que há para ser feito?
17:51We should be angry, because this is wrong,
Deveríamos estar com raiva, porque isso é errado,
17:54and it's rude, and it should not be done.
e é rude, e não deveria ser feito.
18:02is to try to steer away
é tentar se afastar
18:04from systems built in the United States.
de sistemas construídos nos Estados Unidos.
18:07And that's much easier said than done.
E isso é muito mais fácil falar do que fazer.
18:10How do you do that?
Como se faz isso?
18:11A single country, any single country in Europe
Um país sozinho, nenhum país sozinho na Europa
18:13cannot replace and build replacements
pode substituir e construir substitutos
18:19But maybe you don't have to do it alone.
Mas talvez vocês não precisem fazer isso sozinhos.
18:22The solution is open source.
A solução é o código aberto.
18:31we can go around such surveillance,
podemos contornar essa vigilância,
18:38It only has to solve one little problem.
Só tem que resolver um pequeno problema.
18:46one country only has to make a small wave,
um país só tem que fazer uma pequena onda,
18:56and the tide we will build
e a maré que vamos construir
18:57with secure, free, open-source systems,
com sistemas de código aberto, gratuitos e seguros,
19:01will become the tide that will lift all of us
vai se tornar a maré que nos vai levantar a todos
19:03up and above the surveillance state.
acima do estado de vigilância.