00:12I write fiction sci-fi thrillers,
Escrevo livros de suspense e ficção científica,
00:15so if I say "killer robots,"
portanto, se eu disser "robôs assassinos",
00:18you'd probably think something like this.
você provavelmente pensa em algo assim.
00:25autonomous combat drones.
drones de combate autônomos.
00:32which have a human making targeting decisions.
que têm um humano tomando decisões sobre o alvo.
00:39that make lethal decisions about human beings
que tomam decisões letais sobre seres humanos
00:41all on their own.
por si mesmas.
00:48Now, lethally autonomous killer robots
Bem, robôs assassinos com autonomia letal
00:50would take many forms -- flying, driving,
tomariam muitas formas -- voar, dirigir
00:54or just lying in wait.
ou apenas ficar à espreita.
00:59These are two automatic sniper stations
Estas são duas estações automáticas de tiro
01:08identifying a human target and firing on it,
identificar um alvo humano e atirar nele,
01:20to make that lethal firing decision,
para tomar a decisão letal de atirar,
01:27And it's that choice that I want to focus on,
E é nessa escolha em que quero focar,
01:31because as we migrate lethal decision-making
porque, à medida que transferimos a decisão letal
01:33from humans to software,
dos humanos para um programa de computador,
01:43far from the battlefield.
longe do campo de batalha.
01:50shapes our social landscape.
dá forma à nossa paisagem social.
02:02but with these you could dominate the populace,
mas com eles você poderia dominar a população,
02:09Power was focused at the very top.
O poder estava focado bem no topo.
02:12And what changed? Technological innovation.
E o que mudou? Inovação tecnológica.
02:16Gunpowder, cannon.
Pólvora, canhões.
02:17And pretty soon, armor and castles were obsolete,
Logo armaduras e castelos estavam obsoletos,
02:37they began to share power.
eles começaram a compartilhar o poder.
02:39Representative government began to form.
O governo representativo começou a se formar.
02:45shape our social landscape.
dão forma à nossa paisagem social.
02:48Autonomous robotic weapons are such a tool,
Armas robóticas autônomas são ferramentas,
03:09Now, I think, knowing this,
Agora, penso que, conhecendo isto,
03:19But time is a factor.
Mas o tempo é um fator.
03:24combat drones of their own,
drones de combate pilotados remotamente,
03:58By 2011, this had gone up to 300,000 hours,
Em 2011, isso tinha aumentado para 300.000 horas,
04:03outstripping human ability to review it all,
superando a capacidade humana de revisá-los todos,
04:10The Pentagon's Gorgon Stare and Argus programs
Os programas Gorgon Stare e Argus do Pentagono,
04:15on each drone platform,
em cada plataforma de drones,
04:23to scan it for items of interest.
verificá-las para itens de interesse.
04:27And that means very soon
Isso significa que muito em breve
04:28drones will tell humans what to look at,
os drones dirão aos humanos o que olhar,
04:31not the other way around.
não o contrário.
04:39and that's electromagnetic jamming,
que é o congestionamento eletromagnético
04:42severing the connection between the drone
interrompendo a conexão entre o drone
04:44and its operator.
e seu operador.
04:47Now we saw an example of this in 2011
Vimos um exemplo disso, em 2011,
04:50when an American RQ-170 Sentinel drone
quando o drone Sentinel RQ-170
05:02and that means drones
e isso significa que os drones
05:04will have to shoulder more decision-making.
terão que ter maior poder de decisão.
05:08They'll know their mission objective,
Eles conhecerão o objetivo da missão,
05:16They'll ignore external radio signals
Eles ignorarão sinais externos de rádio
05:18and send very few of their own.
e enviarão muito poucos deles.
05:21Which brings us to, really, the third
O que nos traz, de fato, ao terceiro
05:27away from humans and onto weapons:
dos humanos para as máquinas:
05:30plausible deniability.
negação plausível.
05:33Now we live in a global economy.
Atualmente vivemos em uma economia global.
05:43to parts unknown,
para partes desconhecidas,
05:45and in that environment, it is very likely
e, neste ambiente, é muito provável
05:52proliferate in the gray market.
prolifere no mercado paralelo.
05:54And in that situation, sifting through the wreckage
E, nessa situação, vasculhando os escombros
06:00who sent that weapon.
quem enviou aquela arma.
06:04This raises the very real possibility
Isto levanta a possibilidade muito realista
06:07of anonymous war.
de guerra anônima.
06:22It could make military action a viable option
Poderia tornar a ação militar uma opção viável
06:26not just for small nations,
não apenas para nações pequenas,
06:30even powerful individuals.
até mesmo para indivíduos poderosos.
06:40Now if responsibility and transparency
Agora, se responsabilidade e transparência
06:50Now you might be thinking that
Bem, vocês podem estar pensando que
06:52citizens of high-tech nations
cidadãos de nações com alta tecnologia
06:54would have the advantage in any robotic war,
teriam uma vantagem em qualquer guerra robótica,
07:00particularly against developing nations.
particularmente em relação a nações em desenvolvimento.
07:05But I think the truth is the exact opposite.
Mas, penso que a verdade é exatamente o oposto.
07:08I think citizens of high-tech societies
Penso que cidadãos de sociedades de alta tecnologia
07:10are more vulnerable to robotic weapons,
são mais vulneráveis a armas robóticas,
07:19Data powers high-tech societies.
A informação dá poder a sociedades de alta tecnologia.
07:36In short, we are more visible to machines
Em resumo, somos mais visíveis para as máquinas
07:39than any people in history,
que qualquer outro povo na história,
07:47What you're looking at here
O que estão vendo aqui
08:10because targeting is used in another context.
porque o alvo é usado em outro contexto.
08:14Notice that certain individuals are highlighted.
Observe que certos indivíduos estão destacados.
08:16These are the hubs of social networks.
Estes são os centros de redes sociais.
08:26from their communication patterns.
pelos seus padrões de comunicação.
08:33through their social group.
através do grupo social deles.
08:36But if you're a repressive government
Mas, se você é um governo repressor
08:42eliminate them, disrupt their social group,
eliminá-los, destruir o grupo social deles,
08:45and those who remain behind lose social cohesion
e aqueles que restarem perdem a coesão social
08:48and organization.
e a organização.
08:54borders would offer very little protection
as fronteiras ofereceriam muito pouca proteção
08:57to critics of distant governments
para críticos de governos distantes
08:59or trans-national criminal organizations.
ou organizações criminosas transnacionais.
09:03Popular movements agitating for change
Movimentos populares se agitando por mudança
09:10before their ideas achieve critical mass.
antes que suas ideias atinjam massa crítica.
09:13And ideas achieving critical mass
E ideias atingindo massa crítica
09:27And this would put a chill on free speech
E isso congelaria o discurso livre
09:46Now we already have international treaties
Agora, nós já temos tratados internacionais
09:53these have largely worked.
eles têm funcionado amplamente.
09:59because they will almost certainly be used,
porque elas serão usadas quase que com certeza,
10:11issued a directive requiring
emitiu uma diretriz exigindo
10:23but that directive needs to be made permanent.
mas essa diretriz precisa tornar-se permanente.
10:26And it could set the stage for global action.
E ela poderia preparar o palco para a ação global.
10:34for robotic weapons.
para armas robóticas.
10:43to rush to adopt these weapons
entre as nações do mundo para adotar essas armas,
10:45before thinking through the consequences.
antes de pensar nas consequências.
11:00of great uses for unarmed civilian drones:
de ótimos usos para drones civis desarmados:
11:13and vehicles while still protecting ourselves
e ainda nos protegemos
11:16against illegal robotic weapons?
contra armas robóticas ilegais?
11:20I think the secret will be transparency.
Penso que o segredo será a transparência.
11:28in a public place.
em local público.
11:36Each robot and drone should have
Cada robô e drone deveriam ter
11:47This is no different.
Isto não é diferente.
11:54moving through public spaces around them,
transitando em espaços públicos ao redor delas,
11:57both right now and historically.
tanto naquele momento quanto o histórico dessa movimentação.
12:03to detect rogue drones,
para detectar drones intrusos,
12:09they should notify humans to their presence.
deveriam notificar os humanos da presença deles.
12:12And in certain very high-security areas,
E, em certas áreas de segurança máxima,
12:14perhaps civic drones would snare them
talvez drones civis pudessem emboscá-los
12:19But notice, this is more an immune system
Mas vejam, isto é mais um sistema imunológico
12:22than a weapons system.
que um sistema de armamento.
12:23It would allow us to avail ourselves of the use
Ele nos permitiria o benefício do uso
12:26of autonomous vehicles and drones
de veículos autônomos e drones
12:32We must ban the deployment and development
Devemos banir a instalação e o desenvolvimento
12:35of killer robots.
de robôs assassinos.
12:45undoubtedly will, but let's not join them.
sem dúvida, vão, mas não vamos nos juntar a eles.
12:48Autonomous robotic weapons
Armas robóticas autônomas
12:50would concentrate too much power
concentrariam poder demais
12:52in too few unseen hands,
em poucas mãos não vistas,
12:57Let's make sure, for democracies at least,
Vamos nos certificar, para democracias ao menos,
13:00killer robots remain fiction.
de que robôs assassinos continuem sendo ficção.