Beware online "filter bubbles"
Eli Pariser

     

Letras em inglês
Letras em português
Veloc.:

Letra e Tradução
Clique para ir ao ponto exato

00:15Mark Zuckerberg,
Mark Zuckerberg,

00:17a journalist was asking him a question about the news feed.
um jornalista fazia-lhe uma pergunta sobre os 'feeds' de notícias.

00:20And the journalist was asking him,
E o jornalista perguntou:

00:22"Why is this so important?"
"Por que isto é tão importante?"

00:24And Zuckerberg said,
E Zuckerberg respondeu:

00:26"A squirrel dying in your front yard
"Um esquilo morrendo no seu jardim

00:28may be more relevant to your interests right now
pode ser mais relevante para os seus interesses, neste momento,

00:31than people dying in Africa."
do que pessoas morrendo na África."

00:34And I want to talk about
E eu quero falar sobre

00:36what a Web based on that idea of relevance might look like.
como seria o aspecto de uma 'web' baseada nesta ideia de relevância.

00:40So when I was growing up
Então, quando eu estava crescendo

00:42in a really rural area in Maine,
em uma área realmente rural, no Maine (EUA),

00:44the Internet meant something very different to me.
a internet significava algo muito diferente para mim.

00:47It meant a connection to the world.
Ela significava uma conexão para o mundo.

00:49It meant something that would connect us all together.
Significava algo que nos ligaria a todos.

00:52And I was sure that it was going to be great for democracy
E eu tinha certeza que ela seria ótima para a democracia

00:55and for our society.
e para a nossa sociedade.

00:58But there's this shift
Mas aconteceu este tipo de mudança

01:00in how information is flowing online,
em como a informação está fluindo 'on-line',

01:02and it's invisible.
e ela é invisível.

01:05And if we don't pay attention to it,
E se não prestarmos atenção nisto,

01:07it could be a real problem.
poderá vir a ser um grande problema.

01:10So I first noticed this in a place I spend a lot of time --
Pois bem, eu notei isto a primeira vez em um lugar onde passo muito tempo --

01:13my Facebook page.
na minha página do Facebook.

01:15I'm progressive, politically -- big surprise --
Sou um progressista, politicamente -- grande surpresa --

01:18but I've always gone out of my way to meet conservatives.
mas sempre saí dos meus caminhos para encontrar os conservadores.

01:20I like hearing what they're thinking about;
Eu gosto de ouvir sobre o que eles estão pensando;

01:22I like seeing what they link to;
Eu gosto de ver para quais 'links' eles apontam;

01:24I like learning a thing or two.
Eu gosto de aprender uma ou duas coisas.

01:26And so I was surprised when I noticed one day
E então, fiquei surpreso quando percebi certo dia

01:29that the conservatives had disappeared from my Facebook feed.
que os conservadores haviam desaparecido do meu 'feed' do Facebook.

01:33And what it turned out was going on
E o que estava acontecendo

01:35was that Facebook was looking at which links I clicked on,
era que o Facebook observava em quais 'links' eu clicava,

01:39and it was noticing that, actually,
e ele notava que, na verdade,

01:41I was clicking more on my liberal friends' links
Eu clicava mais nos 'links' dos meus amigos liberais

01:43than on my conservative friends' links.
do que nos 'links' dos meus amigos conservadores.

01:46And without consulting me about it,
E, sem me consultar sobre isto,

01:48it had edited them out.
ele os deletou.

01:50They disappeared.
Eles desapareceram.

01:54So Facebook isn't the only place
Pois bem, o Facebook não é o único lugar

01:56that's doing this kind of invisible, algorithmic
que está fazendo este tipo de invisível, algorítmica

01:58editing of the Web.
edição da 'web'.

02:01Google's doing it too.
O Google o faz também.

02:03If I search for something, and you search for something,
Se eu busco por algo e você busca este mesmo algo,

02:06even right now at the very same time,
ainda que no mesmo instante,

02:08we may get very different search results.
nós talvez tenhamos resultados de busca muito diferentes.

02:11Even if you're logged out, one engineer told me,
Mesmo que você não esteja "logado", um engenheiro contou-me,

02:14there are 57 signals
que existem 57 sinais

02:16that Google looks at --
que o Google olha --

02:19everything from what kind of computer you're on
desde o tipo de computador no qual você está

02:22to what kind of browser you're using
ao tipo de navegador que você usa

02:24to where you're located --
até onde você se localiza --

02:26that it uses to personally tailor your query results.
que ele usa para filtrar os seus resultados de busca.

02:29Think about it for a second:
Pense sobre isto por um segundo:

02:31there is no standard Google anymore.
não há mais um Google padrão.

02:35And you know, the funny thing about this is that it's hard to see.
E sabe de uma coisa, o engraçado sobre isto é que é difícil de ver.

02:38You can't see how different your search results are
Você não consegue ver quão diferentes são os seus resultados de busca

02:40from anyone else's.
dos das demais pessoas.

02:42But a couple of weeks ago,
Mas algumas semanas atrás,

02:44I asked a bunch of friends to Google "Egypt"
eu pedi para um grupo de amigos 'googlear' a palavra "Egito"

02:47and to send me screen shots of what they got.
e me enviarem as telas com os resultados que obtiveram.

02:50So here's my friend Scott's screen shot.
Então, eis aqui a tela do meu amigo Scott.

02:54And here's my friend Daniel's screen shot.
E aqui, a tela do meu amigo Daniel.

02:57When you put them side-by-side,
Quando você as coloca lado a lado,

02:59you don't even have to read the links
você nem mesmo precisa ler os 'links'

03:01to see how different these two pages are.
para ver quão diferentes estas duas páginas são.

03:03But when you do read the links,
Mas quando você lê os 'links', de fato,

03:05it's really quite remarkable.
é realmente muito marcante.

03:09Daniel didn't get anything about the protests in Egypt at all
O Daniel não obteve nada sobre os protestos no Egito

03:12in his first page of Google results.
em sua primeira página de resultados do Google.

03:14Scott's results were full of them.
Os resultados do Scott estavam cheios deles.

03:16And this was the big story of the day at that time.
E esta era a manchete do dia, naquele momento.

03:18That's how different these results are becoming.
Isto é o quão diferentes estes resultados estão se tornando.

03:21So it's not just Google and Facebook either.
E também não é apenas o Google e o Facebook.

03:24This is something that's sweeping the Web.
Isto é algo que está varrendo a rede.

03:26There are a whole host of companies that are doing this kind of personalization.
Há toda uma série de empresas que estão fazendo esse tipo de personalização.

03:29Yahoo News, the biggest news site on the Internet,
O 'Yahoo News', o maior site de notícias da internet,

03:32is now personalized -- different people get different things.
é agora personalizado -- pessoas diferentes obtêm diferentes notícias.

03:36Huffington Post, the Washington Post, the New York Times --
o 'Huffington Post', o 'Washington Post', o 'New York Times' --

03:39all flirting with personalization in various ways.
todos estão flertando com a personalização, de várias formas.

03:42And this moves us very quickly
E isto no leva muito rapidamente

03:45toward a world in which
para um mundo no qual

03:47the Internet is showing us what it thinks we want to see,
a internet nos mostra aquilo que ela pensa que queremos ver,

03:51but not necessarily what we need to see.
mas não necessariamente o que precisamos ver.

03:54As Eric Schmidt said,
Como Eric Schmidt (diretor-executivo do Google) disse:

03:57"It will be very hard for people to watch or consume something
"Será muito difícil para as pessoas assistirem ou consumirem algo

04:00that has not in some sense
que não tenha, em algum sentido,

04:02been tailored for them."
sido feito sob medida para elas."

04:05So I do think this is a problem.
Então, eu realmente penso que isto é um problema.

04:07And I think, if you take all of these filters together,
E eu acho que, se você pegar todos estes filtros juntos,

04:10you take all these algorithms,
você pega todos estes algoritmos,

04:12you get what I call a filter bubble.
você tem o que eu chamo de filtro-bolha.

04:16And your filter bubble is your own personal,
E o seu filtro-bolha é o seu próprio, pessoal

04:19unique universe of information
e único universo de informação

04:21that you live in online.
com o qual você vive 'on-line'.

04:23And what's in your filter bubble
E o que está no seu filtro-bolha

04:26depends on who you are, and it depends on what you do.
depende de quem você é, e depende do que você faz.

04:29But the thing is that you don't decide what gets in.
Mas a questão é que você não decide o que entra.

04:33And more importantly,
E mais importante,

04:35you don't actually see what gets edited out.
você, na verdade, não vê o que fica de fora.

04:38So one of the problems with the filter bubble
Então, um dos problemas com o filtro-bolha

04:40was discovered by some researchers at Netflix.
foi descoberto por alguns pesquisadores da Netflix.

04:43And they were looking at the Netflix queues, and they noticed something kind of funny
E eles estavam olhando as listas de dados da Netflix e notaram algo engraçado

04:46that a lot of us probably have noticed,
que muitos de nós provavelmente já notaram,

04:48which is there are some movies
que existem alguns filmes

04:50that just sort of zip right up and out to our houses.
que aparecem, e logo desaparecem de nossas casas.

04:53They enter the queue, they just zip right out.
Eles entram na lista e simplesmente desaparecem, em seguida.

04:56So "Iron Man" zips right out,
Então, "Homem de Ferro" logo desaparece

04:58and "Waiting for Superman"
enquanto que "Esperando pelo Super-homem"

05:00can wait for a really long time.
pode esperar por um tempo realmente longo.

05:02What they discovered
O que eles descobriram

05:04was that in our Netflix queues
foi que em nossas listas do Netflix

05:06there's this epic struggle going on
há esta épica batalha em curso

05:09between our future aspirational selves
entre nossas futuras aspirações pessoais

05:12and our more impulsive present selves.
e nosso presente mais impulsivo e íntimo.

05:15You know we all want to be someone
Vocês sabem que todos queremos ser alguém

05:17who has watched "Rashomon,"
que assistiu ao "Rashomon" (filme cult japonês da decáda de 50),

05:19but right now
mas, neste exato momento,

05:21we want to watch "Ace Ventura" for the fourth time.
nós queremos assistir "Ace Ventura" pela quarta vez.

05:24(Laughter)
(Risos)

05:27So the best editing gives us a bit of both.
Então, a melhor edição nos dá um pouco de ambos.

05:29It gives us a little bit of Justin Bieber
Ela nos dá um pouco de Justin Bieber

05:31and a little bit of Afghanistan.
e um pouco sobre o Afeganistão.

05:33It gives us some information vegetables;
Ela nos dá algumas informações "vegetarianas",

05:35it gives us some information dessert.
ela nos dá algumas informações do tipo sobremesa.

05:38And the challenge with these kinds of algorithmic filters,
E o desafio com estes tipos de filtros algorítmicos,

05:40these personalized filters,
estes filtros personalizados,

05:42is that, because they're mainly looking
é que, pelo fato de que eles olham principalmente

05:44at what you click on first,
para aquilo que você clica em primeiro lugar,

05:48it can throw off that balance.
eles podem comprometer o equilíbrio.

05:52And instead of a balanced information diet,
E, ao invés de uma dieta balanceada de informação,

05:55you can end up surrounded
você pode acabar rodeado

05:57by information junk food.
por informações do tipo "porcariada alimentar".

05:59What this suggests
O que isto sugere

06:01is actually that we may have the story about the Internet wrong.
é que, na verdade, obtenhemos talvez a história equivocada sobre a internet.

06:04In a broadcast society --
Em uma sociedade de transmissão (de rádio e TV) --

06:06this is how the founding mythology goes --
é assim que o 'mito de origem' acontece --

06:08in a broadcast society,
em uma sociedade de transmissão,

06:10there were these gatekeepers, the editors,
existiam estes porteiros, os editores,

06:12and they controlled the flows of information.
e eles controlavam os fluxos de informação.

06:15And along came the Internet and it swept them out of the way,
E veio a internet e os varreu para fora do caminho,

06:18and it allowed all of us to connect together,
e ela permitiu que nos conectássemos,

06:20and it was awesome.
e era ótimo!

06:22But that's not actually what's happening right now.
Mas não é isso que, na verdade, está acontecendo agora.

06:26What we're seeing is more of a passing of the torch
O que estamos vendo é mais uma passagem do bastão

06:29from human gatekeepers
dos porteiros humanos

06:31to algorithmic ones.
para os algorítmicos.

06:34And the thing is that the algorithms
E a questão é que os algoritmos

06:37don't yet have the kind of embedded ethics
não possuem ainda o tipo ética arraigada

06:40that the editors did.
que os editores possuiam.

06:43So if algorithms are going to curate the world for us,
Então, se os algoritmos serão os curadores do mundo para nós,

06:46if they're going to decide what we get to see and what we don't get to see,
se eles decidirão o que veremos e o que não veremos,

06:49then we need to make sure
então precisamos ter certeza

06:51that they're not just keyed to relevance.
de que eles não estarão atados apenas à relevância.

06:54We need to make sure that they also show us things
Precisamos ter certeza que eles também nos mostrarão coisas

06:56that are uncomfortable or challenging or important --
que são desconfortáveis ou desfiadoras ou importantes --

06:59this is what TED does --
isto é o que o TED faz, correto? --

07:01other points of view.
outros pontos de vista.

07:03And the thing is, we've actually been here before
E a questão é que já passamos por isso antes

07:05as a society.
como sociedade.

07:08In 1915, it's not like newspapers were sweating a lot
Em 1915, não era que os jornais se esforçavam muito

07:11about their civic responsibilities.
sobre suas responsabilidades civis.

07:14Then people noticed
Então, as pessoas perceberam

07:16that they were doing something really important.
que eles faziam algo realmente importante.

07:19That, in fact, you couldn't have
Que, de fato, você não poderia ter

07:21a functioning democracy
uma democracia funcionante

07:23if citizens didn't get a good flow of information,
se os cidadãos não conseguissem um bom fluxo de informação.

07:28that the newspapers were critical because they were acting as the filter,
Por isso que os jornais foram fundamentais, pois eles atuaram com um filtro

07:31and then journalistic ethics developed.
e assim a ética jornalística se desenvolveu.

07:33It wasn't perfect,
Ela não era perfeita,

07:35but it got us through the last century.
mas nos conduziu pelo último século.

07:38And so now,
E agora então,

07:40we're kind of back in 1915 on the Web.
estamos como que de volta a 1915, na web.

07:44And we need the new gatekeepers
E precisamos de novos porteiros

07:47to encode that kind of responsibility
para registrarem aquele tipo de responsabilidade

07:49into the code that they're writing.
no código que eles estão escrevendo.

07:51I know that there are a lot of people here from Facebook and from Google --
Eu sei que temos aqui muitas pessoas do Facebook e do Google --

07:54Larry and Sergey --
Larry e Sergey --

07:56people who have helped build the Web as it is,
pessoas que ajudaram a construir a web como ela é,

07:58and I'm grateful for that.
e eu sou grato por isso.

08:00But we really need you to make sure
Mas realmente precisamos que vocês se certifiquem

08:03that these algorithms have encoded in them
que estes algoritmos tenham codificados neles

08:06a sense of the public life, a sense of civic responsibility.
um senso de vida pública, um senso de responsabilidade cívica.

08:09We need you to make sure that they're transparent enough
Precisamos que vocês assegurem que eles sejam transparentes o bastante

08:12that we can see what the rules are
do modo que possamos ver quais são as regras

08:14that determine what gets through our filters.
que determinam o que passa pelos nossos filtros.

08:17And we need you to give us some control
E precisamos que vocês nos dêem algum controle,

08:19so that we can decide
para que possamos decidir

08:21what gets through and what doesn't.
o que passa e o que não passa.

08:24Because I think
Pois eu penso

08:26we really need the Internet to be that thing
que realmente precisamos que a internet seja aquela coisa

08:28that we all dreamed of it being.
que todos sonhamos que ela fosse.

08:30We need it to connect us all together.
Precisamos que ela conecte a todos nós.

08:33We need it to introduce us to new ideas
Precisamos que ela nos introduza em novas ideias,

08:36and new people and different perspectives.
novas pessoas e diferentes perspectivas.

08:40And it's not going to do that
E ela não fará isso

08:42if it leaves us all isolated in a Web of one.
se nos deixar isolados em uma "rede de um".

08:45Thank you.
Obrigado.

08:47(Applause)
(Aplausos)

Tags:
As web companies strive to tailor their services (including news and search results) to our personal tastes, there's a dangerous unintended consequence: We get trapped in a "filter bubble" and don't get exposed to information that could challenge or broaden our worldview. Eli Pariser argues powerfully that this will ultimately prove to be bad for us and bad for democracy.
Read our community Q&A with Eli (featuring 10 ways to turn off the filter bubble): http://on.ted.com/PariserQA


Comentários  


Beware online "filter bubbles" - Eli Pariser