HÉLIO'S BLOG

Início » Divulgação Científica » Catherine O’Neil: “Algoritmos podem ajudar a reforçar estereótipos da sociedade”

Catherine O’Neil: “Algoritmos podem ajudar a reforçar estereótipos da sociedade”

https://helioaraujosilva.wordpress.com/

Categorias

HÉLIO’S BLOG

#Divulgação Científica

Catherine O'Neil matemática americana (Foto: Divulgação)

Catherine O’Neil: “Algoritmos podem ajudar a reforçar estereótipos da sociedade”

A matemática americana diz que o uso de modelos matemáticos para distribuir informação facilita a propagação de notícias falsas e a manipulação por grupos radicais

BRUNO FERRARI

INVESTIGAÇÃO
Catherine O’Neil nos Estados Unidos. Ela começou descobrindo abusos no mercado financeiro (Foto: Divulgação)

A americana Catherine O’Neil – ou Cathy, como prefere ser chamada – passou boa parte da sua vida dedicada a estudar e ensinar matemática. Como acadêmica, obteve um doutorado pela Universidade Harvard e foi professora de universidades conceituadas, como o Massachusetts Institute of Technology, em Boston, e a Universidade Columbia, em Nova York. Ao migrar do mundo acadêmico para o mercado financeiro, por volta de 2007, teve um choque: descobriu que modelos de cálculos matemáticos estavam sendo manipulados por empresas ligadas ao mercado financeiro para maquiar as classificações de risco de alguns títulos. Esses títulos foram os principais causadores da grande crise financeira global de 2008. Catherine deixou o emprego como matemática na empresa de investimentos e passou para o lado do ativismo, no movimento Occupy Wall Street. Em 2010, a convite de uma diretora de escola pública, foi investigar algoritmos usados para avaliar professores e decidir se ganhariam promoção ou demissão. Descobriu que os algoritmos reforçavam preconceitos. A partir daí, passou a investigar outros usos deturpados dos algoritmos para, em nome de decisões justas e impessoais, perpetuar discriminação. Os casos deram origem ao livro Armas de destruição matemática, lançado nos Estados Unidos em 2016. Seu novo alvo é o algoritmo do Facebook.

a-mente3_o

>> O Facebook ameaça a democracia?

ÉPOCA – É possível tomar decisões baseadas apenas em modelos matemáticos?
Catherine O’Neil – Se é um modelo matemático secreto, mas que toma uma decisão desimportante, sinceramente não acho grave. O que me preocupa como especialista em matemática é o marketing em torno desses algoritmos. Dizem que eles estão ajudando a tornar o mundo mais justo por se basearem em modelos matemáticos. Mas vivemos numa sociedade historicamente racista, sexista etc. Os exemplos do meu livro mostram que os algoritmos podem estar apenas ajudando a reforçar esses estereótipos. E, ao acharmos que eles resolvem determinado problema, paramos de nos preocupar. Como na grande maioria das vezes nós não temos acesso à forma como esses algoritmos funcionam, é difícil também prever, do ponto de vista objetivo, a extensão dos efeitos colaterais que eles estão causando.

ÉPOCA – Como a senhora vê o algoritmo que o Facebook usa para priorizar e distribuir as postagens?
Catherine – O que me preocupa é a circulação de publicidades falsas no Facebook. Ao clicar num anúncio, você é levado para um site repleto de spams e informações maliciosas. Eles são responsáveis por isso. Outro problema é o uso do Facebook para a proliferação de notícias falsas. Eles precisam ter a responsabilidade editorial, o que me parece que estão começando a avaliar com mais seriedade. Este é um aspecto fundamental para a saúde de uma sociedade democrática. O maior problema é que o algoritmo foi otimizado para que a gente permaneça por mais tempo no Facebook. Não para que a gente tenha mais acesso a informações importantes e verdadeiras. A verdade é que não temos uma tecnologia de inteligência artificial que identifique verdades e mentiras. A inteligência artificial não é tão desenvolvida quanto as empresas de tecnologia querem nos fazer crer. A ideia de que um algoritmo pode substituir de alguma forma a avaliação de um ser humano é estúpida. Essas tecnologias são constantemente treinadas por seres humanos. Treinadas, no caso dos algoritmos, a avaliar melhor as informações que são exibidas nos perfis de usuários das redes sociais. Só que o Facebook passou nos Estados Unidos por um fiasco com sua ferramenta que mostrava tendências de notícias. A empresa foi acusada de esconder notícias de sites mais conservadores de seus usuários. Num segundo momento, disseram que o tratamento das notícias era feito pelo algoritmo com a ajuda de seres humanos. O que o Facebook fez para tentar resolver o caso? Demitiu todos os seres humanos. O que ocorre é que as pessoas em geral têm uma expectativa irreal em relação aos algoritmos e à inteligência artificial. Pior, ao demitir os profissionais, o Facebook deixou a imagem de que editores profissionais não têm condições de fazer um bom trabalho na seleção. É claro que não é possível fazer um trabalho perfeito numa seleção de notícias porque não há perfeição no trabalho humano de qualquer área.

ÉPOCA – Como as redes sociais devem lidar com o problema de notícias falsas?
Catherine – A forma mais correta a meu ver seria criar processos e políticas editoriais transparentes para que profissionais humanos façam a seleção do conteúdo da melhor forma possível. Mas isso incluiria a contratação de muitas pessoas em diversos países. O Facebook está interessado em otimizar seus negócios para obter o maior lucro possível. A empresa não parece muito interessada em assumir responsabilidades editoriais. Mais uma vez, as pessoas acham que seres humanos são falhos e que os algoritmos são “limpos”, quando na verdade os algoritmos é que são falhos e os seres humanos não são tão ruins quanto se pensa.

Poucas mais existe Sim

RECOMENDADO PARA VOCÊ

“É preciso exigir que as empresas sejam responsáveis pelos efeitos colaterais dos algoritmos que usam”

ÉPOCA – O que é pior: as notícias falsas ou o efeito bolha do algoritmo do Facebook que prioriza posts de pessoas com visões de mundo semelhantes em detrimento de ideias contraditórias?
Catherine – Não acho que seja possível analisar os dois separadamente. Acredito que justamente por a gente ter se isolado tanto nessas bolhas invisíveis é que as notícias falsas se espalham tão rapidamente. As pessoas ficam tão condicionadas a acreditar em informações que confirmem seus pontos de vista que acabam acreditando e compartilhando notícias e conteúdos que não fazem o menor sentido. O filtro usado pela rede social entende isso como um engajamento, já que muitas pessoas dentro dessas bolhas compartilham a informação. A notícia então ganha prioridade. Ao ver que muita gente está compartilhando e comentando, o usuário tem ainda mais um reforço de que aquela informação, ainda que lhe parece meio absurda, pode ser real. Aqui, mais uma vez, volto ao ponto dessa impressão de que os algoritmos tornam o mundo mais justo ou transparente porque não estão contaminados pelo viés de humanos. Quem cria esse tipo de conteúdo falso, aliás, leva isso em consideração, seja para desinformar, seja para ganhar dinheiro a partir da publicidade gerada pelo engajamento.

ÉPOCA – Mas as notícias falsas e as táticas de desinformação não são um fenômeno anterior ao Facebook?
Catherine – Sim, mas encontraram no efeito de bolha invisível um ambiente perfeito para se espalhar. Não acho que o fenômeno das notícias falsas, no patamar em que está hoje, existiria sem a ajuda desses algoritmos. Isso se mostrou uma oportunidade grande para grupos radicais, que passaram a usar o Facebook como o principal meio para a propaganda partidária.

internet-map-app-4

>> O tribunal do Facebook

ÉPOCA – Você acha que o Facebook teve alguma responsabilidade pelas eleições de Donald Trump?
Catherine – Sim. Não acho que fizeram isso de forma intencional, mas em virtude do algoritmo que prioriza o engajamento, e não a informação. Um comportamento similar ao de alguns setores da mídia tradicional desde os tempos pré-Facebook, priorizando a audiência em detrimento do interesse público. Com a mudança mais recente do algoritmo do Facebook, que passou a dar mais espaço a conteúdos postados em páginas de usuários [e não mais aos de veículos de mídia], pode-se perceber uma diminuição nos conteúdos que realmente traziam informações importantes sobre candidatos, enquanto depoimentos e opiniões pessoais sobre Trump e Hillary ganharam mais espaço. O resultado prático disso é que a imagem de cada um dos candidatos foi muito mais uma “colagem” de impressões e humores das pessoas em relação a eles do que propriamente construída a partir de fatos objetivos.

ÉPOCA – No futuro próximo os algoritmos poderão igualar-se à capacidade do ser humano de fazer escolhas complexas?
Catherine – Não acho possível relacionar diretamente a evolução tecnológica da inteligência artificial com mais transparência dos algoritmos. Acho que todas as decisões que envolvem diretamente vidas humanas, que são sensíveis e subjetivas, deverão continuar a ter os humanos como principal agente. Agora, esses algoritmos são segredos poderosos que geram lucros incríveis para determinadas empresas. Tenho minhas dúvidas se elas deixarão isso de lado. O Facebook é o caso mais grave, mas há também o Google e todas as empresas que usam esses algoritmos obscuros. É preciso exigir que as empresas sejam responsáveis pelos efeitos colaterais dos algoritmos que usam.

REVISTA ÉPOCA Nº 968 – 09 de janeiro de 2017  p. 6870.

Anúncios

2 Comentários

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s

%d blogueiros gostam disto: