Coded Bias: o lado excludente dos algoritmos

O documentário “Coded Bias” mostra como os algoritmos podem reforçar preconceitos ao exibir falha de inteligência artificial (IA) ao identificar rostos de pessoas negras

Presentes em praticamente toda a internet, os algoritmos são peças importantes para que a nossa vida seja mais fácil ao navegar na rede mundial de computadores.

Entretanto, essa inteligência artificial que contribui para o bem, é a mesma que, muitas vezes, intensifica comportamentos segregadores. Ao assistir o documentário “Coded Bias”, disponível na Netflix, é possível ver que são muitas as falhas dessa tecnologia, especialmente com as minorias.

Baseado em uma descoberta científica – e prática – da pesquisadora do renomado Instituto de Tecnologia de MassaChusettts (MIT), Joy Buolamwini, o documentário toma como partida o fato de ela não ter seu rosto reconhecido por uma IA, que ela mesma desenvolveu, e, por isso, decidiu começar o estudo.

Joy percebeu que a leitura facial funcionava quase que perfeitamente em homens brancos, mas apresentava falhas menores em mulheres brancas, alguns erros maiores em homens pretos e problemas consideráveis em mulheres pretas.

Se não bastasse esse reflexo da sociedade dentro dos computadores, o acesso a dados individuais foi mais um problema encontrado.

Armazenamento irregular dos dados

Ao aprofundar dentro desse contexto, as descobertas levaram diversos pesquisadores e ativistas a uma grande surpresa. A leitura facial e biométrica de toda a população, além de ter esse potencial racista, machista e preconceituoso, armazenava todas as informações das pessoas.

Seja na Europa, na América ou em qualquer outro continente, as câmeras nos filmam a todo instante, coletam nossas informações, que nem sempre são usadas da maneira correta.

No documentário, nos é apresentada a ONG Big Brother Watch, que luta contra essa gigantesca exposição a que os cidadãos londrinos são expostos.

Vans com câmeras são espalhadas pela capital da Inglaterra e fazem uma leitura para ver se alguém já tem algum antecedente criminal. Entretanto, como já foi visto, a IA possui inúmeros problemas e, não à toa, diversas pessoas são paradas erroneamente por uma falha no sistema.

O resultado das câmeras 24h por dia é vista em entrevistas de empregos, créditos bancários, avaliações de professores, e diversos outros serviços, estatais ou não. Usando essas informações coletadas de maneira arbitrária, os sistemas continham dados íntimos de cidadãos comuns e eram usados para excluir ainda mais.

Essa amostra do uso indevido desses materiais pessoais, inverte bastante o senso comum. É muito normal pensar que um local cheio de câmeras pode ser mais seguro, afinal, estamos sendo vigiados por todos os lados. Mas o documentário mostra um detalhe pouco explorado: a invasão de privacidade.

Quem está protegendo as suas informações?

Toda essa invasão de privacidade já seria, por si só, um grande problema. Mas “Coded Bias” mostra algo pior. Além do governo ter acesso aos nossos dados de uma forma desrespeitosa, nós damos todas as nossas informações pessoais “de bandeja” para as principais empresas de tecnologia do mundo.

Como foi mostrado em “Dilema das Redes”, não temos o mínimo de conhecimento sobre a forma como Google, Facebook, Twitter e outras gigantes tratam os nossos dados pessoais.

Por isso, uma das grandes lutas da Liga da Justiça do Algoritmo, organização criada por Joy é, além de conscientizar as pessoas sobre o direito à privacidade, é brigar por uma lei federal que regulamente esse amplo acesso.

O filme mostra como simples movimentos dessas empresas, como o Facebook, podem mudar a história e o rumo de um país. Não só pela polarização, mas também pelo poder de influência que as redes sociais na internet exercem nas nossas vidas.

No Brasil, temos a Lei Geral de Proteção de Dados (LGPD), que está aí para proteger as nossas informações. Um dos seus principais pontos é que os cidadãos têm total poder sobre os seus dados e que só se for autorizado, alguma empresa pode manuseá-los. Mesmo assim, ainda é preciso avançar muito, principalmente com a divulgação dos direitos que a legislação garante.

Dessa forma, “Coded Bias” nos leva a refletir sobre diversos pontos fundamentais. A força excludente dos algoritmos são um reflexo de quem governa o mundo atual, os homens brancos.

Empresas estatais e privadas possuem total acesso aos nossos dados e, muitas vezes, somos nós mesmo quem entregamos tudo por um simples “like” ou comentário na internet.

E, o mais importante, é preciso que uma legislação exista para que, de alguma forma, as informações pessoais fiquem seguras tanto por fraudes, mas também para que as pessoas estejam protegidas dos mesmos problemas de sempre, o preconceito, a indiferença e a desigualdade social.

Foto do author

Talquimy

Talquimy

...

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *