Muitos de nós já estivemos em uma situação similar: querer registrar um momento importante. Puxar o smartphone do bolso. Abrir o aplicativo da câmera e tocar a tela. Ir além da imagem salva como arquivo digital e decidir postá-la numa rede conectada com o resto do mundo, que, ao mesmo tempo, distribui a foto e mostra, em uma linha do tempo misteriosamente organizada, imagens recém-captadas ao redor do planeta, curadas especificamente para nós. Tudo isso em questão de segundos.
Embora executar essa ação tenha se tornado praticamente um reflexo nos dias de hoje, a evolução tecnológica que nos levou a essa solução esconde inúmeras camadas de complexidade, desde chips de computador microscópicos em nossos bolsos até uma rede de satélites posicionados fora do planeta Terra.
Em 2012, o escritor Venkatesh Rao declarou que “nem sempre percebemos quando o futuro chega”. Para ele, estamos cercados por uma “normalidade manufaturada”, na qual mecanismos foram desenvolvidos para nos impedir de perceber que tecnologias antes tidas como impossíveis já estão ao nosso redor.
Na base de muitas dessas invenções estão os algoritmos, que, em essência, são “uma sequência de instruções para resolver um determinado problema”, explica o cientista da computação Virgílio Almeida.
De 2011 a 2015, Almeida foi secretário nacional de Políticas de Informática do Ministério da Ciência, Tecnologia e Inovação. Em 2022, à frente da Cátedra Oscar Sala, o professor trabalhará no projeto Interações Humano-Algoritmo.
Em essência, o projeto tem duas motivações: estudar a diversidade dos tipos de algoritmos em operação, com impacto cada vez maior na sociedade e nas atividades diárias dos cidadãos, e analisar sua complexidade dentro de diferentes tipos de sistemas.
“Imagine um sistema que toma decisões que causam um impacto sobre a vida das pessoas. Essas decisões podem levar a diferentes futuros, inclusive, futuros negativos”, ilustra o professor, esclarecendo que, muitas vezes, o sistema em questão é “opaco”, ou seja, não sabemos como ele funciona de fato.
“Quando pensamos nesses sistemas, não sabemos quem são os responsáveis por essas decisões, o que nos deixa em uma situação de perplexidade”, teoriza ele, citando as avaliações de crédito, cujos critérios nem sempre são claros para o solicitante.
Não por acaso, na pandemia, para se solicitar o auxílio emergencial, requisitado por mais de 39 milhões de famílias em 2021, a base da interação entre pessoas e o sistema foi um aplicativo. “Cada vez mais, estamos vendo que as pessoas interagem com os algoritmos através de aplicativos, de interfaces, de browsers. Todas essas interações são mediadas por algoritmos que tomam as decisões, decisões que podem excluir pessoas”, explica.
Na opinião do especialista, compreender os motivos e mecanismos por trás dessa exclusão se torna, dia após dia, crucial. “Percebemos um movimento grande de automação, de uso de inteligências artificiais, para serviços de saúde, por exemplo. Durante a pandemia, tivemos os chatbots da covid-19, que, por meio de um aplicativo, poderiam sugerir um determinado tratamento ou medicamento”, conta Almeida, ao reforçar que o processo envolvido nessa tomada de decisões não era transparente para os usuários.
Josef K. chega ao século 21
Lançado em 1925, o livro O Processo, de Franz Kafka conta a história de Josef K., que numa bela manhã “foi detido sem que tivesse feito mal algum”. O misto de situação surreal com terror altamente possível – o do encarceramento sem provas – serviu como metáfora no começo do século 20, mas, no século 21, ganha ares de normalidade.
“Atualmente, nos Estados Unidos, vários tribunais usam sistemas que utilizam algoritmos para determinar se um acusado merece ou não um habeas corpus ou ainda calculam o tamanho da pena de um criminoso”, revela o professor. “No Brasil, alguns tribunais têm interesse em adquirir esse tipo de sistema. Ou seja, a ficção de Kakfa não está tão longe.”
E é justamente a encruzilhada que envolve a interação entre pessoas e algoritmos que constitui o objeto da Cátedra Oscar Sala.
“Com a pandemia, o processo de transformação digital se acelerou muito. E vamos observando que, no Brasil, os sistemas baseados em algoritmos estão sendo implantados sem que haja uma compreensão maior do impacto e de como eles funcionam”, pontua, ao reforçar que, em um país com imensa desigualdade como o nosso, os efeitos podem ser bastante negativos.
Por trás da tela preta
Embora, na matemática, algoritmos sejam apenas sequências de instruções, no atual contexto tecnológico essas sequências têm se tornado progressivamente mais complexas.
“Os algoritmos hoje se desenvolveram bastante e a sequência de instruções não é informada com clareza, ela é descoberta por treinamento. Agora os algoritmos funcionam por aprendizado de máquina, ou seja, eles vão aprendendo e evoluindo com os dados que são inseridos no sistema.”
A mecânica transforma em caixas-pretas os algoritmos que se escondem por trás das nossas telas. Não apenas isso, eles hoje são propriedades intelectuais, associadas a empresas que lucram com os seus inúmeros usos. “Eles são propriedade privada, mas seus impactos podem ser públicos”, defende Almeida.
Mas como a sociedade pode saber ou interferir no impacto desses algoritmos? Para o professor, a resposta vem em duas etapas: “É preciso transparência e multidisciplinaridade”.
“O que a gente percebe é que grande parte do desenvolvimento de sistemas é feita por pesquisadores da área da computação, que não têm uma formação social ou política. Ou seja, eles são desenvolvidos de forma sofisticada, mas sem a sensibilidade sobre o impacto na sociedade”, diz o professor. O projeto da Cátedra Oscar Sala nasce, portanto, com o objetivo explícito de aproximar a computação e a engenharia das ciências sociais e humanas.
“A computação de décadas atrás tinha muito menos impacto na vida das pessoas, mas, com a invenção de celulares, tablets e da própria internet, ela se aproximou. Mas quem constrói essas estruturas, na maior parte das vezes, não tem a sensibilidade de imaginar suas consequências sociais”, esclarece.
Educação como resposta
As questões técnicas dos algoritmos – todos feitos por pessoas ligadas à área de tecnologia – envolvem escalas de eficiência, acurácia e redução de tempo de processamento, entre outros fatores de desenvolvimento de produto. “As preocupações sociais não estão presentes, não por intenção, mas por uma deficiência de formação”, opina o professor.
Não é à toa que a discussão sobre os preconceitos por trás dos algoritmos tem tomado fôlego nos últimos anos e causado constrangimento para grandes empresas de tecnologia. O próprio Google, em 2015, pediu desculpas pelo viés racista imbuído em seu buscador de imagens.
“Esse viés não existe nas máquinas. As pessoas é que têm vieses, as pessoas têm atitudes discriminatórias. E isso deve ser combatido por educação, abrindo as caixas-pretas para entendermos o que está acontecendo”, postula Almeida.
A verdade é que, quando se pensa em tecnologia atualmente, se pensa em grandes plataformas globais que possuem enorme poder. Diante disso, governos têm trabalhado para estabelecer regras que coíbam atos discriminatórios e ações que invadam ou desrespeitem a privacidade de usuários.
E trabalhar nisso envolve mexer com sistemas que já fazem parte da vida de todos nós e não serão suspensos para que se possa fazer uma reavaliação. “Não vamos parar as redes para isso, vamos trocar os pneus de um carro em movimento, por assim dizer.”
A resposta para combater as falhas de comunicação entre nós, humanos, e os inescapáveis algoritmos, reforça o professor, é uma educação apropriada. “A educação não tem sido prioridade. Hoje, com todas as dificuldades de pesquisa, muitos estados estão perdendo pesquisadores de ponta que seriam importantes para essa área. Temos que ter recursos humanos qualificados para fazer esse processo”, defende.
Como argumentou a autora Cathy O’Neil, em seu livro Algoritmos de Destruição em Massa, lançado em 2016, os algoritmos foram originalmente criados para serem neutros e justos, evitando vieses humanos e falhas lógicas. Entretanto, sabemos que os que são usados hoje em dia incorporaram preconceitos, que podem ser frutos de seus designers distantes de certas questões sociais ou dos dados usados no treinamento dos algoritmos. E como os algoritmos são utilizados em escala, esses preconceitos afetam o planeta inteiro.
“Na cátedra, queremos estudar essas interações entre humanos e algoritmos, trazendo pesquisas que incluem comunicação, ciências sociais e artes. A meta é tentar compreender essa questão de maneira mais ampla e formular modelos fundamentais que permitam à sociedade compreender o que está acontecendo.”
A Cátedra Oscar Sala é uma parceria do IEA com o Núcleo de Informação e Coordenação do Ponto BR (NIC.br) no âmbito de convênio entre a USP e o Comitê Gestor da Internet no Brasil (CGI.br).
Fonte: Jornal da USP
Para saber mais sobre como os algoritmos podem ser discriminatórios assista o documentário Coded Bias: