Entrevista
Virgilio Almeida
Professor emérito da UFMG fala sobre o problema da desinformação com os novos chatbots e destaca os três pilares que devem ser buscados para que se tenha uma inteligência artificial responsável: transparência, responsabilidade e explicabilidade
Sobre
Professor emérito do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG) e pesquisador 1A do CNPq. Membro da Academia Brasileira de Ciências e da Academia Mundial de Ciências, é também professor associado ao Berkman Klein Center na Harvard University. Foi secretário de Política de Informática do Ministério da Ciência, Tecnologia e Inovações e coordenador do Comitê Gestor da Internet no Brasil. Formou-se engenheiro eletricista pela UFMG, com mestrado em informática pela PUC-RJ e doutorado em ciência da computação pela Vanderbilt University. Seus interesses atuais em pesquisa são especialmente o impacto social dos algoritmos e governança e políticas públicas para tecnologias digitais.
FCW – Qual é a sua opinião sobre os chatbots, os sistemas de inteligência artificial para simular conversas?
Virgilio Almeida – Esses modelos de linguagem, capazes de gerar textos e responder a questões, são ainda novos e não sabemos qual será seu impacto, mas uma preocupação que apresentam é o aumento da desinformação, pois é difícil identificar o que é verdade e o que não é no mundo online. Nos últimos 10 anos, a inteligência artificial evoluiu muito por causa do aumento da capacidade dos computadores em processar grandes massas de dados, mas ainda é um exagero dizer que será capaz de fazer tarefas humanas. Temos sistemas atuando em certos domínios, mas não são exemplos de inteligência geral. Algoritmos como os usados para reconhecimento facial ou de voz funcionam em domínios específicos, então eu não entraria nessa discussão de se a tecnologia, os algoritmos e os sistemas de inteligência artificial vão superar o ser humano. Antes disso temos muitos problemas a resolver, problemas reais que derivam da aplicação da inteligência artificial. Do ponto de vista da pesquisa científica, precisamos abordar os impactos dessas questões, sejam no mercado de trabalho, na ocupação de postos de serviço em processos de automação, na discriminação racial, na discriminação de gênero e em muitos outras áreas. São problemas concretos que devem ser tratados por que já ocorrem e vão continuar a se expandir.
FCW – As grandes empresas de tecnologia têm divisões de inteligência artificial com centenas de cientistas e a maior parte do que desenvolvem não é divulgado. Os resultados das pesquisas não deveriam ser abertos, levando em conta o impacto que poderão promover na sociedade?
Virgilio Almeida – Programas específicos de inteligência artificial, como algoritmos de aprendizado de máquina, representam uma vantagem competitiva para as empresas que os desenvolvem. Nos Estados Unidos, são protegidos pela legislação de proteção aos segredos comerciais, então por uma questão de competição e manutenção da posição no mercado acabam não sendo abertos. Outro motivo é a segurança, pois em muitas situações esses programas lidam com assuntos delicados e, se os algoritmos forem abertos, existe a preocupação com atividades maliciosas ou de ataque.
FCW – Em seu artigo “A Layered Model for AI Governance”, com Urs Gasser da Harvard University, vocês falam de governança para a inteligência artificial, que deveria ser discutida por governos, sociedade civil, setor privado e academia. Como poderia ser essa governança?
Virgilio Almeida – Transparência, responsabilidade e explicabilidade são os três pilares que devem ser buscados para que se tenha uma inteligência artificial responsável. São muitos os exemplos do impacto da inteligência artificial sobre a vida das pessoas, como no uso em saúde ou na concessão de visto de entrada em um país. Nos Estados Unidos, vários tribunais usam uma ferramenta chamada Compas para ajudar juízes a definir a duração da pena ou se um condenado tem direito ou não à liberdade condicional. Esse programa utiliza um algoritmo fechado e juízes, tribunais e governo não sabem como ele funciona, mas uma investigação feita pela ProPublica, que analisou o histórico de moderação do Compas, indicou que a ferramenta ajudou a condenar mais negros do que brancos, mesmo em casos em que brancos apresentavam maior risco de cometer crimes. Outro exemplo, cada vez que abrimos o Twitter ou o Facebook nos deparamos com vários posts, mas não sabemos por que justamente aqueles posts estão sendo apresentados e muitas vezes eles podem ter direcionamento ou viés político.
FCW – Entender os mecanismos de funcionamento dos sistemas pode ajudar a saber quem e como responsabilizar?
Virgilio Almeida – Sim, a questão da responsabilização é evidente, por exemplo, nos veículos autônomos ou semiautônomos. Quando há um acidente ou uma questão inesperada, de quem é a responsabilidade? Ou quando alguém solicita um crédito para uma instituição financeira e ele é negado pelo algoritmo. Trata-se de um processo de decisão automática, mas, caso o cidadão queira conhecer o mecanismo por trás da recusa, não tem como recorrer à legislação, uma vez que não existe regulamentação para isso. No Brasil, assim como em outros países, pessoas de todas as classes e idades usam as principais plataformas digitais, como Facebook, Twitter e YouTube, que têm papel importante em períodos de eleição, por exemplo. Essas plataformas são operadas por algoritmos baseados na intensa coleta de dados a respeito das pessoas, para traçar perfis, tomar decisões sobre engajamento e apresentar conteúdo. A pergunta que fica para a sociedade é quais são os efeitos negativos da desinformação? Estamos falando de caixas-pretas, de sistemas muito complexos que não sabemos como funcionam. E aí entra o terceiro pilar, a explicabilidade. Precisamos descobrir como esses sistemas funcionam e seu impacto e isso também é um trabalho de pesquisa científica, por que são sistemas extremamente complexos e de uso recente.
FCW – Pensando nisso, precisamos de leis, regras e políticas para a inteligência artificial?
Virgilio Almeida – Acho que isso tem que ser discutido pela sociedade. Ainda não há países com regulamentação de inteligência artificial, mas vários estão discutindo a questão. Estamos no início, mas é importante que isso seja muito bem debatido pela sociedade, principalmente com relação à responsabilização. Vimos nas últimas eleições o impacto da desinformação, só que isso não afeta apenas a política mas praticamente todos os setores e a própria relação entre as pessoas.
FCW – Qual é a sua opinião sobre o Marco Regulatório da Inteligência Artificial no Brasil?
Virgilio Almeida – Acho importante, mas por enquanto são apenas propostas. Temos um documento que foi feito por um comitê de juristas, de especialistas, e que foi entregue ao Congresso, mas ainda não temos regulamentação. Isso deverá ser retomado e talvez tenhamos uma maior participação do Congresso e do governo na tentativa de regulamentar a questão, por que não estamos falando do futuro, mas de aplicações que já usam inteligência artificial e que impactam a vida da sociedade. Entender o comportamento desses sistemas envolve regulamentação, direito, tomadores de decisão e pesquisa científica.
Leia mais:
-
A Layered Model for AI Governance, Urs Gasser, Virgilio AF Almeida, 20/11/2017, Journal IEEE Internet Computing
Entrevista e edição: Heitor Shimizu
Publicado em: 23/01/2023
Entrevista concedida em: 22/12/2022
Foto: Lucas Braga / UFMG