Empresas de tecnologia estão conduzindo uma campanha para curvar a pesquisa e a regulamentação a seu favor; a sociedade precisa reagir, diz Yochai Benkler
A indústria se mobilizou para moldar a ciência, a moralidade e as leis de inteligência artificial (IA). Em 10 de maio, a Fundação Nacional da Ciência (NSF — National Science Foundation) dos EUA expediu cartas de intenção para um novo programa de fundos para projetos sobre Justiça em Inteligência Artificial, em colaboração com a Amazon. Em abril, após a Comissão Europeia ter emitido o documento de Diretrizes Éticas para uma IA Confiável, um de seus membros, pertencente ao grupo de especialistas acadêmicos, descreveu esta criação como uma “limpeza ética” ditada pela indústria. Em março, a Google formou um conselho de ética de IA, o qual, sob controvérsias, foi dissolvido uma semana depois. Em janeiro, o Facebook investiu 7,5 milhões de dólares em um centro de ética e IA na Universidade Técnica de Munique, na Alemanha.
A contribuição das empresas para o direcionamento do futuro da IA é essencial mas elas não podem usar desse poder que já detém para moldar a pesquisa futura acerca de como seus sistemas impactam a sociedade ou de como nós avaliamos moralmente seus efeitos. Os governos e suas agências precisam dar apoio à pesquisa independente e devem insistir que a indústria compartilhe dados suficientes para que ela seja publicamente responsabilizada.
Sistemas de decisão algorítmicos afetam todos os cantos de nossas vidas: tratamentos médicos e seguros; hipotecas e transportes; policiamento, fianças e liberdade condicional; notícias, propaganda política e comerciais. Como os algoritmos são treinados com os dados existentes que refletem desigualdades sociais, há o risco de eles perpetuarem injustiças sistêmicas a menos que pessoas conscientemente projetem medidas de compensação. Por exemplo, sistemas de IA para previr reincidência podem incorporar policiamento diferenciado para comunidades de brancos e negros, ou aqueles que medem o provável sucesso de candidatos a emprego podem se basear num histórico de promoções enviesado por gênero.
Dentro da caixa preta de um algoritmo, os vieses da sociedade se tornam invisíveis e não podem ser responsabilizados. Quando desenhados apenas para lucrar, algoritmos necessariamente divergem do interesse público — assimetrias de informação, poder de barganha e externalidades permeiam esses mercados. Por exemplo, o Facebook e o YouTube lucram com pessoas permanecendo em seus sites e ao oferecer aos anunciantes a tecnologia que entrega mensagens a alvos precisamente direcionados. Isso pode ter resultados ilegais ou perigosos. O departamento de Habitação e Desenvolvimento Urbano dos EUA acusou o Facebook de permitir discriminação em seus anúncios de residências (correlativos à raça ou religião podiam afetar quem via uma publicação). O algoritmo de recomendações do YouTube já foi responsabilizado por alimentar conspirações antivacina. Eu vejo esses tipos de coisa como sendo as “emissões de poluentes” da indústria de alta tecnologia: elas trazem lucros, mas a sociedade arca com os custos. (As empresas declararam que trabalham para garantir que seus produtos sejam socialmente responsáveis).
De celulares ao serviço médico, governos, acadêmicos e organizações da sociedade civil se esforçam para estudar como as tecnologias tem afetado a sociedade e como proporcionar contrapesos as organizações voltadas ao mercado. Atores da indústria tem intervido estrategicamente nestes esforços.
Quando a NSF empresta à Amazon a legitimidade de seus processos por um programa de 7,6 milhões de dólares (0,03% do gasto da Amazon para 2018 em pesquisa e desenvolvimento), ela enfraquece o papel da pesquisa pública como um contrapeso ao da pesquisa financiada pela indústria. A universidade abdica de seu papel central quando aceita financiamento de uma empresa para estudar as implicações morais, políticas e legais de práticas que estão no cerne do modelo de negócios daquela empresa. Também o fazem os governos que delegam os desenhos de políticas públicas a painéis dominados pela indústria. Sim, as instituições ergueram algumas salvaguardas. A NSF vai distribuir bolsas de pesquisa através de seu processo normal de revisão por pares, sem a interferência da Amazon, mas a Amazon mantém os meios contratuais, técnicos e organizacionais para promover os projetos que sirvam aos seus objetivos. A Universidade Técnica de Munique relata que os fundos do Facebook vêm sem condições ou obrigações e que a empresa não terá lugar no conselho consultivo do centro. Na minha opinião, o risco e a percepção de influência indevida ainda são grandes demais, dada a magnitude desta doação vinda de uma única fonte e sua relação direta com os interesses do doador.
As empresas líderes em tecnologia de hoje nasceram numa época de alta fé em mecanismos de base mercadológica. Nos anos 1990, a regulamentação era restrita, e instalações públicas como estradas de ferro e serviços de utilidade pública estavam sendo privatizados. Inicialmente saudadas por estarem trazendo democracia e crescimento, as preeminentes empresas de tecnologia ficaram sob suspeita após a Grande Recessão do final dos anos 2000. Tanto a Alemanha, quanto a Austrália e o Reino Unido aprovaram ou estão planejando leis que imponham grandes multas a empresas assim como a responsabilização judicial dos executivos (como pessoas privadas) pelos males de que suas companhias estão sendo acusadas.
Este fervor regulatório recém-inaugurado pode ser um exagero. (A “ansiedade tecnológica” que não tenha por base pesquisas confiáveis não servirá de melhor guia as políticas públicas que uma utopia tecnológica.) Ainda assim, ele cria incentivos para que a indústria coopere.
Os governos deveriam utilizar-se deste poder para exigir que as empresas compartilhem seus bancos de dados, devidamente protegidos, com acesso garantido a pesquisadores financiados por recursos públicos, devidamente encapsulados dos interesses da indústria. A participação da indústria em painéis para a elaboração de políticas deveria ser estritamente limitado.
A indústria tem os dados e a expertise necessária para projetar justiça em sistemas de IA. Ela não pode ser excluída dos processos pelos quais nós investigamos quais preocupações são reais e quais salvaguardas funcionam, mas não se pode permitir que ela os dirija. As organizações que trabalham para garantir que a IA seja justa e benéfica devem ser financiadas com recursos públicos, estando sujeitas a revisões por pares e transparentes à sociedade civil. E a sociedade deve exigir maior investimento público em pesquisa independente ao invés de esperar que o financiamento da indústria preencha o espaço sem corromper o processo.
Por Yochai Benkler, em 1º de maio de 2019.
Traduzido por Bruno Gabellini.
Texto original disponível em: https://www.nature.com/articles/d41586-019-01413-1