Inteligência Artificial: construindo uma agenda para garantir impactos positivos

Artigo original: David Talbot, Levin Kim, Elena Goldstein, Jenna Sherman | Adaptação: Victor Vicente | Tradução: Debora Albu | Fotos: Bruno de Castro

O Berkman Klein Center da Universidade de Harvard, o Instituto de Tecnologia e Sociedade (ITS Rio) e o Museu do Amanhã realizaram o simpósio internacional “Inteligência Artificial e Inclusão” com o objetivo de instrumentalizar participantes e explorar ideias para democratização dos dados e inclusão na era da Inteligência Artificial (IA).

Tecnologias baseadas em inteligência artificial e os enormes bancos de dados que as alimentam estão reconfigurando todos os setores da sociedade. Nossas vidas já são transformadas diariamente por esses sistemas, seja quando acessamos mídias sociais, pesquisamos preços ou realizamos uma busca simples em serviços como o Google. Todas essas experiências são filtradas e personalizadas para nós com uso da inteligência artificial. Por isso, uma das principais preocupações acerca dessa realidade diz respeito ao fato de que tais tecnologias ainda permanecem, via de regra, em posse das grandes empresas e das potências econômicas, como China e Estados Unidos.

Como é possível democratizar não apenas o acesso às plataformas baseadas em inteligência artificial, mas também às ferramentas para criá-las? No início de novembro de 2017, o Instituto de Tecnologia e Sociedade do Rio de Janeiro, o Berkman Klein Center for Internet & Society da Harvard University e o Museu do Amanhã organizaram um simpósio internacional de três dias no Brasil, em nome do grupo global de centros de pesquisa sobre a Internet, Global Network of Internet & Society Centers (NoC), para construir uma agenda positiva para a inteligência artificial e inclusão.

O simpósio reuniu representantes da academia, grupos de advocacy e filantropia, mídia, políticas públicas e indústria de mais de 20 países. Juntos, os participantes enfrentaram o desafio de identificar e implementar estratégias para tornar a inteligência artificial mais inclusiva. Mais de 170 pessoas de todos os continentes do mundo se reuniram no Museu do Amanhã com o objetivo de colaborar e identificar perguntas de pesquisa, bem como pontos de ação. Ao longo dos três dias, os participantes mapearam estratégias para:

  1. delinear estruturas regulatórias e de direitos humanos para a tecnologia;
  2. definir formas de democratizar o acesso à informação e aos dados;
  3. auditar algoritmos e avaliar seus efeitos;
  4. construir comprometimento para o design e implementação de uma inteligência artificial que incorpore as perspectivas de grupos tradicionalmente marginalizados e sub-representados, incluindo comunidades urbanas e rurais de baixa renda, mulheres, juventudes, pessoas LGBTQ, grupos étnicos e raciais marginalizados e pessoas com deficiências.
Carlos Affonso, diretor do ITS Rio.

Espera-se que esse trabalho ajude a garantir que grupos marginalizados e pessoas residentes em países de economias emergentes não sejam relegados a papeis passivos, mas sim que influenciem ativamente o desenvolvimento da Inteligência Artificial. “É fácil enxergar os desafios e não as oportunidades”, disse Carlos Affonso Souza, professor da Universidade do Estado do Rio de Janeiro e um dos diretores do ITS Rio, “mas queremos que países de economias emergentes se tornem protagonistas na geração e no desenvolvimento de tecnologias e de Inteligência Artificial.”

Os participantes do simpósio receberam uma missão diferente a cada dia para a criação de uma agenda que favoreça impactos positivos da inteligência artificial ao redor do mundo:

1º dia: construir um entendimento comum sobre os conceito complexos de inteligência artificial, inclusão e suas interseções;

2º dia: identificar oportunidades, desafios e soluções;

3º dia: traduzir os debates dos dias anteriores e iniciar a construção de um plano de ação.

Também foram facilitadas discussões voltadas para temas específicos como direito e governança, design, dados e infraestrutura e modelos de negócio. Apesar de a maior parte do evento ter sido direcionada para participantes de todo o mundo e conduzida em inglês, o simpósio incluiu uma sessão pública com a presença de mais de 400 pessoas, na qual diferentes tópicos foram debatidos em inglês e português.

Um tema comum durante os três dias foi a importância de incluir vozes e perspectivas de comunidades marginalizadas, como jovens, etnias e raças diversas, LGBTQ e pessoas de menores níveis educacionais formais. Participantes que contribuíram com informações para a pesquisa visual realizada também sugeriram que um dos maiores objetivos deveria ser o estabelecimento de relações de colaboração globais profundas. “Existe uma grande carência de colaborações entre alguns países do hemisfério norte e sul”, coloca Laura Nathalie Hernandez, doutoranda em El Salvador. Ela afirma que em seu país os desafios e as oportunidades da Inteligência Artificial e seus efeitos sociais não são bem analisados e vistos de viagem são caros e de difícil obtenção por salvadorenhos.

O evento foi apoiado pelo Ethics and Governance of Artificial Intelligence Fund, pelo International Development Research Center (IDRC) e pela Open Society Foundations, em colaboração com o Museu do Amanhã no Rio de Janeiro, que funcionou como a sede do evento, trazendo sua estrutura neofuturista — construído em um píer que adentra pela Baía de Guanabara antes das Olimpíadas de 2016 — para o debate. A cidade do Rio de Janeiro foi em si um ponto de discussão para o futuro da Inteligência Artificial, explicitando as lacunas físicas e digitais de “uma cidade em que riquezas exorbitantes e miséria coexistem há bastante tempo”.

História e Desafios da Inteligência Artificial

No início do evento, Ansaf Salleb-Aouissi, professora em Ciência da Computação na Universidade de Columbia, apresentou uma breve história sobre Inteligência Artificial e Machine Learning e mencionou suas maiores aplicações: mecanismos de recomendação para mídias sociais e publicidade; reconhecimento e detecção facial; reconhecimento de discurso (A Inteligência Artificial também é usada para alimentar ferramentas de análise de risco em bancos, empresas de seguro e até em cortes criminais para auxiliar decisões sobre pagamento de fianças, condicionais e sentenças). Em “machine learning”, computadores conseguem aprender por experiência e com a adição de mais dados. Todavia, os conjuntos de dados que embasam esse aprendizado são produtos de decisões e curadoria humanas e podem incluir preconceitos humanos que irão aparecer mais tarde nos resultados. A professora também delineou um guia com as principais abordagens para tornar a IA mais “inclusiva”:

Desenvolver — empoderar indivíduos com educação sobre IA;

Decifrar — explicar IA por meio de modelos fáceis de entender;

Desidentificar — garantir que os dados sejam usados de forma a proteger a privacidade das pessoas (incluindo em categorias como raça);

Desenviezar — trabalhar para garantir justiça, equidade e imparcialidade nos processos e evitar discriminação digital.

Além dela, outros participantes apresentaram exemplos nos quais a Inteligência Artificial e algoritmos explicitaram preconceitos e iniquidades óbvias. Lucas Santana, analista de marketing digital e diretor da Desabafo Social, ONG de Salvador que promove o avanço da educação em direitos humanos, descreveu como uma simples busca no banco de imagens Shutterstock com termo “bebê” praticamente exclui qualquer bebê negro. Esses resultados são um reflexo incorreto da realidade social em países como o Brasil, onde 64% da população é negra. Problemas do tipo são encontrados em algoritmos de busca de forma geral: eles refletem a sobrerrepresentação das perspectivas brancas, ocidentais e ricas dos criadores de conteúdo, grupo que em geral também decide como images ou vídeos são identificados (com palavras) para a detecção posterior de ferramentas de busca.

Esse e outros exemplos mostram como preconceitos estão enraizados nos sistemas que alimentam nosso discurso online, nas buscas, recomendações e publicidade. Mas durante o evento, Alison Gillwald, diretora executiva do Research ICT Africa disse que esses problemas não são uma surpresa: “é como se pensássemos que a Internet não seria afetada por todos os preconceitos e dificuldades que existem no offline”. Cabe então propor mecanismos que deem transparência às operações da inteligência artificial e implementar mecanismos que garantam equidade e justiça, afinal, dada a escala e a velocidade do progresso tecnológico, a inteligência artificial pode não apenas ser um reflexo, mas também exacerbar desigualdades estruturais que existem global e localmente.

Enquadramento Teórico e principais questões

Um dos alicerces em busca de uma agenda positiva para Inteligência Artificial e Inclusão veio da construção de bases conceituais comuns aos participantes, bases que pudessem aproximar pesquisas e estratégias de melhoria, ao menos, próximas, para que houvesse construções coletivas de soluções. Nishant Shah, professor da Leuphana University em Lüneburg, Alemanha, e co-fundador e diretor de pesquisa do Center for Internet and Society em Bangalore, Índia, apresentou uma forma de abordar o tema geral. Sua apresentação teve início com uma imagem de uma camiseta comercializada pela Amazon em que se lia “Keep Calm and Rape a Lot” (em tradução seria “Fique Calmo e Estupre Muito).

O evento incluiu a discussão de abordagens teóricas para auxiliar a comunidade de pesquisa para pensar os problemas relacionados a Inteligência Artificial e Inclusão. Nishant Shah, professor da Leuphana University em Lüneburg, Alemanha, e co-fundador e diretor de pesquisa do Center for Internet and Society em Bangalore, Índia, apresentou uma forma de abordar o tema geral. Sua apresentação teve início com uma imagem de uma camiseta comercializada pela Amazon em que se lia “Keep Calm and Rape a Lot” (em tradução seria “Fique Calmo e Estupre Muito).

A camiseta de caráter alarmantemente ofensivo foi inteiramente criada por um algoritmo configurado para adicionar verbos ao mote “Keep Calm and Carry On” (de um pôster britânico do tempo de guerra) e ofertar o produto para venda sem qualquer tipo de envolvimento humano. A pessoa que vendia as camisetas não intencionava ser misógina nem desenhou o algoritmo de forma consciente para produzir algo tão ofensivo. Claramente, a Amazon não fez um bom trabalho ao desenhar e monitorar seus sistemas — mas, como pontuou Shah, o problema está mais fundamentalmente enraizado em interações híbridas entre humano e máquina. Considerando essa ideia, Shah incitou acadêmicos a considerarem a Inteligência Artificial e a Inclusão como campos inter-relacionados. Seria insuficiente pensar IA como distinta dos humanos, de pessoas separadas que podem ou não ser bem sucedidas em tornar a IA “inclusiva”. Opostamente, Shah propõe a ideia de “inteligência inclusiva” que considera pesquisa sobre IA e políticas de inclusão de maneira integrada.

10 questões centrais para Inteligência Artificial e Desenvolvimento Econômico Inclusivo, por Felipe Estefan (Omidyar Network).

Para além das fundações conceituais, Felipe Estefan, que gerencia os investimentos para a América Latina na Governance & Citizen Engagement Initiative da Omidyar Network, delineou uma lista com os principais 10 pontos que estão em discussão pelas comunidades de pesquisa e setor privado.

Felipe Estefan, da Omidyar Network

1. Não devemos equiparar a facilidade de fazer negócios trazida pela inovação tecnológica às práticas inclusivas de desenvolvimento econômico.

2. O impacto econômico das revoluções de dados e da Inteligência Artificial não é igualmente distribuído por padrão. Devemos trabalhar para abordar essas desigualdades.

3. As maiores oportunidades econômicas do futuro requerem não apenas uma melhora do passado, mas sua total redefinição. IA não é somente sobre uma otimização do que fazíamos no passado, mas sobre repensar o que mais podemos fazer no futuro.

4. Se opusermos os fatores impulsionadores da IA contra quem mais se beneficiaria com eles, faremos isso em detrimento da maior parte da sociedade. Como podemos mudar os incentivos para evitar isso?

5. As estruturas de governança de dados atuais beneficiam aqueles que estão no poder. São aqueles com recursos e habilidade para alavancar IA e dados que são os mais prováveis de se beneficiar com os resultados positivos dessas inovações. Como podemos introduzir considerações éticas e melhor governança da IA e de algoritmos a fim de eliminar consequências negativas e pré-conceito?

6. O futuro do trabalho precisa ser mais inclusivo e apresentar mais oportunidades do que hoje. Enquanto uma grande parte da população sentir que as oportunidades e tecnologias do futuro estão além de seu alcance, nós teremos falhado na concretização do potencial completo dessas inovações.

7. Se a IA exacerbar em vez de minimizar as inequidades existentes na sociedade hoje, os resultados poderão ser catastróficos. Como podemos adotar uma abordagem proativa para garantir que a IA funcione para o bem público?

8. Vivemos em um tempo em que as falhas de líderes políticos impopulares e ineficientes afetam as pessoas, fazendo com que questionem processos maiores e instituições que protegem os valores de boa governança e igualdade. Como aplicar IA de forma ética na qual auxilie a reconstruir a confiança estre os cidadãos e as instituições democráticas?

9. Um futuro no qual a IA seja aplicada eticamente requer colaboração entre setores e grupos interessados. Como tal, como podemos desenhar estratégias de forma ativa e colaborativa para aplicações de IA que visem benefícios maiores para a sociedade?

10. Se quisermos garantir que a IA não exacerbe os desequilíbrios de poder existentes, é necessário torná-la mais acessível. Como podemos redefinir a história da IA? Como podemos desmistificar IA para reestruturar assimetrias de poder?

Pesquisa e pontos de ação

Foram discutidas muitas ideias de ações e pesquisa para tratar desses desafios e oportunidades. Uma ideia central é a de que precisamos democratizar o acesso aos repositórios de dados existentes e criar novos conjuntos de dados abertos. Mark Surman, diretor executive da Mozilla Foundation — a instituição de filantropia dedicada à saúde da internet — comparou o cenário tecnológico atual a uma forma de “colonialismo” em que um número pequeno de empresas utilizam IA para extrair enormes quantidades de dados pessoais da população em geral.

Mozilla e o movimento pela internet aberta estão tentando derrubar esse colonialismo e tornar a web um recurso compartilhado. Mas não é tão simples como colocar um software de IA em domínio público, porque na maioria das vezes são os conjuntos de dados e não o software que dão tanta capacidade a estas pequenas e poderosas companhias. E esses conjuntos de dados são frequentemente privados. “Nós não temos os conjuntos de dados nem a infraestrutura desses”, disse Surman. “Precisamos de experimentos em “data commons” e cooperação de dados”. Uma iniciativa existente nesse sentido é o projeto Common Voice da Mozilla, um esforço para construir conjuntos de dados de voz abertos para uso em sistemas de reconhecimento vocálico.

Talvez ainda mais importante: novas e melhores fontes de dados são necessárias, particularmente em economias emergentes, afirmou Nagla Rizk, professora de Economia e diretora da Access to Knowledge for Development Center (A2K4D) na Universidade do Cairo. No simpósio, ela argumentou que em diversas partes do mundo os dados disponibilizados por agências do governo é frequentemente gerado e publicado para fins políticos específicos. Financiadores e acadêmicos devem se focar no “conceito de desenvolver dados por si, de baixo para cima”, comentou. “Os dados devem ser precisos e apresentados pelo que são. E se isso puder ser oferecido de forma aberta, poderá ser utilizado por e para o benefício de todos.”

Parte da solução pode ser o rascunho de objetivos de espírito público para o desenvolvimento da IA e a adoção de um enquadramento positivo para o potencial da tecnologia. Arisma Ema, professora assistente da Komaba Organization for Educational Excellence University em Tóquio, trouxe essa perspectiva mais otimista do Japão, uma nação desenvolvida com forte cultura de desenvolvimento de robótica. A Japanese Society for Artificial Intelligence delineou diretrizes éticas focadas na igualdade e na proposição de resultados benéficos para a sociedade pela IA, cumprindo com leis e regulações e a promoção da paz e da segurança. Ela argumentou que abordagens éticas para o desenvolvimento e uso da IA podem emergir de baixo para cima e de maneira colaborativa.

Além disso, alguns palestrantes consideraram importante ser inclusivo desde o momento da adoção de novas leis e regulações sobre IA. Há três anos atrás era assinado pela presidenta Dilma Rousseff o Marco Civil da Internet, uma lei para proteger os direitos e liberdades na era digital. A lei foi uma criação de Ronaldo Lemos e outros colaboradores. O Marco Civil “pode ser uma boa inspiração para [regular] inteligência artificial especialmente porque o processo no qual foi instado foi colaborativo. Essa é a melhor forma de construir políticas públicas sobre tecnologia, quando todos os setores na sociedade tem uma participação efetiva no resultado da regulação”, disse Lemos.

Construindo a comunidade de desenvolvedores e endereçando a lacuna de financiamento

O problema não é só a tecnologia ou o acesso a essa tecnologia. Os participantes também discutiram a necessidade de melhorar a educação de diversas formas para provisionar novas turmas de desenvolvedores de IA que sejam diversos, experientes tecnicamente e conscientes das necessidades locais. Por exemplo, Kathleen Siminyu, cientista de dados na Africa’s Talking, uma empresa queniana que oferece APIs na web para que desenvolvedores acessem funções de telecomunicações, explicou que meninas no Quênia são comumente direcionadas a buscarem educação superior em Letras e não em Engenharia e, frequentemente, passam o Ensino Médio sem aulas de Física ou de qualquer outro pré-requisito para ingressar em cursos de engenharia.

Uma vez na universidade, os estudantes precisam de melhor treinamento no sentido ético dos campos técnicos, explicou Victor Akinwande, engenheiro de software na IBM Research em Ruanda. Ao passo que cientistas computacionais tentar a olhar “pré-conceito” como uma questão de precisão que precisa ser solucionado, cientistas sociais observam isso como uma ideia mais complexa que envolve várias peças em constante mudança; esse entendimento mais robusto acerca do “pré-conceito” é necessário em currículos de engenharia a nível universitário, afirmou. Quando engenheiros se graduam, será necessário financiamento para ajuda-los a desenvolver efetivamente soluções locais. Siminyu contou a história de uma colega que está trabalhando com programas de processamento de linguagem natural em Swahili, língua falada por pelo menos 50 milhões de pessoas pelo mundo e é a língua oficial na Tanzânia, Quênia e República Democrática do Congo. Siminyu afirmou que apesar da importância óbvia do Swahili, sua colega não consegue avançar no projeto por falta de financiamento.

Chinmayi Arun, diretora de pesquisa do Center for Communication Governance e professora assistente de Direito na National Law University em Nova Deli, afirmou que a única forma de resolver de maneira efetiva problemas relacionados a IA e inclusão em países em desenvolvimento é construir expertise e capacidade locais. “Trabalhamos assim para antes para o contexto da governança da Internet”, ela disse. “Quando financiamos centros de pesquisa no Sul Global, não estamos só fazendo a expertise aumentar, mas também ajudando a região a construir algo que seja consistente com seu ponto de vista.”

Próximos passos

Conforme o término do simpósio, os participantes foram encorajados a identificar próximos passo factíveis. Pequenos grupos — com aproximadamente 10 participantes que se encontraram todos os dias do evento para curtas discussões — ressaltaram a necessidade de se mapear conferências e atores chave relacionados à IA e inclusão, particularmente aqueles do Sul Global. O simpósio produziu um rico conjunto de perguntas de pesquisa e pontos de ação que expandem redes já existentes e inspiram novas colaborações. Urs Gasser, diretor executivo do Berkman Klein Center que co-liderou o time internacional que organizou o evento, pontou quatro questões-chave: (1) Como incorporamos as perspectivas daqueles que não podem participar do desenvolvimento e debate sobre IA? (2) Quais são os mecanismos de monitoramento apropriados e como podem ser implementados para empoderar pessoas ao redor do mundo? (3) Em que medida devemos buscar soluções técnicas para problemas sociais? (4) Quando pensamos inclusão, devemos priorizar uma abordagem individual ou sistêmica? Gasser já escreveu sobre o papel do Direito e sua relação com IA.

O Simpósio Global sobre IA e Inclusão demonstrou um forte interesse em identificar e engajar mais criticamente com esses assuntos pelo mundo. Como apontado por diversos participantes, será necessário construir um dinamismo a partir das redes formadas nesse evento e buscar caminhos para progredir sobre as maiores perguntas de pesquisa e pontos de ação discutidos. As ideias e insights do simpósio irão alimentar um plano de ação da NoC, a qual é composta por mais de 80 organizações pelo mundo. Ademais, diferentes instituições que participaram do simpósio irão co-organizar outro simpósio em Janeiro focando primariamente em como jovens interagem com e são impactados pela IA em áreas como educação, saúde e bem-estar, entretenimento e o futuro do trabalho.

Esse relatório traz um vislumbre do evento no Rio e uma amostra dos temas debatidos. Materiais adicionais sobre os tópicos podem ser encontrados nos links abaixo:

Artigo criado a partir de conteúdo original publicado pelo Berkman Klein Center da Universidade de Harvard.


Inteligência Artificial: construindo uma agenda para garantir impactos positivos was originally published in ITS FEED on Medium, where people are continuing the conversation by highlighting and responding to this story.

Recommended Posts