Inteligência Artificial: construindo uma agenda para garantir impactos positivos

Artigo original: David Talbot, Levin Kim, Elena Goldstein, Jenna Sherman | Adaptação: Victor Vicente | Tradução: Debora Albu | Fotos: Bruno de Castro

O Berkman Klein Center da Universidade de Harvard, o Instituto de Tecnologia e Sociedade (ITS Rio) e o Museu do Amanhã realizaram o simpósio internacional “Inteligência Artificial e Inclusão” com o objetivo de instrumentalizar participantes e explorar ideias para democratização dos dados e inclusão na era da Inteligência Artificial (IA).

Tecnologias baseadas em inteligência artificial e os enormes bancos de dados que as alimentam estão reconfigurando todos os setores da sociedade. Nossas vidas já são transformadas diariamente por esses sistemas, seja quando acessamos mídias sociais, pesquisamos preços ou realizamos uma busca simples em serviços como o Google. Todas essas experiências são filtradas e personalizadas para nós com uso da inteligência artificial. Por isso, uma das principais preocupações acerca dessa realidade diz respeito ao fato de que tais tecnologias ainda permanecem, via de regra, em posse das grandes empresas e das potências econômicas, como China e Estados Unidos.

Como é possível democratizar não apenas o acesso às plataformas baseadas em inteligência artificial, mas também às ferramentas para criá-las? No início de novembro de 2017, o Instituto de Tecnologia e Sociedade do Rio de Janeiro, o Berkman Klein Center for Internet & Society da Harvard University e o Museu do Amanhã organizaram um simpósio internacional de três dias no Brasil, em nome do grupo global de centros de pesquisa sobre a Internet, Global Network of Internet & Society Centers (NoC), para construir uma agenda positiva para a inteligência artificial e inclusão.

O simpósio reuniu representantes da academia, grupos de advocacy e filantropia, mídia, políticas públicas e indústria de mais de 20 países. Juntos, os participantes enfrentaram o desafio de identificar e implementar estratégias para tornar a inteligência artificial mais inclusiva. Mais de 170 pessoas de todos os continentes do mundo se reuniram no Museu do Amanhã com o objetivo de colaborar e identificar perguntas de pesquisa, bem como pontos de ação. Ao longo dos três dias, os participantes mapearam estratégias para:

  1. delinear estruturas regulatórias e de direitos humanos para a tecnologia;
  2. definir formas de democratizar o acesso à informação e aos dados;
  3. auditar algoritmos e avaliar seus efeitos;
  4. construir comprometimento para o design e implementação de uma inteligência artificial que incorpore as perspectivas de grupos tradicionalmente marginalizados e sub-representados, incluindo comunidades urbanas e rurais de baixa renda, mulheres, juventudes, pessoas LGBTQ, grupos étnicos e raciais marginalizados e pessoas com deficiências.
Carlos Affonso, diretor do ITS Rio.

Espera-se que esse trabalho ajude a garantir que grupos marginalizados e pessoas residentes em países de economias emergentes não sejam relegados a papeis passivos, mas sim que influenciem ativamente o desenvolvimento da Inteligência Artificial. “É fácil enxergar os desafios e não as oportunidades”, disse Carlos Affonso Souza, professor da Universidade do Estado do Rio de Janeiro e um dos diretores do ITS Rio, “mas queremos que países de economias emergentes se tornem protagonistas na geração e no desenvolvimento de tecnologias e de Inteligência Artificial.”

Os participantes do simpósio receberam uma missão diferente a cada dia para a criação de uma agenda que favoreça impactos positivos da inteligência artificial ao redor do mundo:

1º dia: construir um entendimento comum sobre os conceito complexos de inteligência artificial, inclusão e suas interseções;

2º dia: identificar oportunidades, desafios e soluções;

3º dia: traduzir os debates dos dias anteriores e iniciar a construção de um plano de ação.

Também foram facilitadas discussões voltadas para temas específicos como direito e governança, design, dados e infraestrutura e modelos de negócio. Apesar de a maior parte do evento ter sido direcionada para participantes de todo o mundo e conduzida em inglês, o simpósio incluiu uma sessão pública com a presença de mais de 400 pessoas, na qual diferentes tópicos foram debatidos em inglês e português.

Um tema comum durante os três dias foi a importância de incluir vozes e perspectivas de comunidades marginalizadas, como jovens, etnias e raças diversas, LGBTQ e pessoas de menores níveis educacionais formais. Participantes que contribuíram com informações para a pesquisa visual realizada também sugeriram que um dos maiores objetivos deveria ser o estabelecimento de relações de colaboração globais profundas. “Existe uma grande carência de colaborações entre alguns países do hemisfério norte e sul”, coloca Laura Nathalie Hernandez, doutoranda em El Salvador. Ela afirma que em seu país os desafios e as oportunidades da Inteligência Artificial e seus efeitos sociais não são bem analisados e vistos de viagem são caros e de difícil obtenção por salvadorenhos.

O evento foi apoiado pelo Ethics and Governance of Artificial Intelligence Fund, pelo International Development Research Center (IDRC) e pela Open Society Foundations, em colaboração com o Museu do Amanhã no Rio de Janeiro, que funcionou como a sede do evento, trazendo sua estrutura neofuturista — construído em um píer que adentra pela Baía de Guanabara antes das Olimpíadas de 2016 — para o debate. A cidade do Rio de Janeiro foi em si um ponto de discussão para o futuro da Inteligência Artificial, explicitando as lacunas físicas e digitais de “uma cidade em que riquezas exorbitantes e miséria coexistem há bastante tempo”.

História e Desafios da Inteligência Artificial

No início do evento, Ansaf Salleb-Aouissi, professora em Ciência da Computação na Universidade de Columbia, apresentou uma breve história sobre Inteligência Artificial e Machine Learning e mencionou suas maiores aplicações: mecanismos de recomendação para mídias sociais e publicidade; reconhecimento e detecção facial; reconhecimento de discurso (A Inteligência Artificial também é usada para alimentar ferramentas de análise de risco em bancos, empresas de seguro e até em cortes criminais para auxiliar decisões sobre pagamento de fianças, condicionais e sentenças). Em “machine learning”, computadores conseguem aprender por experiência e com a adição de mais dados. Todavia, os conjuntos de dados que embasam esse aprendizado são produtos de decisões e curadoria humanas e podem incluir preconceitos humanos que irão aparecer mais tarde nos resultados. A professora também delineou um guia com as principais abordagens para tornar a IA mais “inclusiva”:

Desenvolver — empoderar indivíduos com educação sobre IA;

Decifrar — explicar IA por meio de modelos fáceis de entender;

Desidentificar — garantir que os dados sejam usados de forma a proteger a privacidade das pessoas (incluindo em categorias como raça);

Desenviezar — trabalhar para garantir justiça, equidade e imparcialidade nos processos e evitar discriminação digital.

Além dela, outros participantes apresentaram exemplos nos quais a Inteligência Artificial e algoritmos explicitaram preconceitos e iniquidades óbvias. Lucas Santana, analista de marketing digital e diretor da Desabafo Social, ONG de Salvador que promove o avanço da educação em direitos humanos, descreveu como uma simples busca no banco de imagens Shutterstock com termo “bebê” praticamente exclui qualquer bebê negro. Esses resultados são um reflexo incorreto da realidade social em países como o Brasil, onde 64% da população é negra. Problemas do tipo são encontrados em algoritmos de busca de forma geral: eles refletem a sobrerrepresentação das perspectivas brancas, ocidentais e ricas dos criadores de conteúdo, grupo que em geral também decide como images ou vídeos são identificados (com palavras) para a detecção posterior de ferramentas de busca.

Esse e outros exemplos mostram como preconceitos estão enraizados nos sistemas que alimentam nosso discurso online, nas buscas, recomendações e publicidade. Mas durante o evento, Alison Gillwald, diretora executiva do Research ICT Africa disse que esses problemas não são uma surpresa: “é como se pensássemos que a Internet não seria afetada por todos os preconceitos e dificuldades que existem no offline”. Cabe então propor mecanismos que deem transparência às operações da inteligência artificial e implementar mecanismos que garantam equidade e justiça, afinal, dada a escala e a velocidade do progresso tecnológico, a inteligência artificial pode não apenas ser um reflexo, mas também exacerbar desigualdades estruturais que existem global e localmente.

Enquadramento Teórico e principais questões

Um dos alicerces em busca de uma agenda positiva para Inteligência Artificial e Inclusão veio da construção de bases conceituais comuns aos participantes, bases que pudessem aproximar pesquisas e estratégias de melhoria, ao menos, próximas, para que houvesse construções coletivas de soluções. Nishant Shah, professor da Leuphana University em Lüneburg, Alemanha, e co-fundador e diretor de pesquisa do Center for Internet and Society em Bangalore, Índia, apresentou uma forma de abordar o tema geral. Sua apresentação teve início com uma imagem de uma camiseta comercializada pela Amazon em que se lia “Keep Calm and Rape a Lot” (em tradução seria “Fique Calmo e Estupre Muito).

O evento incluiu a discussão de abordagens teóricas para auxiliar a comunidade de pesquisa para pensar os problemas relacionados a Inteligência Artificial e Inclusão. Nishant Shah, professor da Leuphana University em Lüneburg, Alemanha, e co-fundador e diretor de pesquisa do Center for Internet and Society em Bangalore, Índia, apresentou uma forma de abordar o tema geral. Sua apresentação teve início com uma imagem de uma camiseta comercializada pela Amazon em que se lia “Keep Calm and Rape a Lot” (em tradução seria “Fique Calmo e Estupre Muito).

A camiseta de caráter alarmantemente ofensivo foi inteiramente criada por um algoritmo configurado para adicionar verbos ao mote “Keep Calm and Carry On” (de um pôster britânico do tempo de guerra) e ofertar o produto para venda sem qualquer tipo de envolvimento humano. A pessoa que vendia as camisetas não intencionava ser misógina nem desenhou o algoritmo de forma consciente para produzir algo tão ofensivo. Claramente, a Amazon não fez um bom trabalho ao desenhar e monitorar seus sistemas — mas, como pontuou Shah, o problema está mais fundamentalmente enraizado em interações híbridas entre humano e máquina. Considerando essa ideia, Shah incitou acadêmicos a considerarem a Inteligência Artificial e a Inclusão como campos inter-relacionados. Seria insuficiente pensar IA como distinta dos humanos, de pessoas separadas que podem ou não ser bem sucedidas em tornar a IA “inclusiva”. Opostamente, Shah propõe a ideia de “inteligência inclusiva” que considera pesquisa sobre IA e políticas de inclusão de maneira integrada.

10 questões centrais para Inteligência Artificial e Desenvolvimento Econômico Inclusivo, por Felipe Estefan (Omidyar Network).

Para além das fundações conceituais, Felipe Estefan, que gerencia os investimentos para a América Latina na Governance & Citizen Engagement Initiative da Omidyar Network, delineou uma lista com os principais 10 pontos que estão em discussão pelas comunidades de pesquisa e setor privado.

Felipe Estefan, da Omidyar Network

1. Não devemos equiparar a facilidade de fazer negócios trazida pela inovação tecnológica às práticas inclusivas de desenvolvimento econômico.

2. O impacto econômico das revoluções de dados e da Inteligência Artificial não é igualmente distribuído por padrão. Devemos trabalhar para abordar essas desigualdades.

3. As maiores oportunidades econômicas do futuro requerem não apenas uma melhora do passado, mas sua total redefinição. IA não é somente sobre uma otimização do que fazíamos no passado, mas sobre repensar o que mais podemos fazer no futuro.

4. Se opusermos os fatores impulsionadores da IA contra quem mais se beneficiaria com eles, faremos isso em detrimento da maior parte da sociedade. Como podemos mudar os incentivos para evitar isso?

5. As estruturas de governança de dados atuais beneficiam aqueles que estão no poder. São aqueles com recursos e habilidade para alavancar IA e dados que são os mais prováveis de se beneficiar com os resultados positivos dessas inovações. Como podemos introduzir considerações éticas e melhor governança da IA e de algoritmos a fim de eliminar consequências negativas e pré-conceito?

6. O futuro do trabalho precisa ser mais inclusivo e apresentar mais oportunidades do que hoje. Enquanto uma grande parte da população sentir que as oportunidades e tecnologias do futuro estão além de seu alcance, nós teremos falhado na concretização do potencial completo dessas inovações.

7. Se a IA exacerbar em vez de minimizar as inequidades existentes na sociedade hoje, os resultados poderão ser catastróficos. Como podemos adotar uma abordagem proativa para garantir que a IA funcione para o bem público?

8. Vivemos em um tempo em que as falhas de líderes políticos impopulares e ineficientes afetam as pessoas, fazendo com que questionem processos maiores e instituições que protegem os valores de boa governança e igualdade. Como aplicar IA de forma ética na qual auxilie a reconstruir a confiança estre os cidadãos e as instituições democráticas?

9. Um futuro no qual a IA seja aplicada eticamente requer colaboração entre setores e grupos interessados. Como tal, como podemos desenhar estratégias de forma ativa e colaborativa para aplicações de IA que visem benefícios maiores para a sociedade?

10. Se quisermos garantir que a IA não exacerbe os desequilíbrios de poder existentes, é necessário torná-la mais acessível. Como podemos redefinir a história da IA? Como podemos desmistificar IA para reestruturar assimetrias de poder?

Pesquisa e pontos de ação

Foram discutidas muitas ideias de ações e pesquisa para tratar desses desafios e oportunidades. Uma ideia central é a de que precisamos democratizar o acesso aos repositórios de dados existentes e criar novos conjuntos de dados abertos. Mark Surman, diretor executive da Mozilla Foundation — a instituição de filantropia dedicada à saúde da internet — comparou o cenário tecnológico atual a uma forma de “colonialismo” em que um número pequeno de empresas utilizam IA para extrair enormes quantidades de dados pessoais da população em geral.

Mozilla e o movimento pela internet aberta estão tentando derrubar esse colonialismo e tornar a web um recurso compartilhado. Mas não é tão simples como colocar um software de IA em domínio público, porque na maioria das vezes são os conjuntos de dados e não o software que dão tanta capacidade a estas pequenas e poderosas companhias. E esses conjuntos de dados são frequentemente privados. “Nós não temos os conjuntos de dados nem a infraestrutura desses”, disse Surman. “Precisamos de experimentos em “data commons” e cooperação de dados”. Uma iniciativa existente nesse sentido é o projeto Common Voice da Mozilla, um esforço para construir conjuntos de dados de voz abertos para uso em sistemas de reconhecimento vocálico.

Talvez ainda mais importante: novas e melhores fontes de dados são necessárias, particularmente em economias emergentes, afirmou Nagla Rizk, professora de Economia e diretora da Access to Knowledge for Development Center (A2K4D) na Universidade do Cairo. No simpósio, ela argumentou que em diversas partes do mundo os dados disponibilizados por agências do governo é frequentemente gerado e publicado para fins políticos específicos. Financiadores e acadêmicos devem se focar no “conceito de desenvolver dados por si, de baixo para cima”, comentou. “Os dados devem ser precisos e apresentados pelo que são. E se isso puder ser oferecido de forma aberta, poderá ser utilizado por e para o benefício de todos.”

Parte da solução pode ser o rascunho de objetivos de espírito público para o desenvolvimento da IA e a adoção de um enquadramento positivo para o potencial da tecnologia. Arisma Ema, professora assistente da Komaba Organization for Educational Excellence University em Tóquio, trouxe essa perspectiva mais otimista do Japão, uma nação desenvolvida com forte cultura de desenvolvimento de robótica. A Japanese Society for Artificial Intelligence delineou diretrizes éticas focadas na igualdade e na proposição de resultados benéficos para a sociedade pela IA, cumprindo com leis e regulações e a promoção da paz e da segurança. Ela argumentou que abordagens éticas para o desenvolvimento e uso da IA podem emergir de baixo para cima e de maneira colaborativa.

Além disso, alguns palestrantes consideraram importante ser inclusivo desde o momento da adoção de novas leis e regulações sobre IA. Há três anos atrás era assinado pela presidenta Dilma Rousseff o Marco Civil da Internet, uma lei para proteger os direitos e liberdades na era digital. A lei foi uma criação de Ronaldo Lemos e outros colaboradores. O Marco Civil “pode ser uma boa inspiração para [regular] inteligência artificial especialmente porque o processo no qual foi instado foi colaborativo. Essa é a melhor forma de construir políticas públicas sobre tecnologia, quando todos os setores na sociedade tem uma participação efetiva no resultado da regulação”, disse Lemos.

Construindo a comunidade de desenvolvedores e endereçando a lacuna de financiamento

O problema não é só a tecnologia ou o acesso a essa tecnologia. Os participantes também discutiram a necessidade de melhorar a educação de diversas formas para provisionar novas turmas de desenvolvedores de IA que sejam diversos, experientes tecnicamente e conscientes das necessidades locais. Por exemplo, Kathleen Siminyu, cientista de dados na Africa’s Talking, uma empresa queniana que oferece APIs na web para que desenvolvedores acessem funções de telecomunicações, explicou que meninas no Quênia são comumente direcionadas a buscarem educação superior em Letras e não em Engenharia e, frequentemente, passam o Ensino Médio sem aulas de Física ou de qualquer outro pré-requisito para ingressar em cursos de engenharia.

Uma vez na universidade, os estudantes precisam de melhor treinamento no sentido ético dos campos técnicos, explicou Victor Akinwande, engenheiro de software na IBM Research em Ruanda. Ao passo que cientistas computacionais tentar a olhar “pré-conceito” como uma questão de precisão que precisa ser solucionado, cientistas sociais observam isso como uma ideia mais complexa que envolve várias peças em constante mudança; esse entendimento mais robusto acerca do “pré-conceito” é necessário em currículos de engenharia a nível universitário, afirmou. Quando engenheiros se graduam, será necessário financiamento para ajuda-los a desenvolver efetivamente soluções locais. Siminyu contou a história de uma colega que está trabalhando com programas de processamento de linguagem natural em Swahili, língua falada por pelo menos 50 milhões de pessoas pelo mundo e é a língua oficial na Tanzânia, Quênia e República Democrática do Congo. Siminyu afirmou que apesar da importância óbvia do Swahili, sua colega não consegue avançar no projeto por falta de financiamento.

Chinmayi Arun, diretora de pesquisa do Center for Communication Governance e professora assistente de Direito na National Law University em Nova Deli, afirmou que a única forma de resolver de maneira efetiva problemas relacionados a IA e inclusão em países em desenvolvimento é construir expertise e capacidade locais. “Trabalhamos assim para antes para o contexto da governança da Internet”, ela disse. “Quando financiamos centros de pesquisa no Sul Global, não estamos só fazendo a expertise aumentar, mas também ajudando a região a construir algo que seja consistente com seu ponto de vista.”

Próximos passos

Conforme o término do simpósio, os participantes foram encorajados a identificar próximos passo factíveis. Pequenos grupos — com aproximadamente 10 participantes que se encontraram todos os dias do evento para curtas discussões — ressaltaram a necessidade de se mapear conferências e atores chave relacionados à IA e inclusão, particularmente aqueles do Sul Global. O simpósio produziu um rico conjunto de perguntas de pesquisa e pontos de ação que expandem redes já existentes e inspiram novas colaborações. Urs Gasser, diretor executivo do Berkman Klein Center que co-liderou o time internacional que organizou o evento, pontou quatro questões-chave: (1) Como incorporamos as perspectivas daqueles que não podem participar do desenvolvimento e debate sobre IA? (2) Quais são os mecanismos de monitoramento apropriados e como podem ser implementados para empoderar pessoas ao redor do mundo? (3) Em que medida devemos buscar soluções técnicas para problemas sociais? (4) Quando pensamos inclusão, devemos priorizar uma abordagem individual ou sistêmica? Gasser já escreveu sobre o papel do Direito e sua relação com IA.

O Simpósio Global sobre IA e Inclusão demonstrou um forte interesse em identificar e engajar mais criticamente com esses assuntos pelo mundo. Como apontado por diversos participantes, será necessário construir um dinamismo a partir das redes formadas nesse evento e buscar caminhos para progredir sobre as maiores perguntas de pesquisa e pontos de ação discutidos. As ideias e insights do simpósio irão alimentar um plano de ação da NoC, a qual é composta por mais de 80 organizações pelo mundo. Ademais, diferentes instituições que participaram do simpósio irão co-organizar outro simpósio em Janeiro focando primariamente em como jovens interagem com e são impactados pela IA em áreas como educação, saúde e bem-estar, entretenimento e o futuro do trabalho.

Esse relatório traz um vislumbre do evento no Rio e uma amostra dos temas debatidos. Materiais adicionais sobre os tópicos podem ser encontrados nos links abaixo:

Artigo criado a partir de conteúdo original publicado pelo Berkman Klein Center da Universidade de Harvard.


Inteligência Artificial: construindo uma agenda para garantir impactos positivos was originally published in ITS FEED on Medium, where people are continuing the conversation by highlighting and responding to this story.

Blockchain e identidades digitais: caminhos para uma nova democracia

2018 é o ano das identidades digitais. O modelo de identidade que tivemos até hoje, com instituições do Estado centralizando as informações pessoais dos cidadãos, tende a se enfraquecer enquanto a confiança nestas instituições diminui. Por outro lado, é impossível pensar democracias sem que se possa confiar na identidade dos agentes que influenciam, através da sua participação, o sistema político. Até o momento, o que se conseguiu com instrumentos de participação digital (e-participação, e-democracia) foi mimetizar pequenas ações do mundo físico para o mundo digital, sempre dependendo de instituições intermediadoras (elos entre o físico e o digital) para validar essas ações.

A Política, com P maiúsculo, ainda não conseguiu ser totalmente digitalizada e descentralizada por ainda não ter conseguido reproduzir as constituições de identidades do mundo físico para o mundo digital e, por meio delas, a expressão da vontade dos indivíduos de forma soberana. Pensar identidades digitais é um pré-requisito para se pensar a democracia digital, um dos últimos desafios da digitalização nas civilizações modernas. Países como a Estônia já entenderam isso e o modelo de Estado como serviço implementado por lá só está sendo possível pois se está apostando em construir modelos de identidade digital resilientes orientados no sentido dos usuários para o Estado.

Identidades digitais soberanas

Certificados de identidade para pessoas, organizações, endereços na internet, chaves gpg e afins são ferramentas de representação de identidades do mundo físico no mundo digital. Ainda que esses serviços soem revolucionários, todas as ferramentas listadas ainda dependem de um intermediário que atribui confiança ao certificado usado por um indivíduo, declarando-o válido perante outros agentes que confiam no certificador. A atribuição de confiança tampouco é gratuita, uma vez que estas certificadoras cobram caro para emitir certificados (a exceção seriam chaves gpg ou outras certificações autogeradas por usuários). Porém, para que uma chave autogerada seja aceita, é imprescindível estabelecer um acordo prévio com cada entidade que se relaciona com o indivíduo ou computador. Na prática, isso quer dizer que o certificado ainda precisa ser gerado por certificadora reconhecida mundialmente, ou ele não será amplamente aceito. Atualmente, existem em torno de 80 organizações no mundo que controlam a emissão desses certificados.

Já existem algumas iniciativas que constroem identidades totalmente digitais para se conectar a identidades físicas por meio de dados biométricos dos usuários. Desde 2008, o Tribunal Superior Eleitoral do Brasil identifica eleitores por meio do cadastro biométrico de impressões digitais, o que pretende restringir fraudes do uso da identidade por terceiros, pois somente a presença física da impressão digital legitimaria o voto. O governo do Rio Grande do Sul criou o Login Cidadão para facilitar o acesso dos gaúchos a serviços públicos que hoje possui mais de 260 mil cidadãos na plataforma. Empresas de tecnologia também seguiram um caminho parecido quando passaram a incluir em alguns smartphones os leitores de impressão digital. Recentemente, a Apple lançou o recurso Face ID, que verifica a identidade dos seus usuários por meio de leitura facial. Essas iniciativas são importantes para integrar recursos tecnológicos na verificação da identidade de usuários, mas ainda estão centralizadas em empresas ou órgãos públicos que são os únicos depositários dessas informações.

Como pensar então em um modelo de identidade digital que não dependa de um órgão centralizador fiel depositário das informações identitárias? A resposta está na construção de redes distribuídas de confiança. Redes que possam validar, de maneira completa ou parcial, as informações produzidas por indivíduos em meios físicos e digitais. Como no mundo físico, no qual as informações das interações humanas estão espalhadas na memória das pessoas que interagiram com o indivíduo, ter dados das interações digitais espalhados por diferentes agentes computacionais é a maneira mais segura de garantir soberania sobre a identidade digital. Certificados digitais ou dados biométricos coletados por softwares são formas de prova de identidade, que, se avalizadas por diferentes nós dentro do círculo de interações intersubjetivas, podem contribuir com a formação de identidades digitais soberanas, nas quais os indivíduos têm total controle sobre seus dados e esses são legitimados de forma distribuída pela rede de confiança.

Essa possível aplicação é altamente disruptiva para a democracia e o exercício do poder. Transferir para a individualidade o locus primário da soberania e do exercício de poder representa também a possibilidade de desconcentração do poder das instituições para os indivíduos. A transferência do exercício do poder para os indivíduos nesse formato seria a realização do que já está estabelecido no Art. 1º da Constituição da República Federativa do Brasil, que estabelece em seu parágrafo único: “Todo o poder emana do povo, que o exerce por meio de representantes eleitos ou diretamente”.

O exercício do poder através de identidades digitais soberanas também deve ser repensado para um modelo distribuído. A realização da soberania do povo em democracias se dá prioritariamente pelo voto, mas em um cenário de exercício distribuído de poder talvez o voto, como ele é conhecido hoje, não seja o melhor instrumento para materialização da vontade geral da população. O voto é um instrumento de participação para agregação de preferências. O exercício de forma individual e secreta, como se dá hoje, não passa da manifestação de uma vontade particular que, agregada, demonstra o desejo da vontade da maioria que, pelo contrato constitucional estabelecido na maioria das democracias, passa também a ser entendido como a vontade de todos.

Mudamos como identidade digital soberana

A arquitetura provada pelo Mudamos abre caminho para expansão do conceito e a criação de uma identidade soberana para o exercício cívico em manifestação da vontade política de cidadãos.

Quando um usuário se registra no aplicativo ele também está criando uma wallet, uma chave criptográfica pública que o identifica digitalmente. O Mudamos reconhece essa identidade a partir dos dados que o usuário fornece, como CPF, título de eleitor, nome e CEP. Ao assinar um projeto de lei no aplicativo, o usuário o faz através de uma chave que só poderia estar contida no seu celular. O conteúdo da assinatura, quanto submetido à API Blockchain Mudamos, é armazenado, com a origem desta assinatura, o celular e outros metadados que poderiam ser utilizados em um processo de auditoria caso fosse detectada uma fraude. No processo análogo em papel, qualquer tentativa de identificação da data, hora e local, ou mesmo da caneta que assinou o formulário, seria impossível, pois esses rastros não são registrados.

A diferença em se ter um processo digital no qual se consegue dar unicidade às ações dos usuários é que a interação destes usuários com a rede pode produzir informações que fortalecem a sua identidade digital. Isso quer dizer, quanto mais interações com diferentes aplicativos ou serviços, mais verossímil essa identidade digital se torna.

Não há dúvidas de que poderia haver um grave problema para a privacidade e gestão de dados pessoas dos usuários, mas a resolução deste problema está na forma com que esses dados são acessados. Uma identidade soberana presume que os usuários terão controle total sobre seus dados, logo, não pode haver um intermediário que detenha todos seus dados e valide sua veracidade a pedido de terceiros. Ilustremos com um exemplo do serviço de delivery, que necessita confirmar o endereço de uma pessoa. Suponha que este serviço de delivery tenha o mesmo mecanismo de autenticação utilizado pelo Mudamos, e que o serviço tenha uma chave pública compartilhada e uma chave privada que só o usuário tem em seu aplicativo. Caso o usuário detentor dessas informações queira autenticar seu endereço com o Mudamos, basta que ele declare o endereço ao Mudamos, assinando com sua chave privada e compartilhando a chave pública para essa verificação.

Se pensarmos essa lógica distribuída em diferentes agentes certificadores de informações que constituem identidades (serviço de delivery, informações médicas, ou Mudamos), não dependeríamos de agentes certificadores centrais para confirmar as nossas informações. As informações que constituem nossas identidades poderiam estar distribuídas e nós teríamos soberania para determinar quem poderia acessar essas informações porque quem guarda as chaves para acessá-las são os indivíduos. Ou seja, nenhum serviço seria capaz de acessar qualquer informação sem que o indivíduo opte por compartilhar as chaves que o autorizam a acessar e verificar essa informação.

Neste sentido, ao mesmo tempo em que o aplicativo Mudamos experimenta a utilização de chaves criptográficas para certificar assinaturas em projetos de lei, também se torna um aplicativo capaz de autenticar certas informações de identidade dos seus usuários. O Mudamos assim torna-se um nó de um modelo de identidade digital soberano e distribuído.

Recentemente, a equipe de desenvolvimento do Mudamos começou a experimentar um protocolo que permite que aplicativos terceiros validem informações utilizando as chaves disponibilizadas pelo Mudamos. Isso quer dizer que um aplicativo poderá assinar informações utilizando as chaves gestadas pelo Mudamos e as informações assinadas poderão ser validadas por algoritmos públicos de verificação. Com o teste deste protocolo, esperamos demonstrar a validade deste conceito e incentivar outras organizações a implementarem o mesmo mecanismo.

Algoritmos de consenso e a expressão da vontade geral

Os conceitos de vontade geral e vontade de todos foram construídos por Jean-Jacques Rousseau em sua obra mais conhecida: O Contrato Social. Nela, o autor diferencia a vontade geral da vontade de todos ao estabelecer que a generalização da vontade é menos o número de votos e mais o interesse comum que nos une em sociedade. Assim, o interesse comum contido na vontade geral não é o interesse de todos, no sentido de uma confluência dos interesses particulares, mas o interesse de todos e de cada um enquanto componentes do corpo coletivo e exclusivamente nesta qualidade.

Ao buscarmos a substituição da forma democrática que temos hoje simplesmente incluindo a possibilidade do uso de ferramentas digitais para o exercício do voto a distância para captar a vontade da maioria na definição das ações do Estado, isso construiria uma ditadura da maioria ao invés de promover a expansão da democracia. Nesse sentido, existe mais uma contribuição conceitual que a blockchain pode aportar neste debate.

Por muito tempo, o desafio em se constituir redes públicas e descentralizadas foi tentar construir algoritmos que pudessem definir regras de como são escritos os dados na rede, sem que para isso houvesse um agente central confiado pela rede para executar essa operação. Blockchains públicas implementaram um mecanismo popularmente conhecido como “mineração”, que estabelece uma prova de trabalho pelos nós da rede que estão atuando para validar os dados e produzir novos blocos de dados. O ato de minerar em uma rede pública de blockchain pode ser entendido analogamente como a concorrência de computadores para provarem uma forma de identidade da rede a partir do poder de processamento que estão dedicando a ela. A organização do ato de minerar é dada por outro algoritmo que é chamado de “algoritmo de consenso”.

Esse algoritmo organiza a concorrência entre os computadores da rede para definir de “forma democrática” quem será o próximo computador a escrever no banco de dados público. Esse algoritmo distribuí as chances de um computador escrever na rede com base no poder de processamento que cada computador dedica a rede. Isso quer dizer que qualquer computador que dedique processamento a rede, ou seja, contribua para o interesse comum da rede, tem chances de escrever no banco de dados público. O ato de escrever no banco de dados público alimenta o interesse particular de cada membro da rede que é o de ganhar a recompensa e as taxas de transação daqueles que usufruem da rede. Esta relação se demonstrou bastante construtiva na estruturação da rede por trás do Bitcoin. Porém, ela está muito calcada em trocas econômicas, o interesse comum em torno da rede é a estruturação de um ativo digital. Ainda é um desafio pensar em redes públicas de confiança baseadas em blockchain em que o interesse comum não se sustente tão somente nas trocas econômicas suportadas por essas redes.

Se pensarmos modelos de democracia que possam se espelhar nas redes públicas de blockchain para trocas econômicas, podemos vislumbrar o modelo de democracia com distribuição radical do poder em torno dos membros que compõem a rede. Na identidade digital, a prova para colaborar com o interesse comum seria a disposição da identidade associada a emanação de interesses particulares baseadas em preferências pessoais. A rede com base na disposição dos interesses particulares dos cidadãos trabalharia para a construção de consensos automatizados que perseguem sempre o interesse comum e não o interesse de maiorias formadas.

Uma democracia que se utilize de redes de blockchain para garantir o interesse comum seriam orientadas por algoritmos de consenso em torno da expressão individual de sujeitos que se fariam representar por identidades digitais validadas por redes distribuídas de confiança. Em escala humana, é impossível imaginar a obtenção de consensos entre 120 milhões de eleitores na democracia brasileira, mas com o apoio de algoritmos de consenso isso já não é impossível e pode transformar a política e a democracia. Com o apoio da tecnologia, poderíamos encontrar a verdadeira expressão do interesse comum, lastreadas pelo universo da população e à prova da apropriação do Estado por interesses particulares que desembocam em práticas de corrupção ou a manipulação do poder público para fins privados.

Para que estes conceitos se tornem realidade é importante investirmos em iniciativas que experimentem novas formas de identidade digital. Todos os setores da sociedade têm a ganhar com esse esforço, pois a identidade digital soberana elimina a burocracia, amplia a confiança nas transações, aproxima pessoas e instituições. A formação de novos grupos de pesquisa multissetoriais que invistam nessa temática é urgente para este ano que está nascendo. Em 2018, teremos as eleições mais disputadas da história concomitantes com a maior crise de confiança institucional da nossa democracia moderna. O ITS Rio está comprometido com o esforço de transformar essa realidade e por isso criou o Identity Hub (IH), um grupo de pesquisa multissetorial para canalizar as discussões no Brasil sobre o assunto. O objetivo do IH é transformar a identidade digital em uma questão de política pública, construindo uma agenda nessa área para que o Brasil possa liderar sobre esse tema**. Transformar completamente a democracia passa por repensar as bases em que ela está assentada e a tecnologia deverá ser uma variável importante nessa equação.

*Marco Konopacki é cientista político e coordenador da área de Democracia e Tecnologia do ITS Rio.

** Para se conectar ao Identity Hub envie um e-mail para identityhub@itsrio.org com o assunto INSCREVER.

Conecte-se conosco: Twitter | Facebook | Newsletter


Blockchain e identidades digitais: caminhos para uma nova democracia was originally published in ITS FEED on Medium, where people are continuing the conversation by highlighting and responding to this story.

Cuidado: querem botar as mãos nos seus bitcoins!

O protocolo Bitcoin surgiu em 2009 como uma proposta mais simples e mais barata para se enviar e receber valores entre quaisquer partes conectadas a sua rede. Parte significativa da elegância e da praticidade do sistema está justamente no fato de que você não precisa pedir permissão a alguém para fazer isso. Pode parecer trivial, uma simples evolução tecnológica como tantas outras, mas se trata de algo muito mais complexo.

Por muitos séculos, se pensarmos nos bancos, ou por milênios, se pensarmos nos governos, é nítido que certas instituições e empresas sempre estiveram sob controle disso tudo. Se enviar 50 dólares do Brasil ao Japão é um ato de bravura por parte de quem envia e um grande exercício de paciência para quem recebe, em boa medida isso se deve a dois fatores: burocracia e obsolescência tecnológica. Quanto aos fatores técnicos, é possível dizer de forma categórica que desde o lançamento e a consolidação do Bitcoin não se trata mais de um impeditivo para inúmeros casos de uso (como remessas internacionais). Embora, claro, o Bitcoin tenha muito a melhorar, na medida em que atualizações sejam lançadas e a adoção por novos usuários siga crescendo vertiginosamente.

Quanto à burocracia que ainda paira sobre as mais variadas formas tradicionais de pagamento, por que acreditar que, sob a bênção de uma anônima e enigmática figura (Satoshi Nakamoto), uma legião de geeks, libertários, startups, curiosos e usuários comuns conseguiria mudar o jogo tão facilmente? Afinal, se a burocracia é cara há alguém ganhando dinheiro com ela. E esses antigos incumbentes não necessariamente estão felizes com a situação. Ou, para ser mais claro: eles, definitivamente, não estão nada satisfeitos em ter que abrir mão da lucratividade de seus negócios ou do poder que adquiriram intermediando transações ou até mesmo a própria emissão do dinheiro que utilizamos rotineiramente.

Movimentos de combate à natureza colaborativa e descentralizada do Bitcoin têm vindo de todos os lados. Um encontro corporativo a portas fechadas alega ter celebrado o “Acordo de Nova York”, o qual selaria o interesse das partes interessadas em lançar no protocolo Bitcoin, uma atualização que faria com que a rede fosse capaz de processar mais transações. No entanto, embora soe interessante à primeira vista, uma parcela importante desse “acordo” não foi consultada: os usuários.

Existentes às dezenas de milhões hoje em todo o mundo e às centenas de milhares no Brasil, são eles os responsáveis pelo sucesso estrondoso e pela alta vertiginosa em preço que o Bitcoin testemunhou principalmente ao longo dos últimos 4 anos. E não um punhado de empresas ou meia dúzia de grandes mineradores, os quais, embora tenham imprescindível papel no ecossistema, na adoção e na segurança da tecnologia, não podem esquecer de atender aos anseios de quem é realmente soberano nessa história: “os clientes”, os usuários comuns. Estes sim os responsáveis pela descentralização e pela imutabilidade das transações em bitcoin que, afinal, são o grande motor de seu valor, combinadas aos menores custos e prazos, e ao fato de você não precisar fornecer dados pessoais para usar bitcoins. Afinal, o que às vezes vem fantasiado de inovação, pode na verdade ser um mecanismo de retirar dos usuários parte do controle e das atribuições que têm no protocolo. Não sendo motivo de espantos, isso guarda uma clara correlação com o aumento na lucratividade e no poder desses atores para os quais a descentralização e a natureza colaborativa da tecnologia parecem não contar tanto.

Somam-se às pressões corporativas o anseio autoritário ou mal informado de alguns agentes do Estado, também interessados em colocar suas mãos para coibir ou atravancar o avanço do Bitcoin. Afinal, embora tenha seus problemas, ele é imune a políticas monetárias ruins ou a confiscos. Nesse sentido, e isto não foi motivo de grande surpresa, o governo não democrático da China lançou inúmeras ações voltadas até mesmo à proibição de moedas digitais em seu território.

No estado norte-americano de Nova York, a famigerada BitLicense surgiu de forma aparentemente inocente, com o intuito de “regular” as empresas que atuam com Bitcoin na região, quando na verdade impôs uma série de restrições e altos custos. Por causa dela, pequenas startups passavam, ironicamente, a ter que se submeter à burocracia de um grande banco. Logo, a principal consequência dessa tentativa estapafúrdia de regulação foi fazer com que muitas das principais empresas do ramo atuantes nos EUA passassem a não mais oferecer seus serviços em Nova York. Em resumo: todos perderam.

E pior: pode ter gente querendo fazer parecido no Brasil, por isso é bom ficar atento. Informe-se e, se você é um entusiasta, saiba o que há em jogo. Querem botar as mãos nos seus bitcoins, por isso todo cuidado é pouco. Essa tecnologia é uma revolução em curso e cuidar dela é uma tarefa para cada um de nós.

*Gabriel Aleixo é pesquisador do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio).

Conecte-se conosco: Twitter | Facebook | Newsletter


Cuidado: querem botar as mãos nos seus bitcoins! was originally published in ITS FEED on Medium, where people are continuing the conversation by highlighting and responding to this story.

A transparência do voto eletrônico no Brasil

Após a introdução das urnas eletrônicas em 1996 e realização das primeiras eleições completamente eletrônicas no ano 2000, o Brasil permanece como o único país do mundo a adotar máquinas de votação puramente eletrônicas, sem possibilidade de recontagem ou verificação independente dos resultados, com severas limitações de transparência.

O cenário se torna mais crítico após observadas graves vulnerabilidades no sistema, com impacto no caráter secreto do voto e integridade dos resultados, consequência direta de processo inseguro de desenvolvimento de software, falta de treinamento formal da equipe responsável e ausência de auditoria externa. Há várias formas de se aprimorar o sistema atual, com variados ganhos em transparência e custos de implementação, mas antes de discuti-las é importante analisar, sob um ponto de vista crítico, o modelo atual de auditoria de software e dos resultados da eleição.

Modelo atual de auditoria

A resolução 23.458/2015 do Tribunal Superior Eleitoral (TSE) estabelece o modelo de fiscalização do sistema de votação antes das eleições. Determina que fiscais formalmente indicados por partidos políticos e Congresso Nacional, órgãos do Judiciário (Ordem dos Advogados do Brasil, Ministério Público, Supremo Tribunal Federal, Controladoria-Geral da União) e técnicos da Polícia Federal, Sociedade Brasileira de Computação, Conselho Federal de Engenharia e universidades > “possuem acesso antecipado aos programas de computador desenvolvidos pelo Tribunal Superior Eleitoral ou sob sua encomenda a serem utilizados nas eleições, para fins de fiscalização e auditoria, em ambiente específico e controlado pelo Tribunal Superior Eleitoral.”

Os programas incluem o software de votação, sistemas de preparação do equipamento e demais componentes de software que interagem, direta ou indiretamente, com as urnas eletrônicas e totalização dos seus resultados. Enquanto na teoria parece um mecanismo suficiente e adequado de auditoria, na prática o resultado é outro. Primeiramente, há um Termo de Confidencialidade mandatório que limita a atuação e divulgação das informações coletadas pelos fiscais. Além de limitar a disseminação de informação técnica sobre o sistema de votação, o termo certamente não é capaz de impedir a divulgação interna, em um partido, de vulnerabilidades encontradas por um fiscal malicioso. Também não há registro anterior de indicação de fiscais por parte da OAB ou MP, entidades que deveriam representar a sociedade no processo, mas se omitem possivelmente por questões políticas. Observa-se, portanto, que a fiscalização tem sido realizada tradicionalmente apenas por fiscais partidários, representando entidades com conflito de interesse direto com o resultado. Espera-se que a recente ampliação para incluir fiscais apartidários colabore com a participação de um número maior de pesquisadores, e mais qualificados.

Há também outras limitações de natureza técnica, como a janela limitada de 6 meses para fiscalização dos programas, mesmo com alterações ainda em curso; a restrição do ambiente controlado pelo TSE, limitando as ferramentas de auditoria; e a alta complexidade causada por um conjunto de programas com enorme volume de código. Há maior transparência no processo de totalização de resultados, com a comparação entre Boletins de Urna físicos e eletrônicos, mas obstáculos logísticos também dificultam sua realização, conforme observado pelo Projeto Você Fiscal e tentativa de auditoria por partidos políticos. Resta torcer para que partidos concorrentes se anulem em eventual atuação maliciosa, ignorando o fato elementar de que eleições são financiadas também com recursos públicos e servem, antes de tudo, aos próprios eleitores.

Testes Públicos de Segurança

Uma oportunidade com menos restrições aparentes é a participação nos Testes Públicos de Segurança (TPS), organizados desde 2009 e se encaminhando para a quarta edição. O evento é defendido pelo TSE como requisito suficiente do ponto de vista de transparência, mas repete vários dos problemas presentes na auditoria antes das eleições. O formato com poucos dias de duração, o escopo limitado que não inclui subsistemas importantes (como identificação biométrica e totalização, entre outros), as intervenções do Tribunal na definição das regras, seleção dos interessados e abordagens de ataque; e a imposição desde 2016 de um Termo de Confidencialidade representam condições de trabalho que não modelam tentativas realistas de fraude, em contraste direto à liberdade de pesquisa exercitada em outros países.

Apesar das restrições, os testes tem sido úteis para revelar vulnerabilidades no sistema, dado seu nível de insegurança, conforme observado em todas as suas edições: — A edição de 2009, que não fornecia acesso ao código-fonte dos programas, revelou vazamento de informação crítica útil para quebra do sigilo do voto no teclado da urna eletrônica. — Na edição de 2012, a equipe sob minha coordenação e composta pelos técnicos da UnB Marcelo Monte Karam, André de Miranda e Felipe Scarel, sagrou-se campeã após detectar e explorar com sucesso uma vulnerabilidade no único mecanismo da urna para proteger o sigilo do voto utilizando apenas informação pública. O ataque era essencialmente não-rastreável por não exigir alteração de qualquer componente da urna ou invasão de seu perímetro de segurança. Além da proteção inadequada do sigilo, foram também observada diretamente no código-fonte a utilização de algoritmos criptográficos obsoletos, a presença e compartilhamento massivo de chaves criptográficas e verificação insuficiente de integridade do software de votação. Esta última era realizada pelo próprio equipamento, de forma passiva, abrindo a possibilidade de adulteração indetectável do software e seus produtos. — Já nos testes de 2016, o técnico Sérgio Freitas da Silva explorou com sucesso pela primeira vez uma vulnerabilidade na integridade de resultados, ao permitir a um mesário malicioso falsificar resultados de um Boletim de Urna digitado manualmente após condição de contingência.

O sucesso aparente dos TPS não deveria ser encarado com tanto entusiasmo. O sistema de votação eletrônica está em operação no Brasil há mais de 20 anos e as possibilidade de auditoria continuam restritas a especialistas e sob controle absoluto do Tribunal, em conflito de interesse direto com o espírito da iniciativa. É improvável que tantas vulnerabilidades e erros de projeto, descobertos na ocasião em apenas poucas horas de investigação, tivessem permanecido desconhecidas por tanto tempo em um sistema que já fosse auditável por qualquer profissional qualificado do governo, academia ou indústria. Para tanto, é fundamental reduzir ao máximo a barreira de entrada para qualquer esforço de auditoria.

Espera-se que a edição de 2017 seja a mais transparente até hoje, mas um rápido exame do edital de participação demonstra o nível de burocratização e as inúmeras restrições de tempo, ferramentas e escopo impostas aos pesquisadores. Vale ressaltar que um fraudador dedicado e persistente, possivelmente com acesso privilegiado aos sistemas por representar ou corromper agente interno ao Tribunal, não terá que se submeter a nenhuma dessas regras e restrições. É surpreendente que eleições puramente eletrônicas ainda utilizem tecnologia que não seja diretamente e irrestritamente auditável pela sociedade ou seus representantes.

Um novo modelo

A adoção de tecnologias verdadeiramente livres, tanto no software quanto no hardware das urnas eletrônicas, pode ampliar substancialmente a transparência do sistema. Assim como a adoção pelo TSE do sistema operacional GNU/Linux em 2008, em um movimento louvável, foi defendida sob o argumento da segurança e independência de tecnologias proprietárias, as mesmas propriedades se aplicam ao software desenvolvido pelo próprio Tribunal. Além de permitir trivialmente auditoria independente da tecnologia eleitoral, verificação de alegações de natureza técnica do Tribunal e contribuições por parte da sociedade, a disponibilização do sistema sob licenças livres possui outra grande vantagem, ligeiramente mais sutil.

Quando confrontados com a possibilidade de verificação independente da qualidade do sistema e seus mecanismos de segurança, uma equipe de desenvolvimento que preza por sua reputação e credibilidade não possui alternativa além de aprimorar as suas práticas e projeto, resultando em um sistema mais seguro e confiável. Desde que haja interesse da comunidade técnica para auditar o sistema, a pressão externa se torna um incentivo formidável para incremento de qualidade.

Problema resolvido?

Infelizmente, a disponibilidade de software e hardware sob licenças livres ou possibilidade de sua auditoria por especialistas são requisitos necessários, mas não suficientes para garantir eleições inteiramente seguras e transparentes. Mesmo que a tecnologia seja minuciosamente examinada por fiscais independentes, não há garantia técnica de que o mesmo sistema foi utilizado no dia da eleição. A utilização de compilação determinística, permitindo a criação de versões reprodutíveis dos programas em formato binário, e assinaturas digitais para verificação ativa da integridade do software não impedem que atuação maliciosa interna comprometa instalações individuais do sistema. O processo de compilação e geração de mídias de instalação para um sistema dessa magnitude é complexo e pode ser difícil de reproduzir externamente, dadas as inúmeras dependências. A verificação ativa de integridade também exige a presença de fiscais na abertura das seções eleitorais, software adicional para validação das assinaturas digitais e acesso direto ao conteúdo do equipamento. Finalmente, a fiscalização das eleições não deveria ser limitada a profissionais que dominam conhecimento técnico, mas estendida à toda a sociedade.

Por esse motivo, o caminho para eleições seguras e transparentes não envolve apenas a adoção de tecnologia auditável e sua livre disponibilização, mas também a implementação de um registro físico e anônimo do voto, que junto com procedimentos adequados para auditoria e recontagem, distribuam a todos os eleitores a possibilidade de verificar o registro correto de seus votos, a exemplo do resto do mundo. Nada mais natural, visto que são os eleitores os maiores interessados no processo democrático. Felizmente, o Congresso Nacional aprovou lei reintroduzindo o voto impresso nas eleições de 2018. Resta observar se haverá algum aumento de transparência com a implantação do recuso pelo Tribunal e se o esforço se expandirá rapidamente para além dos 5% de urnas eletrônicas inicialmente planejados. Eleições minimamente transparentes são o mínimo esperado pela sociedade, cada vez mais polarizada e desorientada politicamente, para encontrar o caminho da estabilidade democrática.

Este artigo é uma versão estendida de matéria publicada na Revista Computação Brasil, volume 27, publicada em junho de 2015.

*Diego de Freitas Aranha é professor da Universidade Estadual de Campinas, com experiência na área de Criptografia e Segurança Computacional. Coordenou a primeira equipe de investigadores independentes capaz de detectar e explorar vulnerabilidades no software da urna eletrônica em testes controlados organizados pelo Tribunal Superior Eleitoral.

Conecte-se conosco: Twitter | Facebook | Newsletter


A transparência do voto eletrônico no Brasil was originally published in ITS FEED on Medium, where people are continuing the conversation by highlighting and responding to this story.

Homens Primatas e Capitalismo Selvagem no livro Oryx e Crake, de Margaret Atwood

Mais vezes que não, a ficção científica é vista como um gênero de livro de qualidade secundária. Alega-se que histórias dessa categoria valorizam ideias e personagens à custa de uma narrativa emocionalmente complexa. As estantes de livrarias estão repletas de exemplos de livros que são pouco mais que uma resposta indulgente e incoerente a um cenário hipotético, muitas vezes com pouca conexão com a nossa realidade atual.

É bom, então, que Margaret Atwood, a mulher por trás de O Conto da Aia, não escreva ficção científica. Há anos, a autora canadense insiste que seus livros não pertencem a essa classificação tão desvalorizada. Ela os classifica como “ficção especulativa”, ou seja, uma projeção do mundo contemporâneo a sua conclusão lógica. Se esse gênero existe mesmo ou não é mais uma questão semântica, mas o que é evidente é que os livros de Atwood existem em uma categoria à parte em termos de qualidade, estilo e relevância.

Em Oryx e Crake, publicado em 2003, Atwood apresenta uma visão de um futuro próximo em que governos foram substituídos por corporações de biomedicina que protegem seus funcionários do caos anárquico do mundo por meio de comunidades fechadas. Nesses subúrbios futurísticos, os residentes têm acesso a todos os luxos imagináveis — comida geneticamente modificada para ter o melhor gosto possível, tratamentos médicos avançados, pílulas que causam êxtase e revertem o envelhecimento — desde que eles contribuam para a comunidade e não questionem as experiências de modificação genética desenvolvidas pelas corporações.

Mas a história não começa com esse mundo onde o único limite é a margem de lucro. Primeiro encontramos um homem sozinho, aparentemente o único sobrevivente da raça humana depois do desastre global. Quase nu, à beira da fome, e bebendo para esquecer o mundo que existia antes, “o homem das neves” foi reduzido pela natureza bruta a um estado mais animalesco que humano. Enquanto “o homem das neves” sofre nesse novo mundo inóspito, um grupo de seres humanoides gentis e desinibidos floresce, perfeitamente adaptados ao que resta da natureza. O resto do livro alterna entre esse presente distópico e as memórias do “homem das neves” do que aconteceu para provocar o colapso da humanidade.

Por mais que a imaginação da Atwood seja impressionante e seus personagens cativantes, o que impressiona mais sobre esse livro é a visão assustadoramente cética de ciência e sociedade que Atwood apresenta. Edição fácil de códigos genéticos, porcos modificados para que seus órgãos possam ser transplantados em pessoas, frango in vitro, a popularidade de sites de vídeo, todos esses fenômenos apareceram em Oryx e Crake antes de virarem realidade.

Mas o que está ausente do livro é tão importante quanto o que está lá. Quase não há menção aos limites legais daquela sociedade. Hoje em dia, quando o desenvolvimento de tecnologias como a Inteligência Artificial, biomedicina e realidade virtual parece estar progredindo a velocidade da luz, o Direito continua sendo umas das ferramentas mais potentes para evitarmos a catástrofe ecológica e a imensa desigualdade de Oryx e Crake. Com regulamentação consciente podemos incentivar um impacto social positivo sem sacrificar o progresso científico. Sim, Oryx e Crake pode ser lido como um manual claro para se criar um desastre, mas esse manual também sugere um modo para evitarmos tais previsões.

*Sofia Martins estuda literatura comparada na Universidade de Columbia e é colaboradora do ITS Rio.

Conecte-se conosco: Twitter | Facebook | Newsletter


Homens Primatas e Capitalismo Selvagem no livro Oryx e Crake, de Margaret Atwood was originally published in ITS FEED on Medium, where people are continuing the conversation by highlighting and responding to this story.

Brinquedos sexuais e coleta de dados sensíveis: voyeurismo 3.0?

Em processo judicial nos Estados Unidos, uma fabricante de brinquedos eróticos concordou em pagar indenização a consumidores que utilizaram as funcionalidades do vibrador We-Vibe 4 Plus, em razão do descobrimento de vulnerabilidades no trato da segurança e da privacidade dos usuários do dispositivo. O vibrador “inteligente” permitia, segundo a empresa, que o casal se conectasse estando próximo ou distante, já que poderia ser controlado remotamente por meio de um aplicativo (We-Connect) que possibilitava que o parceiro, no outro lado de uma chamada de vídeo, por exemplo, pudesse interagir em tempo real.

Verificou-se que a conexão do vibrador com o aplicativo não era realmente segura, tornando possível que alguém controlasse o dispositivo remotamente e o ativasse à vontade. Além disso, também foi alegado que dados seriam coletados e enviados para a Standard Innovation, de forma que a empresa teria acesso à temperatura do dispositivo, à data e hora de cada uso, ao nível da intensidade da vibração selecionado, ao modo ou padrão da vibração escolhido e aos endereços de e-mail dos clientes. Uma vez combinados, esses dados acabariam revelando informações íntimas e sensíveis sobre a vida e os hábitos sexuais dos usuários.

Esse caso serve para ilustrar os diversos conflitos que podem ser encontrados quando se trata de Internet das Coisas e proteção de dados pessoais, temas que estão na agenda das principais instituições que pesquisam em Direito e Tecnologia.

Internet das Coisas e brinquedos sexuais

Internet das Coisas (IoT) representa a rede de objetos que se comunicam e interagem de forma autônoma por meio da Internet, sendo possível monitorar e gerenciar esses dispositivos, mesmo à distância, para aumentar a eficiência de sistemas e processos e melhorar a qualidade de vida da população.

O incremento da utilização dessas funcionalidades e a incorporação da IoT na vida das pessoas são visíveis: relógios, geladeiras, leitores de digitais, detectores de movimento, câmeras, máquinas de café, brinquedos infantis e, inclusive, sexuais já se encontram conectados à Internet, nas casas e corpos das mais diversas pessoas, enquanto empresas coletam fluxos de dados sobre movimentos, preferências e hábitos de seus usuários. Para o bem e para o mal, entramos na chamada idade de ouro da vigilância. Imagens, vídeos e áudios captados por dispositivos já permitem a interceptação e gravação de dados em tempo real.

No Brasil, foi lançada consulta pública online acerca da Internet das Coisas, o que mostra a preocupação com o desenvolvimento, nos próximos anos, de um plano de ações para o assunto, bem como a compreensão de que se faz necessário ouvir os mais diversos setores antes de se tomar decisões.

Se de um lado a Internet das Coisas pode oferecer novas e importantes oportunidades para a educação, facilitar tarefas cotidianas, auxiliar em tratamentos médicos, monitorar condições de saúde, diminuir gastos com energia e aumentar a segurança de residências, de outro é possível verificar problemas relativos à segurança da informação, ao tratamento indevido de dados e à privacidade de usuários.

Os dispositivos conectados à Internet, como o We-Vibe, podem registrar informações pessoais sobre a vida de seus usuários e, em seguida, usar e compartilhar os dados coletados. Em um momento de preocupação com segurança, liberdade e privacidade na Internet, deve-se analisar sob diversas perspectivas a chamada Internet das Coisas.

Por uma lei geral para a proteção de dados

Na contramão da América Latina e da Europa, não há ainda no Brasil uma norma específica para a proteção de dados pessoais, ficando sua tutela pontuada em determinadas leis, como o Marco Civil da Internet e o Código de Defesa do Consumidor.

No Decreto 8.771/16, que regulamenta o Marco Civil, dado pessoal foi definido como “dado relacionado à pessoa natural identificada ou identificável, inclusive números identificativos, dados locacionais ou identificadores eletrônicos, quando estes estiverem relacionados a uma pessoa”. Isso quer dizer que dados pessoais são todos aqueles que podem identificar uma pessoa humana, como, por exemplo, números de registros, características pessoais, qualificação pessoal, hábitos sexuais e dados genéticos. A positivação de uma lei nacional para o tratamento de dados pessoais estabelecerá, sem dúvidas, uma série de limitações à utilização desses dados pelos setores público e privado, medida que se faz necessária para a proteção do indivíduo na Web 3.0.

Atualmente, três projetos de lei, de diferentes origens, estão sendo debatidos: o PL 5.276/2016, oriundo de consultas públicas feitas pelo governo anterior, o PLS 330/2013 que dispõe sobre a proteção, o tratamento e o uso de dados pessoais e o PL 4.060/2012 que versa sobre o tratamento de dados pessoais. Em um caso como o do vibrador, em que ocorreu a coleta de dados ̶ inclusive sensíveis ̶ de usuários, parece necessário utilizar uma proteção que vá além de normas gerais e que esteja alinhada com o presente estágio da tecnologia e sua tendência e desenvolvimento futuros.

Referência do caso: We-Vibe Privacy Class Action Lawsuit is N.P. v. Standard Innovation (US) Corp. d/b/a We-Vibe, Case №1:16-cv-08655, in the U.S. District Court for the Northern District of Illinois, Eastern Division.

*Chiara Spadaccini de Teffé é doutoranda e mestre em Direito Civil pela Universidade do Estado do Rio de Janeiro (Uerj), pesquisadora do Instituto de Tecnologia e Sociedade (ITS Rio) e professora substituta de Direito Civil na Universidade Federal do Rio de Janeiro (UFRJ).

Conecte-se conosco: Twitter | Facebook | Newsletter


Brinquedos sexuais e coleta de dados sensíveis: voyeurismo 3.0? was originally published in ITS FEED on Medium, where people are continuing the conversation by highlighting and responding to this story.

O gênero da tecnologia

“Mulher não serve para programar”;

“Engenharia é coisa de homem. Na minha época mulher não fazia engenharia”;

“Não tem lugar para mulheres na indústria da impressão 3D”;

Eu nunca casaria com uma matemática!”

É de se espantar que em pleno século 21 ainda tenhamos que escutar frases como essas. Não causa constrangimento alheio pensar que existem pessoas que acreditam na ideia de que meninas e mulheres, por questões biológicas, não teriam capacidade de atuar nas áreas da computação, da ciência e da engenharia? Meninas e mulheres que decidem cursar engenharia, programação e matemática ainda são minoria e passam por situações desconfortáveis apenas por terem escolhido um curso que, em regra, seria destinado ao público masculino. A diferença técnica entre homens e mulheres explica esta concepção? Evidente que não. Trata-se de um problema cultural e que agora atinge novas áreas da tecnologia, como a impressão 3D.

Impressão 3D é uma das maiores tendências de inovação e já se estabeleceu firmemente na indústria, contando com empresas e centros de pesquisa em todo o mundo que se dedicam a desenvolver e estudar essa tecnologia. No entanto, uma triste verdade permanece: a indústria tecnológica é ainda mais restritiva a mulheres do que outras. Em recente relatório elaborado pela PayScale, demonstrou-se o percentual feminino em algumas multinacionais do setor: Google aparece em 6º lugar com 30%, Microsoft com 27% e Amazon com 26% (entre outras). Em primeiro lugar, ficou a empresa eBay com um contingente feminino de 47%.

Apesar do avanço e do impacto da industria de tecnologia, a participação feminina ainda é pequena. Essa foi uma das razões que incentivou a empresa Intel a produzir o relatório MakeHers: Engajando meninas e mulheres em tecnologia através da criação e invenção, partindo do chamado movimento maker. O objetivo do movimento maker é viabilizar a criação e a invenção de qualquer coisa imaginável. O MakeHers foi uma estratégia para diminuir, senão acabar, com a disparidade de gênero, aumentando o acesso e interesse de meninas e mulheres nas áreas da Ciência, Tecnologia, Engenharia e Matemática (STEM). A pesquisa revelou três das principais razões que impedem maior participação feminina na área: 17% das mulheres são excluídas por serem mulheres, 17% das mulheres revelaram que, por questões culturais, o movimento maker seria impróprio para elas e 7% das meninas e mulheres entrevistadas revelaram que não se sentem seguras o suficiente para participarem das atividades makers.

Iniciativas como essa são extremamente importantes para que meninas e mulheres se sintam encorajadas e se firmem no âmbito da tecnologia, sem se sentirem ameaçadas ou menos inteligentes e, principalmente, sem medo de sofrerem abusos, sejam eles físicos ou não. E isso não é desculpinha ou exagero ou mimimi. Em artigo, a chefe de redação do site 3Dprint.com, Sarah Anderson Goehrke, conta como foi assediada em plena conferência e como dos 30 cartões que ela recolheu durante o evento apenas 7 eram de mulheres. Ao comparar os títulos, ficou surpresa em verificar que, enquanto mulheres tinham cargos de gerentes e gestoras, os homens carregavam títulos de CEO, Vice-Presidente, Diretor, Fundador, entre outros. Isso, por si só, nos diz muito sobre questões relacionadas a disparidades de gênero e igualdade no âmbito de trabalho.

Espaços e iniciativas como as acima mencionadas também estão presentes no Brasil. Camila Achutti, de 24 anos, fundou a Ponte21, uma consultoria de inovação e tecnologia que promove a conexão da tecnologia com as pessoas, além de ter desenvolvido o blog Mulheres na Computação, que se tornou referência para a abordagem do gap de gênero na tecnologia. Outro exemplo é Gabriela Agustini, que fundou o makerspace Olabi, cujo objetivo é estimular a aprendizagem de novas tecnologias. Em entrevista, Gabriela explica de onde veio a ideia de criar um espaço como o do Olabi. Por sempre se sentir desconfortável em espaços de alta tecnologia dominados por meninos com alto conhecimento de engenharia, Gabriela buscou criar um espaço que seria atraente para todos – até mesmo para iniciantes. Ela defende que as pessoas não devem se sentir constrangidas por não saberem usar uma impressora 3D ou outras tecnologias. E o espaço oferece essa possibilidade.

Agora, em abril de 2017, ocorrerá o 11º Women in Information Technology (WIT), uma iniciativa da Sociedade Brasileira de Computação (SBC) para discutir assuntos relacionados a questões de gênero e Tecnologia da Informação (TI). O workshop promoverá debates relacionados à mulher e ao seu acesso à TI, tendo como fim último a inclusão de mulheres no mundo da tecnologia. Quem sabe com mais iniciativas como essas conseguiremos superar a concepção de que mulheres não “servem” para programar ou para serem engenheiras e matemáticas. O recado já está dado: podemos ser o que quisermos.

* Beatriz Laus Marinho Nunes é advogada, atriz e pesquisadora do ITS Rio.

< Leia o artigo anterior <

Conecte-se conosco: Twitter | Facebook | Newsletter


O gênero da tecnologia was originally published in ITS FEED on Medium, where people are continuing the conversation by highlighting and responding to this story.