tonygomes@gmail.com
09/02/2021 11:02:40
"1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei. 3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis. “Lei Zero”: Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
Quando Isaac Asimov, escritor russo e um dos mestres da ficção científica, criou essas leis da robótica em sua série de livros iniciada em 1950 (sendo que dois deles viraram filmes: “O Homem Bicentenário”, estrelado por Robin Williams e “Eu, Robô”, estrelado por Will Smith), muito provavelmente ele não imaginava que em menos de cem anos o mundo estaria discutindo questões éticas relacionadas a inteligências artificiais criadas pelos humanos.
Mas como ensinar o que é ético ou não para uma Inteligência Artificial (IA)?
Em 2016, na tentativa de “ensinar” uma inteligência artificial, a Microsoft resolveu testar uma IA chamada Tay, no Twitter, fazendo com que ela aprendesse por meio de “conversas” com internautas da rede social. O que aconteceu foi que, em menos de um dia, Tay começou a publicar postagens preconceituosas sobre mexicanos e judeus, fazendo com que a Microsoft a tirasse do ar. Em um outro exemplo, uma inteligência artificial da Google traduziu uma mensagem de “bom dia” em árabe para uma expressão em hebraico e inglês que incitava a violência, levando o autor da foto a ser preso por algumas horas.
Para Valderramas (apud Di Blasi e Cantarino, 2007) a inteligência artificial “é como uma criança que imita o comportamento de seus pais, em vez de fazer o que eles lhe falam. Ela absorve dados, encontra padrões e os copia. Embora empregadores possam dizer que querem diversidade, um programa de recrutamento pode, ao invés disso, seguir o padrão de comportamento dos empregadores.” E conclui, ao afirmar que o dilema moral e ético da IA “passa a tomar forma quando, a partir do input de diversos dados em uma máquina programada com algoritmo de aprendizado em setores distintos e sem qualquer discernimento ético previamente programado, a máquina é capaz de realizar um cruzamento de dados, calcular índices estatísticos e fornecer um output que pode ser a fronteira entre aprovar ou não um empréstimo, criticar ou não um texto, prescrever ou não um medicamento ou, pior, atirar ou não em um cidadão.”
E de quem é a responsabilidade quando existe um dano causado por uma inteligência artificial? Por exemplo, nos Estados Unidos, uma motorista de segurança que estava em testes com um veículo autônomo da Uber se envolveu num acidente com uma vítima fatal, sendo acusada de homicídio negligente. O julgamento está previsto para esse ano de 2021, e a condutora se diz inocente, pois o veículo estava sendo dirigido pelo sistema. Do outro lado, a polícia diz que o acidente era evitável, e no fim das contas a questão se mantém: de quem é a responsabilidade?
O debate é extenso e está longe de ter um consenso, porém, iniciativas estão tomando forma. A IEEE – Institute of Electrical and Electronic Engineers criou um documento chamado Ethically Aligned Design para discutir o tema. No documento, alguns princípios básicos relativos a ética no ramo das inteligências artificiais estão em discussão, como o princípio do benefício humano, para que as inteligências artificiais não desrespeitem direitos humanos; princípio da responsabilidade, onde os poderes eleitos, ou o próprio poder judiciário, deve criar normas claras de responsabilidade jurídica em casos com Inteligência Artificial; e o princípio da educação e consciência, para diminuir os riscos de mau uso da Inteligência Artificial.
Há também um estudo de Harvard sobre o tema, onde é elencado oito princípios chaves para discussão: responsabilização; equidade e não discriminação; controle humano da tecnologia; privacidade; responsabilidade profissional; promoção de valores humanos; segurança; transparência e capacidade de ser explicado.
No Brasil, o deputado Eduardo Bismarck vem coordenando a Frente Parlamentar Mista de Inteligência Artificial, criada em março de 2020, e com lançamento previsto para esse ano de 2021.
O aprimoramento e uso da IA nos parece inevitável, porém, dois anos antes de sua morte, Stephen Hawking deixou um alerta que deveria ser levado em consideração por todos os estudiosos e programadores de inteligências artificiais: “As formas primitivas da inteligência artificial que já temos demonstraram ser muito úteis. Mas acredito que o completo desenvolvimento da inteligência artificial pode significar o fim da raça humana. Quando a inteligência artificial for completamente desenvolvida pelos seres humanos, ela pode progredir por si mesma, e se redesenhar a um ritmo cada vez maior.”
Independente do alerta assustador do físico britânico, o fato é que o grande desafio que se clareia no horizonte é como as inteligências artificiais atenderão aos preceitos éticos e morais tão distintos entre um povo e outro do planeta, sendo responsáveis, fazendo aquilo que é certo, e não reproduzindo o comportamento de quem a programou. Ações por todo o globo estão sendo tomadas sobre o assunto, e as discussões sobre o tema parecem longe de acabar."
DORA, Kaufman. Os algoritmos de inteligência artificial podem ser éticos? Época Negócios, 2019. Disponível em: <https://epocanegocios.globo.com/colunas/IAgora/noticia/2019/08/os-algoritmos-de-inteligencia-artificial-podem-ser-eticos.html>. acesso em: 09 fev. 2021.
ROSA, Natália. IA escreve artigo de opinião e diz que não pretente acabar com a raça humana. Canaltech, 2020. Disponível em: <https://canaltech.com.br/inteligencia-artificial/ia-escreve-artigo-de-opiniao-e-diz-que-nao-pretente-acabar-com-a-raca-humana-171347>. acesso em: 09 fev. 2021.
VALDERRAMAS, Edgard . A ética como um dos desafios da Inteligência Artificial. In: WORKSHOP SOBRE ASPECTOS SOCIAIS, HUMANOS E ECONÔMICOS DE SOFTWARE (WASHES), 5. , 2020, Cuiabá. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2020 . p. 71-80. DOI: https://doi.org/10.5753/washes.2020.11199. acesso em: 09 fev. 2021.
PAOLO, Benanti. Inteligência artificial e ética: um estado da arte. Instituto Humanitas Unisinos, 2019. Disponível em: <http://www.ihu.unisinos.br/78-noticias/591436-inteligencia-artificial-e-etica-um-estado-da-arte-artigo-de-paolo-benanti>. acesso em: 09 fev. 2021.
PECK, Patrícia. Qual é a ética da inteligência artificial?. NEOFEED, 2020. Disponível em: < https://neofeed.com.br/blog/home/qual-e-a-etica-da-inteligencia-artificial>. acesso em: 09 fev. 2021.