huan_lima3@yahoo.com.br
12/02/2021 15:55:16
"A ética é debatida pela sociedade desde a época de Aristóteles e com o passar do tempo e de acordo com o local, foi mudando de sentido até as épocas atuais onde a ciência sugere que apenas o ser humano possui habilidades de pensar criticamente a respeito de valores morais e direcionar suas ações de acordo com tais valores. Em meio à essa concepção a Inteligência Artificial como exteriorização da inteligência humana oferece de forma amplificada, tudo o que a humanidade já é e levanta a questão dos cálculos de riscos envolvendo questões morais e éticas e se é possível ensinar à máquinas a terem essa consciência.
O filósofo sueco Nick Bostrom, no artigo “The Ethics of Artificial Intelligence” (2011), não reconhece o status moral do atuais sistemas de inteligência artificial, ainda restritos à uma tarefa concreta: “Podemos alterar, copiar, encerrar, apagar ou utilizar programas de computador tanto quanto nos agradar […] As restrições morais a que estamos sujeitos em nossas relações com os sistemas contemporâneos de IA são todas baseadas em nossas responsabilidades para com os outros seres”. Especialistas em Inteligência Artificial acreditam que a inteligência da máquina alcançará o nível humano em cerca de 50% até 2040 e 90% de probabilidade até 2075. Contudo, independentemente desse ponto, a rápida disseminação em larga escala do uso da inteligência artificial abre premissas para debates sobre os impactos da mesma na sociedade.
Um sistema chamado Compas (Correctional Offender Management Profiling for Alternative Sanctions), no Estado de Wisconsin, e similares em outros Estados americanos, baseado em algoritmos, determinam o grau de periculosidade de criminosos e consequentemente a pena do condenado. A intenção, segundo seus defensores, é tornar as decisões judiciais menos subjetivas. A metodologia de avaliação, criada por uma empresa privada comercial, vem sendo fortemente contestada. O filósofo e pesquisador do Centro Nacional de Pesquisa Científica da França, Grégoire Chamayou, em leu livro a “A Teoria do Drone”, alerta para drones militares que inicialmente foram construídos com fins de vigilância e reconhecimento, mas que atualmente são armas letais carregando modelos algorítmicos análogos aos usados para mapear e analisar movimentações nas redes sociais na internet e que traçam conexões entre suspeitos e determinam sua consequente eliminação. “É preciso uma discussão sobre os limites que devem se aplicar a essas máquinas; também é preciso decidir quem se responsabiliza no caso de um erro ou de uma falha”, alerta Chamayou.
Cathy O’Neil, matemática americana e autora do best-seller “Weapons of Math Destruction”, alerta que muitos desses modelos que administram nossas vidas codificam o preconceito humano: “Como os deuses, esses modelos matemáticos são opacos, invisíveis para todos, exceto os sacerdotes mais altos em seu domínio: matemáticos e cientistas da computação”. O’Neil adverte que as áreas de recursos humanos das empresas estão cada vez mais usando pontuações de crédito para avaliar candidatos em processos de contratação, supondo que o mau crédito se correlaciona com o mau desempenho no trabalho, implicando numa espiral descendente (aqueles que tem dificuldade em honrar seus empréstimos tem dificuldade de realocação profissional).
A IA está presente no nosso cotidiano, em especial à pessoas que tem acesso à dispositivos tecnológicos e internet. Os acessos do usuário geram um banco de dados individual e isso traça o perfil que ajudará personalização nos resultados de busca no Google, recomendações de filmes na Netflix, músicas no Spotify, amigos no Facebook e Linkedin, empresas conseguem a partir disso focar sua propaganda em seu real público alvo. A IA também ajuda na identificação de fotos nas redes sociais, nos sistemas de vigilância e segurança, e mais em um enorme conjunto de benefícios que, efetivamente, têm o potencial de facilitar a vida do século XXI. O desafio de estabelecer um código de ética no desenvolvimento dessas tecnologias que envolvem IA é simples nem trivial e a tendência é tornar-se mais complexo com o surgimento de avanços ainda mais audaciosos nesse campo, como a superinteligência, definida por Nick Bostrom como “um intelecto que excede em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse”. Ou seja, máquinas autônomas.
"
Ética e Inteligência Artificial. Dez áreas de interesse. Instituto Humanitas Unisinos, 2007. Disponível em: <http://www.ihu.unisinos.br/78-noticias/574109-etica-e-inteligencia-artificial-dez-areas-de-interesse>. Acesso em: 12, fev.2021.
KAUFMAN, Dora. A ética e a inteligência artificial. Econômico valor, 2017. Disponível em: <https://valor.globo.com/eu-e/noticia/2017/12/21/a-etica-e-a-inteligencia-artificial.ghtml>. Acesso em: 12, fev.2021.
CORTÉS, Marc. Inteligencia Artificial: ¿Quién toma las decisiones?. 2016.(15m37s). Disponível em: <https://www.youtube.com/watch?v=vLo7EywWqc4&feature=emb_title&ab_channel=TEDxTalks>. Acesso em: 12, fev.2021.