13 de Maio de 2021
Autor: Equipe EG Digital Solutions
A Inteligência Artificial ocupa muitas discussões em torno da sua aplicação atual e futura. O uso da Inteligência Artificial se intensificou nos últimos dois anos e sua aplicação é encontrada desde algoritmos que aprendem com nossos usuários nas redes sociais até a pesquisa das Vacinas para a COVID19. Tudo parece evoluir, mas o grande desafio da AI é a confiança.
Para a AI ocupar um papel de game changer em todos os cenários mundiais como na saúde, na economia e no social ela precisa lidar justamente com esse último: como lidar com o problema em torno da confiança do ser humano na Inteligência Artificial?
Em artigo recente por Bernard Marr - o consultor de negócios e tecnologia conhecido por ter uma excelente visão de futuro - no LinkedIn questiona justamente isso. O planeta pode criar um mercado de US$ 15,7 trilhões até 2030 para a Inteligência Artificial, no entanto basta que o obstáculo da confiança humana não seja superado para que esse cenário não se torne realidade.
A AI esbarra hoje em três pilares de confiança: responsabilidade – como ou quem responsabilizar pelos erros cometidos pela Inteligência Artificial quando por exemplo, um veículo autônomo se envolver em um incidente? Outro aspecto é a explicabilidade – como ter certeza que os dados estão sendo usados de forma correta, quando o algoritmo de um portal de empregos americano oferece salários menores a candidatos mulheres, por considerar isso “normal”? E último e mais óbvio é o da privacidade – a garantia de que os dados serão usados sem má-intenção.
E a questão de confiança é abrangente, não basta apenas convencer os intelectuais ou o C-Level de uma empresa, é necessário um aprimoramento e amadurecimento de forma que a AI possa conquistar a confiança até do ser humano mais leigo no assunto.