CONSUMER ALLIANCE FOR ALGORITHM TRANSPARENCY
#CALL4ALGOTRANSPARENCY - é uma iniciativa de consumidores, promovida pela associação europeia de consumidores www.IusOmnibus.eu.
Subscreve o pedido deste formulário e obriga a tua rede social a mostrar-te o que tem sobre ti e a reclamar o que é teu.
Podes ler toda a motivação em baixo.
Faça aqui o pedido de acesso ao que a sua rede tem sobre si:
o seu profile pertence-lhe.
JUNTE-SE À IUS OMNIBUS E GARANTA QUE NÃO PERDES AS NOVEDADES
O NOSSO RETRATO ALGORÍTMICO NAS REDES SOCIAIS:
TOMAR POSSE DO QUE É NOSSO
– Consumer Alliance 4 Algorithm Transparency –
I. SUMÁRIO:
Neste artigo defendemos que a inteligência artificial usada nas redes sociais é essencialmente uma ação humana voluntária e intencional quanto aos efeitos sobre os seus utilizadores e, portanto, os regimes da responsabilidade civil e penal permanecem plenamente aplicáveis, mesmo que os respetivos pressupostos se adaptem aos aspetos novos.
Mas, como até hoje, as qualificações e intenções de indução de comportamentos feitos pelas redes sociais permanecem secretas torna-se difícil chegar a aplicar a Lei.
Este artigo defende que os utilizadores das redes, enquanto titulares dos dados pessoais, exerçam o seu direito de acesso à lógica envolvida no processamento automático dos seus dados e as consequências associadas às qualificações que as redes fazem sobre a sua pessoa.
Com o acesso ao que os algoritmos produzem sobre as pessoas, abre-se o caminho para a responsabilização e para uma regulamentação efetiva e eficaz.
II. A QUESTÃO
As redes sociais trouxeram novos modos de vida às sociedades. Aproximaram pessoas, lançaram artistas, fomentaram o conhecimento, a inovação e a ciência. Desencadearam milhões de novos negócios e empresários, que se fizeram neste ecossistema.
Mas também são atribuídos às redes sociais acontecimentos nefastos ou trágicos, como o massacre do Myanmar, por incitamento ao ódio racial, a manipulação de processos eleitorais, campanhas de desinformação e divisionismo; o estímulo da adição e de comportamentos extremos e autodestrutivos, de suicídio e de automutilação entre as jovens adolescentes e pré-adolescentes; ou até as mortes pela participação em “desafios” perigosos propagados nas redes.
Estes acontecimentos violadores da lei têm permanecido impunes e ainda hoje ocorrem essencialmente livres de medidas corretivas e punitivas.
Defendem-se as plataformas de redes sociais dizendo que não são responsáveis nem responsabilizáveis pelos conteúdos que os seus utilizadores recebem nas suas contas pessoais porque esses conteúdos não são produzidos pela plataforma, mas sim maioritariamente pelos próprios utilizadores, sendo estes que os que ‘escolhem’ porquanto, através do seu comportamento online, os utilizadores atraem os conteúdos que vão ao encontro das preferências por si manifestadas.
Nesta perspetiva, as empresas donas da plataforma em que correm os conteúdos da rede social seriam alheias ao lado nefasto das redes. E, enquanto alheias e alheadas, não poderiam ser responsabilizadas pelos comportamentos ou efeitos dos conteúdos que distribuem, ainda que, noutras circunstâncias, a distribuição de tais conteúdos e os efeitos de indução comportamental associados fossem, a vários títulos, ilegais, criminosos ou simplesmente intoleráveis moralmente.
É assim que as plataformas vivem há umas boas duas décadas numa ‘terra-de-quase-ninguém’ de um ponto de vista das leis aplicáveis à proteção dos direitos das pessoas.
Esta é a narrativa corporativa da indústria digital, que se compreende. Mas é uma falácia porque a ação humana voluntária e intencional está no coração da inteligência artificial das redes sociais.
III. AÇÃO HUMANA VOLUNTÁRIA E INTENCIONAL NO CORAÇÃO DA INTELIGÊNCIA ARTIFICIAL DAS REDES SOCIAIS
Introdução
Algoritmos informáticos a correr em computadores potentes processam zilhões de pontos de dados que desvelam o carácter, as preferências, os estados emocionais, desejos, medos e até as neuroses das pessoas, desbravando as mais íntimas camadas do ser para definir os iscos que mais aumentam a atenção, que permitem vender mais publicidade, geradora de mais conversão em decisão de compra, ou, noutro segmento, que mais manipulam comportamentos eleitorais, sociais, políticos, consoante o objetivo do cliente a quem os dados são vendidos.
É o Modelo Hook em que assenta esta indústria.
O que o algoritmo do Facebook diz de nós
O filme documentário The Social Dilemma, da Netflix, (https://www.thesocialdilemma.com/) dá nota do detalhe com que o Facebook analisa as pessoas.
O Facebook classifica as pessoas de acordo com vários atributos físicos e socioeconómicos. No exemplo do documentário vê-se: homem, cisgénero, solteiro, à procura, estatura abaixo da média, abastado, atlético.
Também identifica os medos desta pessoa: o isolamento social, rejeição, cobras e falar em público; ou os seus objetivos de vida - ter sucesso académico, uma relação e estar em boa forma física.
A empresa traça ainda um perfil de personalidade dentro do modelo OCEAN, que analisa a pessoa em cinco categorias correspondentes a cada letra do acrónimo: openness to experience (aberto à experiência), conscientiousness (ser-se consciencioso), extroversion (extroversão), agreebleness (agradabilidade) e neuroticism (neuroticismo).
A granularidade da análise vai ao ponto de conhecer e registar o estado ou disposição emocional atual: se a pessoa se está a sentir só, nervosa, aborrecida, focada, excitada, cansada, zangada, diferente dos outros ou se está a dormir.
Tal como muitos outros, o Facebook ainda rastreia a pessoa por toda a Internet, registando não apenas os seus ‘posts’ e interações na sua rede, mas também a sua atividade de pesquisa e sites vistos ou a frequência de palavras-chave de pesquisa, e ainda a sua atividade dentro de outras aplicações, recorrendo aos Internet trackers.
Na expectativa de conseguir conjeturar que extrapolações o Facebook retirará do rótulo de pessoa baixa, consultámos o que diz um artigo científico de 1991 intitulado Psychological Impact of Significantly Short Stature (Impacto Psicológico da Estatura Significativamente Baixa, de P.T. SIEGEL, R. CLOPPER, B. STABLER): “os problemas associados à baixa estatura incluem preconceitos relativamente a ser alto, fraco desempenho na competição com irmãos e pares, falha na aquisição de competências de desenvolvimento em virtude de juvenilização e dificuldade em lidar com o meio físico”.
Não sabemos que ilações o Facebook retira do rótulo de «pessoa baixa», mas gostávamos de saber como utiliza esta informação a seu favor e dos seus clientes, anunciantes comerciais ou políticos, com que objetivos e com que resultados produzidos.
O elemento volitivo e intencional na essência do algoritmo informático
Algoritmo é uma sequência finita de ações executáveis que visam obter uma solução para um determinado problema, como se fosse uma receita de culinária. Essas ações são executadas por instrução humana, usam inputs e produzem outputs, prosseguindo um objetivo pré-determinado.
As componentes da inteligência algorítmica construída por programadores incluem a notação, seleção de conjuntos de dados, rotulagem, vetores, instruções, incorporação de palavras e a definição de critérios de sucesso. O sucesso consiste no alcance dos objetivos pré-definidos para a operação informática.
A construção pela qual um ser humano estabelece regras de correlação entre os elementos x e y de tal forma que o resultado z é produzido, é um ato humano voluntário como qualquer outro, como quando um químico farmacêutico manipula moléculas para produzir um princípio ativo.
A recolha de dados do utilizador (input), o estabelecimento de regras de correlação entre esses dados e características físicas, psíquicas e sociais, a seleção dos conteúdos que irão manter essa pessoa, com essas características, presa ao ecrã, e o desencadeamento de ações da sua parte constitui um ato humano, voluntário e intencional quanto aos seus efeitos.
Apelidar esta ação, ou inteligência, de artificial não nos deve distrair do facto de ser o produto da ação humana, porque os conteúdos que chegam ao utilizador são produto da ação do detentor do processo de seleção desses conteúdos, e não um produto do acaso.
Uma indústria de adição e manipulação da mente por desenho
Aquilo que é dado a ver ao utilizador não é puramente aleatório porque isso não maximizaria a receita publicitária: é selecionado para maximizar o tempo em que mantém a atenção agarrada ao ecrã, para nesse estado, a empresa lançar um leilão instantâneo aos anunciantes, e adjudicar a mensagem publicitária à oferta mais alta.
Esta indústria extrativa da mente, penetra profundamente no âmago do indivíduo com potentes máquinas computacionais apetrechadas de inteligência algorítmica que despem e vigiam as pessoas capturando-lhe a atenção e tornando-as viciadas na dopamina que, a cada reforço positivo, por exemplo, um novo Like ou um novo seguidor lhe disparam.
É a economia da atenção do surveillance capitalism.
Os mestres de Silicon Valley
No curso Persuasive Technology Lab de Stanford os alunos aprendem como se pode usar tudo o que a psicologia sabe e aplicá-lo à tecnologia para induzir comportamentos. Os estudantes aprendem a cavar fundo no tronco cerebral dos utilizadores e a plantar na sua mente os ganchos que criam o hábito inconsciente do utilizador de permanecer no ecrã. É um curso muito apetecido entre colaboradores das empresas de Internet.
Engenheiros, matemáticos e cientistas da computação juntam-se em departamentos de growth hacking, cujo job description é hackear a mente das pessoas para que elas possam obter mais utilizadores, mais inscrições, mais tempo de engajamento com a rede. Ali desenvolvem-se técnicas de reforço intermitente positivo (como quando se recebe um like). Essas técnicas programam uma pessoa, num nível psíquico profundo, sem que ela se aperceba, injetando explosões de dopamina das quais ela se torna dependente.
Portanto, em sentido técnico-jurídico, não restam dúvidas de que a voluntariedade está no coração da inteligência artificial operada por algoritmos nas redes sociais, sociais (sem prejuízo de outras questões sobre a imputação de responsabilidade, como os nexos de risco e de previsibilidade dos resultados das condutas).
IV. O ESCRUTÍNIO DA ILICITUDE E DA INTENÇÃO CULPOSA
Onde estão os limites?
Tudo vai bem, quando está bem. E quando não está?
Tristan Harris, antigo vice-presidente de ética da Google e que hoje é um dos ativistas mais proeminentes pelo respeito dos direitos humanos digitais, no Centre for Humane Technology, que fundou, afirmou, contrito, sobre o mal que se está a fazer às crianças: "nesta indústria mergulhamos o mais fundo no tronco cerebral e tomamos posse do sentimento de autoestima e de identidade das crianças".
Para que haja responsabilidade subjetiva (aquela que exige a culpa como requisito para que o agente se constitua na obrigação de indemnizar ou lhe possa ser aplicada uma punição) é preciso que se esteja na presença de um ato voluntário ilícito, doloso ou negligente, danoso e causal para a produção do dano.
Ilicitude na programação dos algoritmos
A ilicitude, consistente na lesão de bens jurídicos ou interesses juridicamente protegidos, pode ocorrer em vários ‘momentos’ deste processo, e desde logo no momento da extração dos inputs: será lícita a recolha e válido o possível consentimento obtido para a recolha dos dados extraídos pelas redes, em toda a sua imensa vastidão, profundidade e intimidade?
A ilicitude pode analisar-se no processamento que é feito dos dados, ou nos atributos que são assignados ao utilizador, com que lógica e objetivos, que técnicas da ciência da psicologia são usadas para devassar a identidade da pessoa e exercer manipulação comportamental, com que resultado? Quais os comportamentos queridos pela empresa, e pelos terceiros a quem é dado acesso às contas das pessoas?
Nesta jornada, as ações da plataforma e os seus resultados, diretos ou indiretos, são permitidos pela lei ou são proibidos?
São violadores de direitos, abusivos, obtidos de má-fé, ou lícitos, legítimos e obtidos de boa-fé?
Estão dentro dos limites do direito e do exercício do direito? Respeitam os limites da boa-fé por exemplo na execução dos contratos, ou extravasam-nos?
E serão compatíveis com as leis de proteção dos consumidores, com a legislação de proteção das crianças, com a legislação da publicidade, da comunicação social, com o código penal (onde se prevêem alguns crimes por incitamento)?
Dolo ou negligência no desenho e operacionalização do algoritmo de redes sociais
A existência de vontade dirigida à ação e ao resultado é o objeto do debate em torno da culpa.
Existem várias modalidades de imputação do ato ou seu resultado à vontade do agente.
A vontade do programador é conscientemente direcionada para os resultados da ação (dolo direto)?
O agente da ação humana configurou a possibilidade do resultado na sua mente, tendo reconhecido esse resultado como uma consequência possível da operação do algoritmo, e, apesar de não o desejar diretamente como output da sua ação, aceita, contudo, a possibilidade de que ele venha a consumar-se, não se demovendo de praticar os atos que podem levar à sua consumação (dolo eventual). Ou o agente pode admitir certo facto como consequência necessária ou inelutável do seu ato, embora não o deseje, mas conforma-se com essa inelutabilidade e decide, ainda assim, atuar (dolo necessário).
Por exemplo, será interessante discutir a esta luz se a oferta de filtros de embelezamento a menores é suscetível de gerar responsabilidade civil ou criminal das empresas pelo desenvolvimento da chamada "Dismorfia do Snapchat": pessoas (principalmente meninas) que procuram a cirurgia facial para se tornarem como se parecem com os filtros de embelezamento (beautify-me).
Mesmo que se admita que as empresas não desejaram diretamente que as meninas sofressem desta disforia, é difícil não lhes imputar esta consequência, a título de dolo ou negligência (no mínimo, grosseira) pois uma pessoa de normal diligência na posição concreta do agente, que provavelmente até estudou persuasive technology em Standford, não poderia razoavelmente desconhecer tal doença como consequência possível e nada fez para impedir que esse risco previsível se consumasse.
V. ATUAR: TOMAR POSSE DO NOSSO RETRATO ALGORÍTMICO
O artigo 15.º do RGPD
O Regulamento Geral de Proteção de Dados consagra a favor dos cidadãos residentes na EU o direito de aceder aos seus dados pessoais (artigo 15.º). O direito de aceder aos dados pessoais inclui o direito de aceder à lógica envolvida em qualquer processamento automático de dados pessoais e de, pelo menos nos casos de profiling, também o direito de conhecer as consequências de tal processamento.
Se os utilizadores exercerem o direito que lhes é conferido no artigo 15.º do RGPD e exigirem às redes sociais o acesso ao seu retrato, à lógica algorítmica que preside ao seu processamento e às consequências do processamento dessa IA, estarão em condições de identificar e fazer prova das zonas proibidas, abusivas ou imorais de recolha, processamento e utilização.
Estarão em condições de exercer outros direitos consagrados no RGPD, como a remoção de.
Estarão também em condições de aferir da compatibilidade entre a política de privacidade e os consentimentos que deu e a utilização efetiva que é feita da sua informação.
E, fora do âmbito do RGPD, assistem-lhe várias faculdades no domínio do Direito das Obrigações e no Direito dos Contratos.
Porventura, poderão debater-se pela reversão, a seu favor, das receitas publicitárias obtidas ilicitamente, ou receitas obtidas pela venda da sua informação pessoal a terceiros para outros objetivos, como no Caso Cambridge Analytica.
Lembremo-nos que o titular dos dados é parte num contrato: aquele que se estabelece entre si e a empresa da rede social. Enquanto tal, o titular dos dados tem o direito à execução de boa-fé do contrato e pode reclamar as consequências de Direito resultantes da violação desse dever pela outra parte e assacar responsabilidade contratual à plataforma, adicionalmente à responsabilidade extracontratual.
No quadro do Direito das Obrigações, pode ocorrer enriquecimento sem causa, na aceção e com as consequências previstas no artigo 473.º do Código Civil português:
Aquele que, sem causa justificativa, enriquecer à custa de outrem é obrigado a restituir aquilo com que injustamente se locupletou.
A obrigação de restituir, por enriquecimento sem causa, tem de modo especial por objeto, o que for indevidamente recebido, ou o que for recebido por virtude de uma causa que deixou de existir ou em vista de um efeito que não se verificou.
Cada utilizador das redes sociais é o dono dos seus dados pessoais e do alcance das permissões para a sua utilização.
E essa relação contratual é dinâmica, bilateral e bidirecional: está sujeita às vicissitudes que resultarem da ação de qualquer uma das partes.
Os utilizadores e donos dos dados pessoais em que é construído o seu retrato algorítmico podem e devem tomar posse do que é seu: devem exigir saber o que tem, sabe e diz sobre si a rede social; com que objetivos, em obediência a que lógica.
O movimento cívico #CALL4ALGOTRANSPARENCY
A CONSUMER ALLIANCE 4 ALGORITHM TRANSPARENCY – #CALL4ALGOTRANSPARENCY - é uma iniciativa de consumidores, apoiada por uma associação europeia de consumidores (www.IusOmnibus.eu) que disponibiliza online um texto estandardizado com um pedido de acesso a dados ao abrigo do artigo 15.º do RGPD.
Os interessados que subscrevam este pedido no formulário disponibilizado online, dão autorização para que esta entidade remeta esse pedido à(s) redes sociais selecionadas, e tome as diligências necessárias à efetivação desse acesso.
Os pedidos são feitos eletronicamente, de forma semelhante à de uma petição online, onde os utilizadores podem subscrever o template relevante, fornecendo a sua identificação e o seu link de conta, e mandatando a IUS OMNIBUS - CONSUMER ALLIANCE para remeter (por correio postal ou eletrónico) eletronicamente cada pedido.