Novas mentiras das redes sociais

Com avanços perceptíveis na qualidade dos conteúdos criados por ferramentas da IA Generativa, imagens falsas passaram a viralizar nas redes como se fossem reais

Quando o meme vira crime

Com a vida social cada vez mais digital, é inerente da atualidade viver com medo constante de possíveis casos de roubos de dados e utilização de imagem indevida. O medo cresce ainda mais com a dificuldade em localizar os responsáveis. Casos como da Lei de Combate a Crimes Cibernéticos, conhecida como Lei Carolina Dieckmann, que atualiza o código penal inserindo pela primeira vez a tipificação de crimes virtuais e delitos informáticos, o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD), são algumas das proteções aos cidadãos no que diz respeito ao meio digital. Mas quanto ao avanço da inteligência artificial, os órgãos de segurança estão preparados e sabendo utilizá-la ao seu favor?

Para discorrer sobre o tema, o Eixo Jornalismo conversou com João Pedro Seefeldt. Ele é advogado, professor de direito e integrante da Comissão Especial de Proteção de Dados e Privacidade da OAB/RS Santa Maria. Também coordena o projeto de pesquisa intitulado “Direito Digital e Cibersegurança: Direito à proteção de dados”, da Universidade Federal de Santa Maria (UFSM).


Eixo Jornalismo - De que forma as imagens geradas pela IA Generativa podem agravar o cenário de desinformação?

João Pedro Seefeldt - Já vivemos um cenário bem catastrófico sobre o processo de desinformação. Não que antes não existisse, mas era muito mais mecânico. Agora, com a possibilidade da IA Generativa esse fenômeno foi potencializado. A própria tecnologia de IA pode ser usada para criar imagens falsas e deep fakes - vídeos manipulados que podem parecer reais, mas não são, sendo produzidos para retratar situações que nunca aconteceram. Então, criando uma imagem falsa, que pareça de fato um print, isso pode levar a propagação de informação enganosa. Também há uma criação e propagação muito rápida desse tipo de conteúdo. Os produtos da IA Generativa também podem ser usados para manipular a opinião pública ao retratar determinado político ou uma celebridade em alguma situação delicada, e colocar um posicionamento que não é necessariamente o que ela defende. Assim, pode colocar pessoas em lugares, espaços ou gerar falas que nunca existiram. Mas, o grande problema, é com certeza os deep fakes. Que são feitos, na maioria das vezes, para difamar uma figura e manipular a opinião do público que irá receber esse produto. Então, se já tínhamos um cenário de desinformação por conta das fake news, agora, com a possibilidade de transmitir isso com uma certa autenticidade de imagens, esse cenário se complica ainda mais.


EJ - As plataformas têm algum tipo de política para combater o mau uso dessas imagens?

João - Sim, algumas plataformas estão começando a tomar certas medidas e adotando algumas políticas relacionadas ao uso das imagens geradas pela IA Generativa. Uma política de bom uso ou de uso aceitável seria justamente a proibição ou limitação de publicação de conteúdos enganosos prejudiciais sob pena de remoção desses conteúdos. Em alguns casos, até mesmo a exclusão do usuário da rede social, por exemplo. Essas plataformas também estão criando algumas ferramentas de detecção em que já é possível tentar identificar deep fakes ou imagens geradas pela IA Generativa para alertar os usuários. Os próprios usuários podem notificar a plataforma de que se trata então de uma imagem inautêntica. Existe também política de privacidade e política de dados que regulam a atuação dentro dessas plataformas. 


EJ - É possível criminalizar uma imagem pessoal adulterada pela IA Generativa? 

João - Essa conduta pode ser avaliada em três âmbitos: administrativo, civil e criminal penal. No âmbito administrativo, pode haver algum tipo de exclusão da imagem da plataforma, remoção do usuário ou até mesmo a proibição ou limitação de publicação. No âmbito civil, também temos a indenização por danos materiais e morais que eventualmente possam ter ocorrido. No âmbito criminal, temos especialmente os crimes contra a honra que incluem questões como injúria, difamação e calúnia. São casos que podem ser criminalizados, especialmente no âmbitos dos crimes contra a honra praticados pela internet que ainda podem ter um aumento na pena, justamente pela possibilidade de propagação e de danos ainda maiores pela proliferação dessas imagens.


EJ - Quais leis protegem os cidadãos contra crimes cibernéticos?

João - Temos um arcabouço bem grande de proteção aos usuários, desde um viés constitucional dizendo que não pode haver nenhum tipo de lesão ou dano à honra, até a imagem das pessoas que devem ser protegidas. A nossa lei principal em relação à criminalização dessas condutas é o código penal que vem sendo constantemente atualizado para abarcar alguns artigos penais que criminalizam condutas praticadas em meios digitais. Além disso, cito também a Lei Geral de Proteção de Dados criada justamente para casos de invasão de dispositivos que sejam protegidos por senhas. Existe também uma disposição no próprio Estatuto da Criança e do Adolescente sobre pornografia infantil, ou seja, a utilização desses meios digitais para criação e divulgação de pornografia. Recentemente, o Brasil começou a adotar a Convenção de Budapeste sobre crimes cibernéticos - uma norma internacional que estabelece um conjunto de regras sobre esses crimes cibernéticos e prevê, dentre várias outras diretrizes, a própria cooperação internacional para facilitar a identificação dos agentes criminosos. 


EJ - A quem recorrer em casos de crime cibernético?

João - Em primeiro lugar, deve-se procurar a autoridade competente para investigar o caso. Assim, o indivíduo registra uma ocorrência junto à delegacia de polícia para que possam ser tomadas as primeiras medidas de acordo com o tipo e a gravidade do crime. Além de contatar a polícia, o indivíduo também pode informar ou notificar o provedor da aplicação - que pode ser uma plataforma, redes sociais ou site. Com essa notificação, eles já podem começar uma curadoria para garantir que aquele conteúdo, ainda que eventualmente removido, possa ser posteriormente acessado para fins de investigação. Também, a depender do tipo de crime, temos outras autoridades, inclusive administrativas, especializadas na prevenção ou até mesmo detecção desse tipo de atividade maliciosa na rede, como o site CertBR que serve justamente para ajudar as empresas em caso de algum incidente de segurança. 


EJ - Todos os crimes na internet são legalmente encaixados da mesma forma? Ou cada caso é um caso?

João - Cada caso é um caso específico, ou seja, um crime digital precisa ser tratado de maneira diferente pelas autoridades legais porque depende de diversos fatores, inclusive para se determinar quais são as leis penais e processuais aplicáveis. Então, depende muito de cada circunstância, em razão até mesmo do desenvolvimento das tecnologias, para ser possível identificar o crime. Por exemplo, temos os crimes propriamente digitais, como uma fraude eletrônica ou alguma invasão em sistema de computador. E também tem os crimes que já existiam na “vida real”, mas que hoje podem ser praticados por meio da tecnologia, como furtos eletrônicos ou pirataria. Então, cada caso acaba sendo diferenciado e precisa ser analisado isoladamente.


EJ - Qual a maior dificuldade encontrada para que se criminalize condutas indevidas utilizando IAs? É possível encontrar essas pessoas atrás da tela?

João - Acho que a maior dificuldade encontrada para criminalizar essas condutas, na verdade são duas, o caráter transnacional, internacional e global da internet. Ela não tem fronteiras, mas isso não quer dizer que ela seja uma “terra sem lei”, como diz o ditado popular. Aliás tem muitas leis, regulamentos e convenções para lidar com as condutas na internet. Só que, como a própria internet não tem fronteiras geográficas, tudo depende muito de uma cooperação internacional entre os países e as suas autoridades policiais e jurisdicionais para conseguir então coletar elementos de convicção e de persecução penal. Isso acaba sendo bem burocrático. O segundo desafio é a própria identificação do agente malicioso. Assim como temos uma evolução e proliferação de condutas criminosas no âmbito digital, temos também um desenvolvimento de técnicas sofisticadas para ocultar a identidade desses indivíduos. Por exemplo, a rede privada virtual - as VPNs, proxys que dificultam o rastreio dos endereços de IP, de perfis fakes e de robôs com IA de criptografia. Então, assim como temos um crescimento das tecnologias de percepção penal, de criminalização, temos também um avanço das próprias tecnologias em tornar a identificação desses indivíduos mais complexa. Além disso,  há  dificuldades como criação de leis que tratam sobre esses temas e que sejam amplas, entendíveis e aptas a abordar essa gama de novas condutas. E também a própria cooperação internacional, entre as autoridades policiais e jurisdicionais, na tentativa de reduzir a burocracia entre elas para que consigam coordenar esses esforços para localizar esses criminosos.


EJ - Como a Justiça está se organizando com este avanço tecnológico? Há ferramentas que auxiliem na identificação de criminosos, como no caso destas fotos criadas por IAs Generativas?

João - Eu acho que o poder público vem se organizando com esse avanço tecnológico. Não é somente o lado negativo que está se desenvolvendo. A parte de investigação e de criminalização também teve avanços nos últimos anos tanto na questão administrativa, por meio do Poder Executivo, quanto na investigação criminal, por meio da Polícia Civil, Polícia Federal e Polícia Militar. Todos esses órgãos estão sendo equipados e melhorados nesse sentido. E o próprio Poder Judiciário também vem se preparando para isso. Há algumas décadas, temos vivido um fenômeno de digitalização das nossas informações e de um aumento nos processos eletrônicos. A partir disso, setores que podem ajudar na percepção e na investigação criminal, inclusive com a ajuda da própria IA. Ela não é utilizada apenas para praticar essas condutas, mas também serve para a identificação dessas condutas. Um exemplo recente foram as eleições nacionais de 2022: para casos em que uma informação era caracterizada como inautêntica, o Tribunal Superior Eleitoral criou uma resolução para que os próprios servidores, utilizando de Inteligência Artificial, conseguissem rastrear com mais facilidade a replicação daquela informação. Nesses episódios, não bastava somente tirar a página do ar porque o conteúdo acaba sendo compartilhado e proliferado. Assim, a própria Inteligência Artificial tentava localizar essa falsa informação para tentar derrubar, independente da onde ela estivesse. Então, são coisas que andam juntas: o avanço tecnológico auxilia na prática de crimes e na própria investigação.