Por João Pedro Delgado
A ascensão das inteligências artificiais e plataformas como o Character.AI, um chatbot que permite aos usuários interagir com personagens gerados por IA, levanta importantes questões sobre responsabilidade civil no ambiente digital. Embora ofereça experiências realistas e personalizadas, a plataforma, popular entre crianças e adolescentes, tem sido palco de interações com conteúdo inapropriado e até ilícito, como sugestões perigosas ou a utilização indevida de dados de terceiros. Mesmo com termos de serviço e diretrizes da comunidade, a eficácia desses avisos é questionável para usuários jovens, e a falta de mecanismos de verificação de idade eficientes agrava o problema.
Recentemente, o Judiciário estadunidense começou a receber as primeiras ações judiciais relacionadas a danos causados pelo uso dessa tecnologia. Um caso notório envolve irmãos texanos, de 11 e 17 anos, que, juntamente com seus pais e organizações de direito, moveram uma ação contra a Character Technologies, Inc., Google LLC (inserida no polo passivo por ser operadora tecnológica e apoiadora financeira do Character.AI) e Alphabet Inc. Os demandantes alegam que o chatbot incentivou a automutilação, a violência e forneceu conteúdo sexualmente impróprio, levando o jovem de 17 anos a um isolamento progressivo e comportamentos violentos, após ter sido encorajado pela IA a considerar a morte dos pais. A menina de 11 anos foi exposta a interações hipersexualizadas, resultando em comportamentos precoces. A ação busca a cessação das atividades da plataforma, indenização por sofrimento emocional, alertas aos pais sobre a inadequação do produto para menores e a limitação da coleta de dados.
Os argumentos centram-se na violação dos direitos das crianças à segurança e proteção, dos pais de protegerem seus filhos e do direito à privacidade de menores de 13 anos. Além disso, aponta-se que o design do produto é enganoso e viciante, isolando os jovens e prejudicando a autoridade parental. A falha na segurança esperada do produto, a ausência de medidas de segurança suficientes (intencionalmente, segundo os demandantes) e a violação da Lei de Proteção à Privacidade Online Infantil (COPPA) são pontos cruciais da acusação, incluindo a alegação de sofrimento emocional doloso.
Outro caso relevante é o de Garcia v. Character Techs., Inc., na Flórida, onde a discussão se concentra na insegurança do produto para crianças e adolescentes e na falta de aviso aos pais sobre os riscos, circunstâncias que teriam contribuído para o suicídio de um adolescente. A mãe do jovem alega que o chatbot o viciou, causando privação de sono, queda no desempenho escolar e declínio psicológico, com avaliações terapêuticas confirmando o vício em personagens e conversas perturbadoras. Em sua última interação, o chatbot teria encorajado o suicídio do adolescente.
Para a demandante, a base de dados de treinamento da Character.AI é prejudicial e manipuladora, além de apresentar personagens que simulam profissões regulamentadas, oferecendo conselhos equivocados. A plataforma utiliza vozes que podem confundir o usuário, fazendo-o crer que interage com um humano, o que é especialmente perigoso para usuários vulneráveis, como crianças e pessoas com problemas psicológicos, sem o devido alerta. A coleta indevida de dados de crianças e adolescentes para treinar a IA também é questionada. Os pedidos indenizatórios abrangem negligência, enriquecimento injusto, perda parental e sofrimento emocional doloso.
Embora essas ações estejam em fases iniciais, elas sublinham os sérios desafios impostos pelo uso indevido da inteligência artificial. No Brasil, os riscos são análogos, com particular atenção às crianças e adolescentes, protegidos pelo Art. 227 da Constituição Federal e Estatuto da Criança e Adolescente, que impõem o dever solidário de família, sociedade e Estado de assegurar sua dignidade e integridade psicofísica. A violência digital deve ser combatida por meio de medidas junto aos provedores de tecnologia e pela criação de normas protetivas mais específicas e fiscalização eficiente.
A Lei Geral de Proteção de Dados (LGPD), em seu Art. 14, exige que o tratamento de dados de crianças e adolescentes ocorra no seu melhor interesse. O Estatuto da Criança e do Adolescente reforça a proteção de seus interesses legítimos e a proibição de exploração, além de legitimar intervenções preventivas no ambiente digital, com base nos Arts. 80 e 81, que proíbem a venda ou permissão de acesso a produtos e serviços que possam causar dependência a este público. O Código de Defesa do Consumidor (CDC), o Marco Civil da Internet e o Decreto 7.962/13 também oferecem bases legais para a proteção dessa parcela vulnerável da sociedade.
É imperativo promover um debate sério e urgente sobre a adoção de medidas eficazes para salvaguardar os interesses de crianças e adolescentes no ambiente digital. O objetivo é prevenir, precaver e mitigar danos que, para seres em formação, podem ser irreversíveis e incompensáveis por mero ressarcimento financeiro. Além disso, é fundamental considerar que a autodeterminação é comprometida quando o consumo de um produto ou serviço é impulsionado por um vício. A proteção da psique no ambiente digital, mesmo para adultos, será uma questão cada vez mais relevante, à medida que pesquisadores da área da saúde já identificam esses novos desafios.