Por Monica Campos
A ascensão vertiginosa da inteligência artificial generativa tem
redefinido não apenas os limites da criação e da inovação, mas
também os próprios fundamentos do Direito. Modelos de linguagem
capazes de gerar textos convincentes, imagens, áudios e até mesmo
argumentos jurídicos complexos trazem à tona questões legais
intrincadas que desafiam conceitos consolidados de autoria,
responsabilidade, privacidade e propriedade intelectual. O mundo do
Direito Digital se vê, mais uma vez, diante da premente tarefa de
adaptar suas normas para uma realidade em constante mutação, onde o
algoritmo ganha voz e ação.
1. Direito Autoral: Quem é o Criador na Era da Geração
por IA?
Um dos primeiros e mais urgentes desafios reside no campo do
Direito Autoral. Quando uma IA generativa "cria" uma obra —
seja um texto, uma composição musical ou uma imagem —, quem detém
os direitos autorais? É o desenvolvedor do algoritmo, o usuário que
forneceu o prompt e as diretrizes, ou deveríamos considerar
a própria IA como um novo tipo de "autor", com implicações
na personalidade jurídica? A doutrina jurídica tradicional, baseada
na originalidade e na expressão do intelecto humano, luta para se
enquadrar nessa nova realidade. Adicionalmente, a legalidade do uso
de vastos bancos de dados contendo obras protegidas por direitos
autorais para treinar esses modelos é um ponto crucial de debate,
com potenciais impactos na indústria criativa e na remuneração dos
artistas e criadores.
2. A Atribuição de Responsabilidade: Culpabilidade no
Campo Algorítmico
Se uma IA generativa produzir conteúdo difamatório,
desinformativo ou causar danos (seja um relatório médico impreciso
ou uma peça jurídica falha), quem arca com a responsabilidade civil
ou, em casos extremos, penal? A complexidade reside na fragmentação
da cadeia de responsabilidade: desenvolvedor, empresa que implementou
a IA, e o usuário final. As leis existentes, muitas vezes, não
foram concebidas para a autonomia aparente dos algoritmos e para os
cenários de "alucinações" ou vieses inesperados. Há uma
necessidade premente de um marco regulatório que estabeleça
critérios claros para a atribuição de culpa, considerando a
opacidade dos modelos ("caixa preta") e a imprevisibilidade
de certas saídas da IA.