Conteúdo

Artigo - 28 de outubro de 2025

Titularidade e Responsabilidade de Software Gerado Parcialmente por Inteligência Artificial: Análise a partir dos Contratos de Desenvolvimento

O avanço da Inteligência Artificial (IA) transformou profundamente a criação e o desenvolvimento de software. Ferramentas baseadas em aprendizado de máquina e redes neurais, como assistentes de codificação e geradores de algoritmos, já produzem trechos complexos de código, otimizando o trabalho humano. Essa inovação, contudo, traz desafios jurídicos inéditos: como definir a titularidade e a responsabilidade sobre um software criado com participação, ou autoria parcial, de uma IA?

O ordenamento jurídico brasileiro, centrado na autoria humana, não contempla expressamente criações automatizadas, gerando lacunas na proteção da propriedade intelectual e na atribuição de responsabilidade civil. Este artigo analisa, sob o aspecto jurídico, as implicações da titularidade e da responsabilização de softwares gerados parcialmente por IA, à luz da legislação brasileira e de soluções contratuais preventivas.

2. A natureza jurídica do software e o papel da IA na criação

De acordo com o artigo 2º da Lei nº 9.609/1998, o software é uma obra intelectual protegida pelo regime autoral e regida subsidiariamente pela Lei nº 9.610/1998. A autoria é necessariamente humana, e os direitos patrimoniais podem ser transferidos por cessão ou licenciamento. A proteção pressupõe criação dotada de originalidade e expressão criativa,  atributos inexistentes na IA, que não possui personalidade jurídica nem capacidade civil.

Dessa forma, uma IA não pode ser considerada autora nem titular de direitos, ainda que gere conteúdo original. Essa limitação torna-se mais complexa em contextos de criação híbrida, nos quais há participação conjunta de humanos e sistemas automatizados. Ferramentas generativas, como GitHub Copilot e ChatGPT, produzem código com base em grandes bases de dados, podendo atuar desde simples auxílio técnico até autonomia criativa. O desafio jurídico é identificar em que ponto a criação deixa de ser humana, afetando diretamente a titularidade e a responsabilidade.

3. Titularidade do software gerado com apoio de IA

A doutrina e a jurisprudência brasileiras, em consonância com a Organização Mundial da Propriedade Intelectual (OMPI), reconhecem apenas a autoria humana como passível de proteção. Assim, conteúdos gerados unicamente por IA configuram obras sem autor, inseridas em uma zona de indeterminação jurídica.

Nos casos em que há intervenção humana relevante, seja na concepção, direção ou revisão do código, a titularidade deve ser atribuída ao indivíduo ou à pessoa jurídica que exerceu o controle criativo sobre o processo. A IA deve ser compreendida como instrumento técnico, e não como sujeito de direitos, preservando-se a centralidade da autoria humana.

Quando o software é desenvolvido sob encomenda, aplica-se o artigo 4º da Lei nº 9.609/1998, que presume a titularidade do contratante, salvo disposição em contrário. Contudo, essa presunção pode ser questionada quando parte do código é gerada automaticamente, pois o desenvolvedor pode não ser o autor efetivo das porções de código cedidas.

Para evitar dúvidas, os contratos devem conter cláusulas específicas sobre autoria e originalidade, com declaração expressa do desenvolvedor sobre o uso de IA, assunção de responsabilidade pela licitude do código e entrega de documentação técnica que comprove a origem dos trechos automatizados. Tais disposições reduzem riscos de nulidade e asseguram titularidade válida e transparente ao contratante.

4. Responsabilidade e prevenção de infrações a direitos de terceiros

Um dos principais riscos do uso de IA em programação é a reprodução involuntária de trechos de código protegidos, já que os modelos são treinados com dados de diversas origens. Assim, o software final pode conter partes idênticas a obras pré-existentes, configurando infração de propriedade intelectual.

A responsabilidade pode recair sobre diferentes agentes: o desenvolvedor, se atuar de forma negligente; o contratante, se deixar de realizar auditoria técnica; e o fornecedor da IA, caso se comprove falha na filtragem de conteúdo protegido.

A redação contratual preventiva é, portanto, essencial para mitigar riscos. O contrato deve estabelecer que o desenvolvedor garante a originalidade do código e a inexistência de violações a direitos de terceiros, além de prever indenização integral em caso de infração. Também é recomendável exigir transparência no uso de componentes ou bibliotecas de terceiros e incluir cláusulas de auditoria e revisão humana. Esses mecanismos funcionam como instrumentos de compliance jurídico e técnico, protegendo o contratante contra passivos ocultos e litígios futuros.

5. Conclusão

A produção de software mediada por inteligência artificial inaugura um novo capítulo na relação entre tecnologia e direito. A fronteira entre criação humana e geração automatizada torna-se cada vez mais sutil, exigindo reinterpretação dos conceitos de autoria, titularidade e responsabilidade.

Sob o aspecto jurídico, a titularidade deve continuar vinculada ao agente humano ou jurídico que exerça controle criativo sobre o processo, enquanto a responsabilidade deve ser compartilhada conforme o grau de participação e benefício obtido. Na ausência de regulamentação específica, o contrato assume papel central na governança dessas relações, devendo assegurar originalidade, transparência e clara alocação de riscos.

Em síntese, enquanto o direito não se adapta plenamente às criações híbridas, o contrato permanece como o principal instrumento de equilíbrio entre inovação e segurança jurídica, garantindo que a inteligência artificial atue como aliada da criatividade, e não como fonte de incerteza ou conflito.

 

Guilherme Mansur

Áreas de Atuação Relacionadas

Titularidade e Responsabilidade de Software Gerado Parcialmente por Inteligência Artificial: Análise a partir dos Contratos de Desenvolvimento

Direito Digital

Cadastre-se e receba nosso conteúdo selecionado.