CIÊNCIA

Sistemas de inteligência artificial generativa estão sujeitos a cometer erros

O advogado da CMS Portugal João Leitão Figueiredo adverte, em entrevista à Lusa, que as pessoas devem ter em consideração que os sistemas de IA generativa estão sujeitos a cometer erros e são apenas ferramentas de apoio.Vários são os exemplos de informação errada ou falsa dada pelos modelos de inteligência artificial generativa (com capacidade de criar conteúdos), onde se incluem motores de pesquisa, sendo que em Portugal, um dos mais recentes levou a Google a corrigir os conteúdos falsos sobre quem era Anabela Natário, depois de a jornalista e escritora ter feito queixa à tecnológica.”Esse é um tema que está na ordem do dia. Aliás, ainda não resolvemos problemas anteriores relacionados com os motores de busca e já temos um novo problema que tem a ver com as alucinações dos sistemas de inteligência artificial, em particular os de inteligência artificial generativa”, refere o jurista.”Acho que todos nós devemos compreender que isto é uma decorrência natural destes sistemas, em especial aqueles de âmbito […] general purpose AI, de propósito genérico”, prossegue, explicando a razão.”Porque a qualidade do input [informação] que é recebido por parte destes sistemas de inteligência artificial generativa é muitas vezes frágil, o que leva a que a ferramenta acabe por produzir outputs igualmente frágeis e errados, aquilo que normalmente e muitas vezes chamamos de alucinações”, contextualiza.Actualmente, “isto é uma realidade com a qual nós temos que viver, na mesma medida em que quando perguntamos algo a uma pessoa e a resposta acaba por não vir correcta, também estes sistemas estão sujeitos a cometer erros”, considera João Leitão Figueiredo.Por isso, “todas as pessoas devem ter em consideração que isto são ferramentas de apoio e não são especialistas técnicos, seja em que matéria for”, adverte o jurista da CMS Portugal.No caso das empresas, diz, é menos provável que haja tantos erros sobre a informação “na medida em que a firma ou a denominação deverá ser única ou tendencialmente única” e depois há também o direito da propriedade industrial, que terá o seu impacto não apenas no registo da denominação, mas também de marca ou de logótipo das empresas.”Diria que é problemático com pessoas singulares”, aponta, referindo que nestas circunstâncias, o regulamento de IA (AI Act) “foca muito em questões de transparência e gestão de risco e não tanto em termos de responsabilidade”, o que deixa o âmbito um pouco aberto.Mas “não nos podemos esquecer em momento algum que temos a directiva da Product Liability Directive [PLD]”, ou Directiva de Responsabilidade pelo Produto — “uma directiva que vai entrar em vigor em 2026, relativa à responsabilidade decorrente dos produtos defeituosos, que passa a incluir também aqui nestas matérias a inteligência artificial e que estava um bocadinho subtraída”, refere.Nesta directiva, “existem mecanismos que impõem ao fabricante deste tipo de produto que, quando contactado pelos meios colocados ao dispor pelo consumidor ou a pessoa afectada, venham a corrigir a informação que é divulgada pela ferramenta”, sublinha João Leitão Figueiredo.As regras da PLD clarificam especificamente que todos os tipos de software estão abrangidos pela nova directiva, incluindo aplicações, sistemas operativos e sistemas de IA.O advogado afirma ainda que há vários níveis e formas de reacção quando a IA generativa erra, defendendo que é preciso diferenciar dados incorrectos da produção intencional de conteúdos ilícitos.Vários são os exemplos de informação errada ou falsa dada pelos modelos de inteligência artificial generativa (com capacidade de criar conteúdos), onde se inclui motores de pesquisa. “Penso que este tipo de situações vai diminuir no sentido em que as ferramentas vão evoluindo, as ferramentas vão-se tornando mais precisas”, considera João Leitão Figueiredo, que admite que “nunca será possível eliminar em absoluto o erro”.Até porque “quanto mais informação, maior a probabilidade de ocorrer o erro, ainda que exista esta evolução técnica”, prossegue, sublinhando que “é normal” que tal aconteça, uma vez que “até o ser humano pode cometer erros e lapsos na associação de um nome a um determinado facto, mas existem sempre formas de reagir”.”Temos sempre o DSA, o Digital Services Act”, ou Regulamento dos Serviços Digitais, “que permite aos titulares contactarem directamente os proprietários, independentemente da sua origem, para solicitar essa correcção”.Por exemplo, recentemente em Portugal a Google teve de corrigir os conteúdos falsos sobre quem era Anabela Natário, depois da jornalista e escritora ter feito queixa à tecnológica.”Depois, se houver alguma questão que não seja cumprida, tem meios próprios, nomeadamente com a autoridade de supervisão de cada um dos Estados-membros”, no caso da União Europeia, aponta João Leitão Figueiredo.Depois, é preciso não esquecer “um facto que é relevante: existe também uma sobreposição regulatória ou o Regulamento Geral sobre Protecção de Dados”, no caso de pessoas singulares, de titulares dos dados e têm toda a protecção também do RGPD, recorda.Portanto, “temos aqui vários níveis e formas de reacção, temos é que ser conscientes que estas ferramentas que todos nós muito gostamos de utilizar para demonstrar alguma modernidade são meras ferramentas que podem cometer erros como quaisquer outras”, adverte o advogado da CMS Portugal.João Leitão Figueiredo alerta ainda que existem “infinitas possibilidades de utilização de inteligência artificial, existem pessoas que se dedicam a fabricar deepfakes, entrevistas, o que seja”.Por isso, “penso que era importante também diferenciar estas duas situações, que é a ferramenta de recolher informação cuja qualidade é bastante reduzida ou nula e produz outputs incorrectos e aquelas pessoas que se dedicam a utilizar as ferramentas para produzir conteúdos que são eles próprios ilícitos”, enfatiza.O jurista sublinha que se tem visto “amiúde que estes mecanismos não estão a funcionar da forma mais adequada” e, perante isto, também tem havido reacções diferentes a nível judicial nos vários países onde estas questões se têm vindo a colocar.Em Portugal, “ainda não conhecemos nenhuma situação específica, ou segundo cremos não há nenhuma situação específica, mas já existem algumas, nomeadamente nos Estados Unidos, em que se coloca em causa inclusivamente a imunidade das plataformas, a famosa Section 230 da legislação americana”.Perante um quadro “ainda evolutivo, as pessoas têm uma possibilidade de actuação directamente junto dos fabricantes, mas também podem sempre recorrer aos meios legais porque está a ser divulgada uma informação falsa por parte deste tipo de ferramenta”.Para todos os efeitos, existe “a responsabilidade civil e, em casos mais gravosos ou conscientes, a responsabilidade eventualmente penal para estas matérias”, diz.Em suma, “existe sempre um mecanismo, não é fácil porque estamos a lidar com empresas de grande dimensão, mas existe sempre esta possibilidade”, remata João Leitão Figueiredo.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo

Para continuar no site, por favor, desative o Adblock.

Por favor, considere apoiar o nosso site desligando o seu ad blocker.