Cuatrecasas, Gonçalves Pereira SLP

07/08/2024 | Press release | Distributed by Public on 07/08/2024 05:24

Orientações do CEPD sobre Inteligência Artificial Generativa

2024-07-08T10:26:00
União Europeia
O Supervisor Europeu de Proteção de Dados apresenta recomendações às instituições da UE acerca de dados pessoais na IA generativa
8 de julho de 2024

Fique a par das novidades

Subscrever

Introdução

O Comité Europeu para a Proteção de Dados ("CEPD") publicou recentemente as primeiras Orientações para garantir a conformidade com a proteção de dados ao utilizar sistemas de IA Generativa (as "Orientações"), que se destinam a fornecer recomendações práticas às instituições, órgãos, organismos e agências da UE ("IUE") sobre o tratamento de dados pessoais na sua utilização de sistemas de IA generativa, para garantir a conformidade com o Regulamento (UE) 2018/1725 (o "Regulamento" ou "EUDPR").

As Orientações abordam a questão de saber se as instituições da UE (IUE) podem utilizar inteligência artificial generativa ("IA") - um subsistema de IA que utiliza modelos especializados de aprendizagem automática concebidos para produzir uma ampla e geral variedade de resultados, como texto, imagem ou áudio - e em que condições. Em termos gerais, o CEPD afirma que não existe qualquer obstáculo fundamental à utilização de IA generativa pelas IUE, desde que as regras das IUE o permitam e sejam cumpridos todos os requisitos legais aplicáveis, especialmente em matéria de respeito pelos direitos e liberdades fundamentais das pessoas.

Apesar do que precede, o CEPD:

(i) Salienta que o Regulamento aplica-se a todas as atividades de tratamento de dados pessoais, envolvidas na utilização da IA generativa e que em linha com o princípio da responsabilidade, todas as responsabilidades devem ser claramente definidas e mantidas entre os vários intervenientes na cadeia de abastecimento do modelo de IA generativa.

(ii) Aconselha as IUE a ponderar cuidadosamente quando e como utilizar a IA generativa de forma responsável e benéfica para o bem público, seguindo uma abordagem baseada no risco e garantindo a transparência, a explicabilidade, a coerência, a auditabilidade e a acessibilidade do sistema.

Nas páginas seguintes serão resumidos os principais aspetos das Orientações.

1. Função do Encarregado da Proteção de Dados ("EPD"), a importância da AIPD e a base legal para o tratamento de dados pessoais num sistema de IA generativa

As Orientações do CEPD reforçam a importância de aplicar as lições aprendidas com a implementação do Regulamento Geral sobre a Proteção de Dados da UE e, em particular, do EUDPR, dentro de uma organização. No panorama atual, em que os sistemas de IA generativa tratam dados pessoais, o papel do EPD tornou-se ainda mais crítico para garantir a conformidade e a eficácia de um sistema de gestão da proteção de dados.

Se um sistema de IA generativa tratar dados pessoais, é obrigatório que o EPD esteja envolvido desde o início. O EPD não deve ser a última pessoa a ser incluída nas discussões sobre a utilização de sistemas de IA generativa na organização.

Por conseguinte, para garantir a conformidade no desenvolvimento e na implementação de um sistema de IA generativa do ponto de vista da proteção de dados, o EPD deve ter uma compreensão clara do ciclo de vida e do funcionamento do sistema. Isto inclui:

· Informações sobre a origem/fonte dos dados pessoais (quando e como estes sistemas tratam os dados pessoais).

· Garantir a base de licitude para o tratamento dos dados pessoais e a adoção dos princípios de proteção de dados desde a conceção e por defeito.

· Compreender os resultados gerados por estes sistemas (como funcionam os mecanismos de input e output).

· Analisar os processos de decisão implementados através do modelo.

· Executar e aconselhar no âmbito da Avaliação de Impacto sobre a Proteção de Dados (AIPD).

· Atualizar o registo das atividades de tratamento de dados pessoais do responsável pelo tratamento.

· Elaborar e implementar um inventário dos sistemas de IA generativa para assegurar um controlo e uma monitorização adequados.

· Assegurar a revisão e a conclusão dos acordos de tratamento de dados com os fornecedores de modelos, incluindo as obrigações relacionadas com a transferência de dados pessoais.

Apesar da avaliação caso a caso para as AIPD obrigatórias, os sistemas de IA generativa, devido à sua complexidade e potencial impacto, são os principais candidatos a essas avaliações. O CEPD esclarece que uma AIPD pode ser necessária quando "vão ser utilizadas novas tecnologias" ou quando a tecnologia é de um "novo tipo para o qual não foi efetuada uma avaliação prévia". A execução de uma AIPD pretende endereçar proactivamente as medidas técnicas e organizativas adequadas para atenuar os riscos e servir como um mecanismo adequado para garantir a transparência e a responsabilidade, fornecendo um registo claro da forma como os princípios da proteção de dados foram integrados no sistema de IA.

Adicionalmente, com base nas práticas atuais, os dados pessoais podem ser obtidos por modelos de IA generativa diretamente dos utilizadores, de fontes publicamente disponíveis na Internet, através de inputs para o sistema, através da inferência de novas informações ou através de terceiros. No contexto dos sistemas de IA generativa, a formação e a utilização destes sistemas envolvem normalmente o tratamento sistemático e em grande escala de dados pessoais. Estes dados são frequentemente tratados sem o conhecimento das pessoas cujos dados estão a ser utilizados. Por conseguinte, tendo em conta a forma como os sistemas de IA generativa são formados e as fontes de dados utilizados na formação, o tratamento de dados pessoais exige uma base de licitude legítima, nomeadamente:

· Obrigação legal ou no exercício da autoridade pública, clara e precisamente definida na legislação da UE.

· Consentimento, que deve ser cuidadosamente analisado. Se o consentimento for retirado, todas as operações de tratamento de dados baseadas nesse consentimento e efetuadas antes da retirada permanecem legais. No entanto, o responsável pelo tratamento deve cessar as operações de tratamento em causa. Se não existir outro fundamento jurídico que justifique o tratamento de dados, os dados em causa devem ser apagados.

· Os prestadores de serviços de modelos de IA generativa podem recorrer ao interesse legítimo, nomeadamente no que respeita à recolha de dados utilizados para desenvolver o sistema, incluindo os processos de treino e validação. Para este efeito, é necessário garantir um interesse legítimo, a necessidade do tratamento e o equilíbrio com os direitos do titular dos dados.

Ao integrar estas responsabilidades e estratégias, os EPD podem contribuir significativamente para a utilização fiável e cumpridora dos sistemas de IA generativa, promovendo uma cultura de proteção de dados e transparência no seio das organizações.

2. Princípios de minimização e exatidão dos dados em relação aos sistemas de IA

Nos termos do princípio da minimização dos dados, as Orientações do CEPD deixam claro que a obrigação das IUE, enquanto responsáveis pelo tratamento de dados, é limitar a recolha e o tratamento de dados pessoais ao necessário para os fins do tratamento. Por conseguinte, tal inclui as fases de teste, aceitação e colocação em funcionamento. A este respeito, os responsáveis pelo tratamento de dados pessoais devem tomar várias medidas para garantir o cumprimento deste princípio:

· O pessoal envolvido no desenvolvimento de modelos de IA generativa deve estar ciente dos procedimentos técnicos disponíveis para minimizar a utilização de dados pessoais.

· As IUE devem desenvolver e utilizar modelos treinados com conjuntos de dados que incluam o mínimo de dados pessoais necessários para cumprir o objetivo do tratamento.

· Os conjuntos de dados e modelos devem incluir documentação sobre a sua estrutura, manutenção e utilização prevista.

· As IUE devem incluir nas suas avaliações, considerações relacionadas com o princípio da minimização de dados quando utilizam sistemas concebidos ou operados por prestadores de serviços.

Por forma a respeitar o princípio da exatidão dos dados, as orientações do CEPD indicam que, no que diz respeito aos conjuntos de dados para treino dos modelos, as instituições da UE que atuam como responsáveis pelo tratamento devem verificar a estrutura e o conteúdo desses conjuntos de dados, mesmo que sejam obtidos de terceiros. Além disso, os resultados que contêm dados pessoais devem ser controlados, o que exige medidas de monitorização (como o controlo humano). Os programadores devem também utilizar conjuntos de validação durante os treinos e definir testes separados para a avaliação final, a fim de obter uma estimativa do desempenho do sistema.

A este respeito, as IUE que utilizem sistemas de IA generativa ou conjuntos de dados de treino, teste ou validação fornecidos por terceiros devem obter garantias contratuais e documentação relacionada com os procedimentos utilizados para assegurar o cumprimento do princípio da exatidão dos dados. Este é um princípio e uma prática relevantes a ter em consideração, especialmente no que diz respeito aos modelos, uma vez que estes podem originar resultados com informações inexatas ou falsas (também conhecidas como "alucinações").

As orientações do CEPD também recomendam a forma como as pessoas devem ser informadas sobre o tratamento de dados pessoais quando as IUE utilizam sistemas de IA generativa. Além disso, as IUE devem fornecer-lhes todas as informações exigidas em conformidade com o Regulamento, que incluem o seguinte:

· Políticas de informação e transparência que esclareçam as pessoas sobre como, quando e por que razão as IUE tratam dados pessoais em sistemas de IA generativa (incluindo informações sobre as atividades realizadas em cada fase do desenvolvimento e, se aplicável, o cumprimento de determinados requisitos adicionais de transparência específicos).

· Informações atualizadas sobre o funcionamento dos algoritmos utilizados e sobre os conjuntos de dados de tratamento, a fim de cumprir as obrigações de informação relacionadas com a definição de perfis e as decisões automatizadas.

3. Tomada de decisão automatizada

Por princípio, tanto no RGPD como no EUDPR, é proibida a tomada de decisões automatizada sem intervenção humana (incluindo a definição de perfis) que produza efeitos legais ou significativos nos titulares dos dados, com exceção dos casos em que exista uma necessidade contratual, consentimento e autorização da legislação da UE ou dos Estados-Membros. Em qualquer caso, estas exceções têm de ser apoiadas por medidas que salvaguardem os direitos e liberdades da pessoa em causa e não podem ser tratadas categorias especiais de dados a menos que haja um consentimento dado para o efeito.

Considera-se que nem todos os sistemas de IA generativa preenchem a definição de decisões automatizadas na aceção dos Regulamentos da UE relativos à proteção de dados, mas apenas aqueles que fornecem informações para a tomada de decisões obtidas por meios automatizados que envolvem a definição de perfis e/ou avaliações individuais. O CEPD salienta a importância de assegurar que sejam garantidas salvaguardas individuais, tais como o direito de obter intervenção humana, de expressar o seu ponto de vista e de contestar a decisão. Além disso, o CEPD alerta para os riscos únicos e os danos potenciais dos sistemas de IA generativa no contexto da tomada de decisões automatizada, em especial no que respeita às populações vulneráveis e às crianças. Também aconselha as instituições da UE a ponderarem cuidadosamente se devem utilizar esses sistemas se estes suscitarem dúvidas quanto à sua legalidade ou ao seu potencial de serem injustos, pouco éticos ou discriminatórios.

A questão do tratamento equitativo e da prevenção de preconceitos nos sistemas de IA generativa, que pode ter consequências adversas significativas para os direitos e liberdades fundamentais das pessoas, incluindo a discriminação, é também abordada pelo CEPD. A Autoridade identifica algumas das principais fontes de enviesamentos que podem surgir em qualquer fase do desenvolvimento de um sistema de IA generativa, como os dados de treino, os algoritmos ou os fatores humanos, e recomenda algumas das medidas e boas práticas que as IUE devem adotar e implementar para minimizar e atenuar os enviesamentos, tais como:

· Garantir uma representação adequada e justa do mundo real nos conjuntos de dados.

· Implementar mecanismos de responsabilização e controlo.

· Manter um registo rastreável das atividades de tratamento.

· Utilizar modelos de documentação técnica.

Adicionalmente, o CEPD recomenda que as IUE testem e monitorizem regularmente os resultados do sistema para detetar enviesamentos e que evitem confiar demasiado nos resultados fornecidos pelos sistemas, que podem conduzir a enviesamentos de automatização e de confirmação.

Também vale a pena mencionar os desafios relacionados com o exercício dos direitos individuais no contexto dos sistemas de IA generativa, tais como o direito de acesso, retificação, eliminação e oposição ao tratamento de dados. É evidente a dificuldade em identificar e aceder aos dados pessoais armazenados por um determinado modelo linguístico de IA de grande dimensão, especialmente quando são representados como vetores numéricos, através de um processo denominado de incorporação de palavras. Por conseguinte, e reconhecendo a complexidade da gestão da produção de dados pessoais obtidos por inferência e o possível impacto do exercício de certos direitos (como o direito à eliminação) na eficácia do modelo, o CEPD sugere que a gestão adequada dos conjuntos de dados e as técnicas de minimização de dados podem ajudar a atenuar os riscos relacionados com o exercício dos direitos individuais. O Comité recorda ainda às IUE a sua responsabilidade e obrigação de aplicar medidas técnicas, organizativas e processuais adequadas para garantir o exercício efetivo dos direitos individuais.

4. Segurança dos dados

Para concluir, o CEPD entende que a utilização de sistemas de IA generativa apresenta potenciais riscos de segurança para as pessoas. Deste modo, o Regulamento exige que as IUE apliquem medidas técnicas e organizativas adequadas para salvaguardar os direitos e liberdades das pessoas singulares.

As IUE (na qualidade de responsáveis pelo tratamento de dados pessoais) devem integrar controlos específicos adaptados às vulnerabilidades conhecidas desses sistemas. Estas devem utilizar apenas conjuntos de dados fiáveis que devem ser verificados regularmente. Além disso, as IUE devem formar o pessoal para lidar com os riscos relacionados com a IA e atualizar as avaliações de risco. Adicionalmente, conhecimentos avançados e técnicas como o "red teaming" podem ajudar a descobrir vulnerabilidades desconhecidas. Por último, ao utilizar a Geração Aumentada de Recuperação, é crucial testar se houve uma fuga de dados pessoais pelo sistema de IA.

Devido à falta de informação sobre o risco da IA generativa, as IUE devem ser extremamente cautelosas e monitorizar os aspetos relacionados com a segurança informática, incluindo ataques maliciosos de terceiros.