"Nenhuma tecnologia pode substituir o humano, deve existir para assistir o humano e deve existir para o bem da Humanidade", até porque "nós somos os utilizadores", salienta a professora da Universidade de Lisboa e INESC-ID.

A tecnologia, como a inteligência artificial (IA), "deve ser para poder ajudar-nos nas tarefas mais chatas e aborrecidas que possam existir ou a analisar muitos dados que não temos capacidade para o fazer, mas não os substituir naquilo que somos nós, que somos humanos, que somos seres sociais, que vimos de uma determinada zona, que temos determinadas características", considera a académica.

Agora, a tecnologia, como qualquer outra ferramenta, pode ser usada para o bem ou para o mal. Por exemplo, a IA traz vantagens, mas também está a sofisticar a forma como a desinformação é elaborada.

"A questão é saber como utilizar e como ensinar as pessoas a ter espírito crítico e distanciamento e não o imediato", sublinha.

Ou seja, "eu tenho que me distanciar um pouco e perceber se aquela informação faz sentido (...), onde existem as fontes que suportam aquela informação, como é que eu verifico essa informação", e este é um trabalho feito, por exemplo, pelos jornalistas, professores "e um trabalho que também temos de instigar muito nas indústrias, nas escolas, na sociedade civil", prossegue.

Admitindo que "não é fácil, por vezes, ver que é uma notícia falsa", Helena Moniz defende que "é preciso ter um cuidado especial", dando como exemplo o "treino do jornalista" neste âmbito.

"Se não houver autonomia humana seremos meros papagaios do que estes sistemas fazem, e nós não queremos ser isso."

"O professor terá mais dificuldade, só se conhecer muito bem a área, e nós temos de juntar esses esforços multidisciplinares, esses olhares multidisciplinares para poder perceber" e dar recomendações sobre o que é uma notícia falsa, quais são as suas características.

"Eu posso ensinar os meus alunos a perceber: isto é um artigo científico falso, não faz sentido nenhum - e já existem vários feitos com ChatGPT que são completamente falsos, são fabricados a 100% - e posso ensinar os meus alunos descobrir" como é que isso é detetado, exemplifica.

Contudo, "eu preciso desse conhecimento, desse distanciamento, desse espírito crítico", sublinha.

Para a professora e coordenadora do projeto Bridge AI - que está a olhar para implementação da regulação europeia da IA - "está a faltar muito desenvolver esse espírito crítico desde o ensino básico ao pré-escolar até universitário ou fora do ensino".

Até "porque nós precisamos de perceber que estas tecnologias falham, alucinam, dão informação errada, porque elas estão a tentar predizer a próxima palavra com base em frequências, isso nem sempre corre bem", aponta.

Helena Moniz recorda que já havia modelos de IA parecidos com o ChatGPT, "só que chegou às mãos de todos" os que têm acesso ao computador.

"Não chegou a todos os cidadãos do mundo, não chegou a sul global, de certeza, a todos, mas chegou a norte global de todos, quase de certeza" e a "ideia de que esta tecnologia [IA] está nas mãos de todos sem que o cidadão saiba como muitas vezes a utilizar cria medos" é um desafio, já que todos devem conhecer os seus benefícios e as precauções a tomar.

"Eu utilizo esta tecnologia com os meus alunos nas aulas, eles utilizam vários modelos de linguagem de grande dimensão, interagem com sistemas de reconhecimento de fala, interagem com vários desses sistemas de inteligência artificial e de tradução automática, mas eles têm que perceber que há benefícios e que há riscos e que há sempre uma coisa muito importante: agência e autonomia", exemplifica.

Até porque "se não houver agência e autonomia humana seremos meros papagaios do que estes sistemas fazem, e nós não queremos ser isso", sublinha.

Apesar de todos os receios sobre o uso da IA, "há descobertas fantásticas recentes na área da química, biologia, medicina porque a possibilidade de olhar para padrões com gigantescas quantidades de dados é permitida com estes sistemas ou até na área de alterações climáticas, quando se tenta perceber os padrões do clima com a componente da agricultura", refere.

Estas tecnologias "são excelentes (...) a perceber esses padrões, a tratar gigantescas quantidades de informação, não são nada boas, por exemplo, na minha área de tradução, na criatividade, na idiossincrasia, na adaptação cultural, na adaptação interlocutor", remata Helena Moniz.

Bridge AI apresenta recomendações sobre inteligência artificial em outubro

As conclusões preliminares do projeto Bridge AI vão ser apresentadas em outubro e a sua coordenadora, Helena Moniz.

O Bridge AI nasceu da vontade de três jovens gestores de ciência: António e Nuno André, da Unbabel, e Joana Lamego, da Fundação Champalimaud, num projeto liderado por Helena Moniz, com a ambição de colocar Portugal na vanguarda da implementação do regulamento europeu de inteligência artificial (AI Act).

"São conclusões preliminares, vão ser apresentadas ao público em geral [em 19 de outubro], temos vários nomes já convidados nacionais e internacionais, com perspetivas muito diversas, também multidisciplinares, porque queremos a discussão dessas ideias e enriquecer com os contributos da comunidade as nossas ideias para não estar fechado sobre o próprio projeto e ter esse enriquecimento, esse 'feedback da própria comunidade e da sociedade civil também", diz, em entrevista à Lusa, Helena Moniz.

Este projeto surgiu do facto dos três jovens gestores de ciência não quererem sair do país: "Queriam trabalhar para um bem maior e nasceu da energia deles, fui contagiada por essa energia e submetemos a proposta para a primeira 'call' da Fundação para a Ciência e Tecnologia em antecipar a legislação em inteligência artificial [IA]", aponta.

Aliás, "fomos o único projeto que vingou nesta proposta. Chamámos outros que não vingaram, juntámos as várias vozes e temos um grupo de especialistas muito diverso, muito eclético e muito multidisciplinar a olhar para como implementar o 'european AI Act' através da ética, da literacia e do direito, mas sempre os três em conjunto".

Este é um projeto "bastante pioneiro, isso foi reconhecido na nossa reunião com o 'european AI Office' [gabinete europeu para a IA]. Acharam muito interessante o facto de haver um projeto piloto num Estado-membro, Portugal neste caso, que possa fazer essas recomendações, que traga alertas, que dê sugestões e muito com base em casos reais, em casos de estudo reais da indústria", prossegue Helena Moniz.

"Estamos a perder muito talento nas áreas de inteligência artificial"

Nesse sentido, o Bridge AI está a analisar casos de saúde, finanças, turismo, por exemplo, "para poder depois perceber como é que estes casos podem trazer ou não riscos e como antecipar estes riscos".

Na conferência Bridge AI de outubro, que terá lugar na Fundação Champalimaud, "vamos fazer várias recomendações", refere a coordenadora.

"Eu ficaria muito feliz se pelo menos três delas (...) se concretizassem mesmo, fossem reais", afirma Helena Moniz quando questionada sobre a sua expectativa.

Se tivesse "impacto na vida do cidadão em Trás-os-Montes, nos Açores, em Sagres ou Guarda, para mim traria uma enorme felicidade" ou se fosse dito que "criámos e ajudámos a criar módulos de inteligência artificial que podem efetivamente ser aplicados nas escolas ou no passaporte de competências digitais da Câmara de Lisboa, com quem também já falámos, ou que a AMA [Agência para a Modernização Administrativa] veja sentido nas atualizações do guia como nos pediu".

Se, no fundo, "conseguíssemos trazer estas pequenas amostras, mostraríamos que um projeto piloto é capaz de concretizar", reforça a responsável.

Helena Moniz adianta que tem havido conversas com várias entidades públicas, da AMA, passando pela Autoridade Nacional de Comunicações (Anacom), o Centro Nacional de Cibersegurança, bem como com o gabinete europeu para a IA.

Além disso, "tivemos também com as secretarias de Estado da Ciência e da Modernização e Digitalização, de todos recebemos pedidos concretos e tivemos em conta estes pedidos. Levámos estes pedidos para as reuniões de cada grupo para que houvesse resposta a esses pedidos", prossegue.

Portanto, "as nossas recomendações vão no sentido das conversas todas que tivemos no parlamento e com todos os organismos e tentar criar recomendações que sejam fazíveis, concretas, com desafio enorme de adaptar a indústria, a sociedade civil e a administração".

E estas recomendações não podem acabar aqui, têm de ter continuidade.

"Não se consegue fazer uma medida pontual, ela tem que ter uma estratégia a médio prazo. E esta estratégia passa pelo Estado português perceber como investir nestas áreas e que medidas tomar, estamos a perder muito talento nas áreas de inteligência artificial", remata.

Constituído em 2023 e coordenado pelo Instituto de Engenharia de Sistemas e Computadores - Investigação e Desenvolvimento (INESC-ID), o projeto Bridge AI envolve dezenas de parceiros, entre os quais a Fundação Champalimaud e a Unbabel, o Alan Turing Institute e membros do AI Advisory Board das Nações Unidas e das Nações Unidas.

O projeto tem cinco grupos de trabalho: instrumentos de avaliação de risco; ética da IA nos processos de regulamentação; implementação do IA Act; formação avançada e literacia em IA; e iniciativas fora da UE.

*Por Alexandra Luís, da agência Lusa