Contents

O que é a regulamentação da IA? Quem deve regulamentar a IA?

Conclusões principais

À luz dos desenvolvimentos contínuos das vulnerabilidades da cibersegurança e das preocupações com a privacidade, é imperativo que a inteligência artificial seja sujeita a uma supervisão mais rigorosa.

Para regular efetivamente a inteligência artificial, é importante que várias partes interessadas, incluindo governos, empresas de tecnologia e indivíduos, assumam a responsabilidade. No entanto, existem condicionalismos inerentes a cada uma destas abordagens que devem ser considerados.

A regulamentação da IA é um esforço de colaboração que envolve várias partes interessadas, incluindo meios de comunicação social, organizações sem fins lucrativos, associações da indústria tecnológica, instituições académicas e agências de aplicação da lei. Estas entidades desempenham um papel importante na garantia de um desenvolvimento e implementação responsáveis das tecnologias de inteligência artificial, ao mesmo tempo que abordam potenciais preocupações éticas e implicações legais.

Embora exista uma diversidade de perspectivas entre a população em geral no que diz respeito à inteligência artificial, alguns indivíduos defendem que as máquinas acabarão por suplantar totalmente o trabalho humano, enquanto outros afirmam que a IA representa apenas uma tendência passageira. No entanto, parece haver um consenso de que é necessário aumentar a supervisão e a regulamentação da IA.

Apesar da importância primordial da implementação de medidas regulamentares no domínio da inteligência artificial, a procura do desenvolvimento de modelos cada vez mais avançados ofuscou as preocupações relativas à sua governação. De facto, os criadores estão tão empenhados em construir o próximo sistema de IA inovador que, infelizmente, comprometeram a cibersegurança na sua busca de progresso. A questão central em causa não é se a IA necessita ou não de supervisão, mas sim que entidade governamental, dotada de recursos financeiros, pessoal e capacidades técnicas suficientes, deverá assumir a responsabilidade de estabelecer directrizes e de as fazer cumprir.

Então, quem deve regular a IA?

Organismos governamentais

/pt/images/government-institution-building.jpg

O sentimento em relação à regulamentação da IA transcende vários sectores, com indivíduos que vão desde cidadãos comuns a pioneiros tecnológicos proeminentes a defenderem a intervenção do governo. Mesmo figuras proeminentes como Elon Musk e Sam Altman, que são influentes na formação do panorama da IA, reconhecem que certas questões de privacidade associadas à inteligência artificial merecem a atenção das autoridades reguladoras.

Para que um organismo governamental regule efetivamente a inteligência artificial, é imperativo que dê prioridade à salvaguarda dos direitos de privacidade e das liberdades civis dos seus cidadãos. Infelizmente, os cibercriminosos estão continuamente a conceber novos métodos para tirar partido das vulnerabilidades dos sistemas de IA. Consequentemente, os indivíduos com conhecimentos limitados sobre IA podem ser susceptíveis de manipulação através da utilização de tecnologias avançadas, como o discurso sintético, deepfakes e personas online automatizadas.

Embora existam preocupações válidas relativamente às potenciais consequências negativas dos sistemas de IA, é importante considerar as implicações mais amplas de uma maior supervisão governamental sobre o avanço tecnológico. Uma possível desvantagem da intervenção regulamentar é o risco de impedir involuntariamente a inovação, impondo restrições ou requisitos que podem não ser totalmente compreendidos pelos responsáveis pela supervisão do desenvolvimento, implantação e formação destes sistemas. Dada a complexidade e a natureza em rápida mudança da inteligência artificial, quaisquer tentativas de regulamentação devem encontrar um equilíbrio delicado entre a proteção contra resultados prejudiciais e a promoção da evolução contínua deste campo inovador.

Programadores de IA, empresas de tecnologia e laboratórios

/pt/images/two-researchers-training-robot-arm.jpg

Dada a possibilidade de obstruções decorrentes da vigilância governamental sobre as tecnologias de IA, algumas pessoas preferem que as empresas de tecnologia assumam a responsabilidade pela regulamentação dos seus próprios produtos. Esta abordagem permite que os criadores se concentrem na promoção da inovação, garantindo simultaneamente um progresso eficiente no desenvolvimento desses sistemas.

Com efeito, a sua profunda compreensão da inteligência artificial permite-lhes formular políticas equitativas e bem informadas que equilibram a proteção dos utilizadores, preservando simultaneamente a eficiência operacional. A este respeito, a especialização num determinado domínio é vital para uma supervisão eficaz. A nomeação de autoridades não qualificadas para supervisionar as tecnologias avançadas pode introduzir complicações adicionais em vez de proporcionar vantagens substanciais.

Tomemos como exemplo a audiência de 2018 no Senado dos EUA sobre as leis de privacidade de dados do Facebook. Neste relatório do The Washington Post , você verá que muitos legisladores estão confusos com as funções básicas do Facebook. Portanto, a menos que o Senado dos EUA crie um departamento exclusivo de especialistas em tecnologia, eles provavelmente não estão qualificados para regular um sistema tão avançado e em constante mudança como a IA.

Uma preocupação potencial em relação à autorregulação por empresas de tecnologia é a possibilidade de organizações inescrupulosas tirarem proveito de sua autoridade sem supervisão externa.A ausência de uma terceira parte mediadora permite que essas entidades actuem com relativa impunidade e prossigam os seus próprios interesses à custa da proteção do consumidor ou de considerações éticas.

Utilizadores finais

/pt/images/mobile-chatgpt-app.jpg

Existe a preocupação de que tanto as organizações públicas como as privadas possam utilizar indevidamente sistemas avançados de inteligência artificial. A noção de confiar a um número limitado de autoridades reguladoras o poder absoluto sobre estas tecnologias potentes suscita apreensão, especialmente tendo em conta as actuais fases de desenvolvimento da IA. Teme-se que possam surgir disputas de jurisdição entre estes órgãos de governação, potencialmente impedindo a governação cooperativa em favor de interesses conflituosos.

Para atenuar estas potenciais armadilhas, os defensores de uma abordagem de laissez-faire argumentam que os indivíduos devem ter autonomia ilimitada na utilização dos sistemas de inteligência artificial como entenderem. Defendem que as agências reguladoras devem limitar o seu envolvimento apenas aos casos em que os utilizadores de IA transgridam os limites legais. Esta aspiração pode parecer elevada, mas é teoricamente viável se os criadores de IA de código aberto exercerem uma influência significativa sobre a indústria.

De facto, a configuração atual coloca desafios para quem não tem conhecimentos técnicos. A responsabilidade de estabelecer limitações recai sobre os utilizadores, embora nem todos possuam os meios ou as capacidades necessárias para realizar tais tarefas.

É igualmente míope eliminar da circulação os modelos de IA proprietários. A propagação de modelos de IA de código aberto apresenta um resultado de dupla face, pois exibe vantagens e desvantagens que variam em magnitude para diferentes indivíduos ou organizações. Para certas entidades, os deméritos podem ultrapassar os méritos.

Outras Entidades que Desempenham um Papel na Regulamentação da IA

Embora a responsabilidade primária pela supervisão e regulamentação da inteligência artificial (IA) recaia sobre as principais organizações e instituições, uma série de outros actores importantes também contribuem significativamente para este processo:

Meios de comunicação social

/pt/images/media-news-reporter.jpg

Os meios de comunicação social ocupam uma posição central na formação da perspetiva da população em geral sobre a inteligência artificial. Através das suas reportagens, divulgam informações sobre os avanços no sector, introduzem inovações tecnológicas, aumentam a consciência pública sobre as aplicações prejudiciais da IA e facilitam debates com os principais especialistas sobre questões pertinentes.

A divulgação de informações incorrectas sobre a inteligência artificial é uma preocupação significativa, uma vez que provém principalmente de fontes mediáticas.A propagação não intencional de falsidades pode ter consequências graves e deve ser evitada a todo o custo devido à rapidez com que essa desinformação prolifera.

Organizações não governamentais

Várias organizações sem fins lucrativos concentram os seus esforços na salvaguarda dos direitos de privacidade e das liberdades civis dos indivíduos que utilizam tecnologia de inteligência artificial. Estas organizações fornecem materiais educativos sem custos para o público em geral, defendem novas iniciativas políticas, colaboram com representantes governamentais e sensibilizam para questões frequentemente negligenciadas relacionadas com a utilização da IA.

Um dos principais desafios enfrentados pelas organizações sem fins lucrativos (OSFL) é a sua disponibilidade limitada de recursos. Como estas entidades não estão filiadas em nenhum organismo governamental, têm de depender de contribuições e apelos privados para manterem as suas funções de rotina. Infelizmente, apenas um número mínimo destas organizações recebe apoio financeiro suficiente.

Associações da indústria tecnológica

As organizações da indústria tecnológica centradas na inteligência artificial têm a capacidade de defender o bem-estar da sociedade, defendendo os direitos e os melhores interesses do público em geral. Estas entidades funcionam de forma semelhante às organizações sem fins lucrativos (NPOs), colaborando com os legisladores para promover políticas equitativas, representando as preocupações dos indivíduos afectados e sensibilizando-os para questões pertinentes.

Embora ambas as categorias de grupos de angariação de fundos possam realizar actividades de angariação, existe uma distinção entre elas em termos das suas afiliações com entidades privadas. Os membros pertencentes a este último grupo recebem normalmente apoio financeiro suficiente das empresas ou instituições a que estão associados, desde que atinjam os resultados desejados nos seus esforços de angariação de fundos.

Instituições académicas

/pt/images/school-university-large-classroom.jpg

Embora a inteligência artificial apresente uma série de riscos potenciais, continua a ser fundamentalmente imparcial. A origem de todos os preconceitos, preocupações com a privacidade, lapsos de segurança e suscetibilidade a actividades cibercriminosas pode ser atribuída a acções humanas e não a qualquer caraterística intrínseca da própria IA. Por conseguinte, seria incorreto caraterizar a IA como uma entidade que deve inspirar medo ou apreensão.

Embora a compreensão dos modelos contemporâneos de inteligência artificial seja limitada a um número restrito de pessoas, as crenças erróneas em torno destas tecnologias contribuem para perspectivas distorcidas sobre a IA e para ansiedades infundadas em relação ao seu potencial impacto na sociedade, tais como preocupações sobre a possibilidade de a IA suplantar os seres humanos ou de eliminar oportunidades de emprego.

As instituições académicas têm um papel crucial a desempenhar na resolução das lacunas de conhecimento identificadas, fornecendo recursos facilmente acessíveis. Embora ainda exista um número limitado de publicações académicas disponíveis sobre os grandes modelos de linguagem (LLM) e os sistemas de processamento de linguagem natural (PNL) contemporâneos, a sensibilização para uma utilização responsável da IA e o combate à cibercriminalidade exigem uma compreensão abrangente dos seus mecanismos subjacentes.

Agências de aplicação da lei

A crescente prevalência de modelos generativos conduziu a um aumento da utilização da inteligência artificial em ciberataques por parte de criminosos. Estes ataques podem envolver a criação de gravações de voz falsas, imagens manipuladas, conhecidas como “deepfakes”, e a recolha de informações de identificação pessoal para fins maliciosos. Além disso, estes atacantes podem também criar personas online completamente fabricadas para enganar vítimas desprevenidas.

Muitas agências de aplicação da lei não dispõem dos recursos e conhecimentos necessários para combater eficazmente os cibercrimes contemporâneos. Para melhorar a sua capacidade de prender os autores de tais crimes, é essencial que implementem tecnologia de ponta e dêem formação abrangente ao seu pessoal sobre os últimos desenvolvimentos da atividade criminosa digital. Se não o fizerem, poderão ver diminuída a sua capacidade de capturar os culpados e de proteger a sociedade.

O futuro da regulamentação da IA

Dado o ritmo acelerado do progresso tecnológico no domínio da Inteligência Artificial, seria difícil para uma única autoridade reguladora exercer a supervisão e a governação do seu desenvolvimento e aplicação. Embora seja de esperar que os líderes tecnológicos exerçam maior influência do que os utilizadores finais, a gestão eficaz dos riscos potenciais da IA exige a colaboração de várias partes interessadas. Para evitar que consequências indesejadas prejudiquem a inovação, é prudente estabelecer directrizes e protocolos nesta fase inicial, em que a perspetiva de alcançar a Inteligência Artificial Geral continua a ser especulativa.

Embora o quadro regulamentar para a inteligência artificial permaneça na sua fase inicial, correspondendo ao nível de avanço alcançado pela Inteligência Artificial Geral (AGI), é imperativo que os indivíduos adoptem medidas prudentes para combater os potenciais riscos associados às ameaças baseadas na IA. Ao aderir a protocolos de segurança básicos, como a restrição do acesso a informações pessoais e a limitação das ligações em redes virtuais, os utilizadores podem atenuar eficazmente estes perigos.