E os profissionais qualificados tornam-se peça central na nova economia digital
Num contexto de crescimento acelerado do investimento global em cibersegurança — que deverá atingir os 213 mil milhões de dólares em 2025, segundo previsões da IDC — a União Europeia está a consolidar o seu enquadramento regulatório para garantir que a Inteligência Artificial evolui com segurança, responsabilidade e transparência.
O novo AI Act (Regulamento 2024/1689) coloca a Europa na vanguarda da governação ética da IA — e estabelece obrigações concretas para organizações públicas e privadas em toda a cadeia de valor.
Este cenário traz uma nova urgência: a necessidade de profissionais qualificados que compreendam não apenas o potencial da IA, mas também as suas implicações legais, operacionais e éticas.
O que está em causa com o AI Act?
O AI Act é o primeiro regulamento horizontal da União Europeia sobre Inteligência Artificial.
Os seus principais objetivos incluem:
- Proibir sistemas de IA inaceitáveis (ex: scoring social, manipulação comportamental)
- Regular sistemas de alto risco (ex: IA aplicada à saúde, transportes, finanças, educação ou justiça)
- Exigir avaliação, transparência e controlo sobre sistemas integrados em produtos ou serviços críticos
- Atribuir responsabilidades claras a fornecedores, importadores, distribuidores e utilizadores
- Criar um novo mercado para auditores, avaliadores de conformidade e responsáveis pela governação de IA
O AI Act entra em vigor de forma faseada — mas as empresas precisam de começar a preparar-se já.
O investimento global cresce — e a exposição também
Com o mundo a investir cada vez mais em cibersegurança, cloud e automação inteligente, a Europa dá um passo decisivo ao exigir que as soluções de IA sejam passíveis de auditoria, explicáveis e alinhadas com valores democráticos.
As organizações vão precisar de:
- Implementadores e auditores qualificados em IA
- Gestores de risco e conformidade capazes de aplicar o AI Act
- Equipas com literacia digital, jurídica, técnica e ética em IA
Como a Behaviour está a preparar os profissionais do futuro
A Behaviour é pioneira em Portugal na criação de um programa de formação estruturado em Inteligência Artificial com base em normas internacionais e legislação europeia.
Todos os cursos são práticos, orientados à aplicação profissional e atualizados com o AI Act, ISO/IEC 42001 e os princípios da governação responsável da IA.
Cursos disponíveis:
- AI Act – Foundation
Curso introdutório sobre o Regulamento Europeu da IA (2024/1689)
Para profissionais de IT, compliance, jurídico, segurança ou gestão que precisem de compreender o impacto do novo regulamento europeu. - ISO/IEC 42001 – Foundation
Primeiro curso em Portugal sobre a norma ISO/IEC 42001 – Sistemas de Gestão da Inteligência Artificial
Aborda requisitos técnicos, princípios éticos, controlos organizacionais e estrutura de governação. - ISO/IEC 42001 – Lead Implementer
Curso avançado e prático para quem vai liderar a implementação da norma ISO/IEC 42001 numa organização.
Inclui gestão de risco, ética aplicada, governação, controlos técnicos e planos de resposta. - ISO/IEC 42001 – Lead Auditor
Preparação completa para conduzir auditorias a sistemas de gestão de IA com base na ISO/IEC 42001.
Inclui técnicas de auditoria, análise de evidência, simulações e ligação prática com o AI Act.
Para quem são estes cursos?
- Profissionais de IT, segurança da informação e gestão de risco
- Juristas e compliance officers
- Consultores e implementadores de sistemas de IA
- Auditores de sistemas, qualidade, ESG e cibersegurança
- Gestores de inovação, transformação digital e ética organizacional
A Inteligência Artificial já está nas organizações.
Agora, tem de estar também nas mãos de quem a sabe governar, implementar e auditar com responsabilidade.
Com a Behaviour, os profissionais preparam-se com conhecimento técnico, visão estratégica e ligação direta às exigências da União Europeia.
Porque o futuro da IA não é apenas uma questão de inovação — é uma questão de confiança.
Autor: Behaviour
Não é autorizada a cópia ou reprodução deste artigo.