IA Responsável: entenda 7 pontos sobre o princípio

Redacao Maximiza Redacao Maximiza
IA Responsável: entenda 7 pontos sobre o princípio

A IA Responsável deve ser consciente, produtiva e também prezar pela confiança. Como empresas podem alcançá-la? Saiba como a Microsoft aplica suas governanças na prática;

A inteligência artificial está transformando rapidamente o mundo. Midjourney, DALL-E, ChatGPT, Stable Diffusion, Copilot; as ferramentas alimentadas por IA trazem empolgação e dúvidas ao analisar seus benefícios, particularmente porque a IA deve ser utilizada de forma responsável e ética. 

O que é IA Responsável? 

A IA Responsável é a prática de projetar, desenvolver e implantar uma inteligência artificial com a intenção de capacitar funcionários, impactar de forma justa clientes e a sociedade, além de gerar confiança às pessoas para que escalem a IA com confiança.

À medida que as organizações começaram a ampliar este uso para os benefícios de seus negócios, foi preciso criar regulamentações que garantem conformidade. É aí que a IA Responsável entra.

Ao pensar no desempenho de um modelo de IA, os profissionais hoje precisam pensar também no compromisso ético e nas implicações desses sistemas nos contextos reais e práticos. 

Como garantir responsabilidade e compromisso ético em um sistema artificial?

Natasha Crampton, diretora deste departamento na Microsoft, contou em entrevista, que é preciso ouvir diferentes perspectivas sobre o que é importante quando tratamos de IA. 

Sua equipe trabalha para garantir que a abordagem responsável, tanto no desenvolvimento quanto na implantação da tecnologia, esteja no centro da mudança e na forma como a utilizamos. Aqui estão suas 7 ideias-chave para aplicar uma IA Responsável:

1. Sistemas de AI devem ser seguros e respeitar a privacidade

Os sistemas de AI devem ser seguros e respeitar a privacidade. Por isso, Natasha fala que muitas questões precisam ser discutidas. Desde 2017, quando a Microsoft estabeleceu o comitê Aether (acrônimo para IA, Ética e Efeitos em Engenharia e Pesquisa), a abordagem abrangente à IA Responsável é aplicada pela empresa.

Assim como os conceitos de Privacidade, Acessibilidade e Segurança, a prática vem sendo aperfeiçoada para utilizar os princípios com responsabilidade na prática. 

Equipes de engenharia recebem orientações concretas sobre como cumprir esses princípios e os aprendizados são compartilhados com clientes e com a sociedade em geral.

2. Transparência e responsabilidade são fundamentais ao design de IA 

Os sistemas de AI devem funcionar de forma confiável. Os modelos não podem seguir padrões incompreensíveis e lógicas difíceis. Isso facilita até mesmo a conformidade com as leis e evita problemas judiciais. O ideal é sempre operar de maneira muito clara e precisa. 

Em 2022, um novo modelo empolgante de OpenAI foi testado pela Microsoft para possíveis danos em um contexto de pesquisa na web. Em seguida, foram desenvolvidas abordagens sistemáticas para entender os principais desafios dessa tecnologia — um exemplo era a ‘alucinação’, onde o modelo inventava fatos que não são realmente verdadeiros. 

Após descobrir como medir e mitigá-los, o produto foi projetado com os controles da IA Responsável em todo seu núcleo; hoje isso é parte inerente. 

“Sabíamos que haveria novos desafios, então projetamos a estratégia para aprender com os primeiros usuários. Isso nos ajudou a tornar o produto mais forte. Através desse processo, colocamos novas mitigações em prática e continuamos a evoluir a abordagem”, comenta a diretora.

3. Governançaos resultados da pesquisa devem ser fundamentados

Os sistemas de AI devem ser compreensíveis. Natasha fala que as alucinações são um problema conhecido nos grandes modelos de linguagem em geral. A Microsoft o aborda para garantir que o modelo esteja fundamentado nos resultados da pesquisa. Isso significa que a resposta fornecida à consulta de um usuário estará centrada em um conteúdo de alto nível da web.

4. Inclusão: o padrão de IA Responsável deve ser destinado ao uso de todos

Os sistemas de AI devem capacitar a todos e envolver as pessoas. Em junho de 2022, a Microsoft decidiu publicar seu padrão de IA Responsável. Normalmente padrões internos não são divulgados para o público em geral, mas a empresa acreditou que era importante compartilhar os aprendizados neste contexto e ajudar clientes e parceiros a navegar pelo novo terreno. 

As ferramentas de identificação, medição e mitigação dos desafios responsáveis de IA, foram disponibilizadas na plataforma de desenvolvimento de aprendizado de máquina (ML) Azure para que clientes começassem a usá-las em seu benefício. 

Em alguns dos novos produtos construídos no OpenAI, um sistema de segurança também foi incluído para que os clientes pudessem aproveitar a inovação, em vez de construir toda a tecnologia do zero, capacitando-os a tomarem decisões mais responsáveis de implantação.

5. Diversos pontos de vista são fundamentais para garantir a IA Responsável

As pessoas devem ser responsáveis pelos sistemas de AI.

“A IA Responsável é incrivelmente multidisciplinar, e eu adoro isso. Eu trabalho com pesquisadores, como a equipe do Laboratório de Pesquisa da Microsoft UK em Cambridge, engenheiros e políticos. É crucial que tenhamos diversas perspectivas aplicadas, para que possamos avançar de maneira responsável”, Natasha comenta.

É preciso construir uma IA ética e reflexiva, que tenha a capacidade de tomar decisões com base em valores morais. Não são só as pessoas da Microsoft que tomam as decisões na construção dessa tecnologia.

Perspectivas externas, seja por meio de pesquisa de usuários ou diálogos contínuos com grupos, são essenciais para as experiências. Um diálogo aberto com as pessoas que a estão usando e sentindo os impactos dela em suas vidas é imprescindível para cooperar com todo o processo.

A Microsoft busca, em colaboração com pesquisadores e acadêmicos de todo o mundo, promover práticas e tecnologias de AI responsável;

6. IA é uma tecnologia construída por humanos, para humanos

Os sistemas de AI devem tratar todas as pessoas de forma justa. É preciso construir tecnologia por humanos, para humanos. Devemos realmente olhar para isso como uma ferramenta para amplificar o nosso potencial, não como um substituto. 

A IA pode ajudar a lidar com grandes quantidades de informações, acompanhar desenvolvimentos de tarefas, desenvolver novas práticas, resumir documentos, por isso, seus impactos devem ser pensados. Nesse sentido, isso inclui transparência, governança, segurança, imparcialidade.

7. A IA Responsável é um trabalho contínuo

De maneira geral, a IA é algo bem recente. Naturalmente, há uma série de questões com as quais estamos lidando pela primeira vez. Ainda há muitas perguntas e pesquisas a fazer e nem sempre temos as respostas. Precisaremos olhar para isso continuamente e, com o tempo, seremos capazes de construir novos padrões. 

Um ecossistema de IA Responsável como o da Microsoft é forte por combinar pesquisa, política e engenharia. É essa abordagem que ajuda antecipar o que está por vir.

Definir as regras para que todas as empresas estabeleçam a AI responsável, bem como definir funções e responsabilidades para as equipes envolvidas neste esforço, é um trabalho contínuo, assim como a evolução das ferramentas.

Integração da IA ética: 3 dicas para começar 

Como garantir que a IA responsável faça parte de sua estratégia, tenha um impacto positivo duradouro e capacite a equipe? Aqui estão as três principais dicas de Natasha: 

  1. Pense profundamente sobre o uso. Pergunte a si mesmo, quais são os benefícios que você garante? Quais são os possíveis danos que você pode evitar? Fazer uma Avaliação de Impacto é um passo muito útil no desenvolvimento de um produto inicial. 
  2. Monte uma equipe diversificada para ajudar a testar o produto antes do lançamento e de forma contínua.Técnicas como o red-teaming podem ajudar a ultrapassar os limites de seus sistemas e ver o quão eficazes são suas proteções.
  3. Esteja comprometido com o aprendizado e a melhoria contínua. Uma estratégia de lançamento incremental ajuda você a aprender e se adaptar rapidamente. Certifique-se de ter fortes canais de feedback e recursos para melhorias.

O futuro dos seus negócios com Copilot

Assim como no Microsoft 365, o Copilot no Microsoft Viva é construído com IA Responsável. O sistema possui todas estas políticas de segurança, conformidade e privacidade de dados. Para colocar em prática, tirar dúvidas sobre IA e testar o desempenho destas soluções, entre em contato conosco agora mesmo. 

Veja também

Copilot no OneDrive transforma a maneira como você interage com seus arquivos

Copilot no OneDrive transforma a maneira como você interage com seus arquivos

O Copilot no OneDrive começará a ser implementado no final de abril de 2024. O novo recurso chega para transformar…

CONTINUE LENDO
5 maneiras de usar IA para potencializar sua PME

5 maneiras de usar IA para potencializar sua PME

Grande porcentagem das pequenas empresas (PME) que utilizam ferramentas de IA vêem melhorias na eficiência, rentabilidade e competitividade; Um recente…

CONTINUE LENDO
Microsoft Copilot for Security: revolucione sua defesa cibernética com IA

Microsoft Copilot for Security: revolucione sua defesa cibernética com IA

Ao colocar o poder da IA ​​em 1º plano, o Microsoft Copilot for Security fornece recursos valiosos para as equipes…

CONTINUE LENDO