Para quem vive de construir confiança, entender como a Inteligência Artificial trata dados de doadores deixou de ser assunto técnico de TI e virou tema de reputação, receita e conformidade. Um vazamento ou um uso indevido de informações pessoais pode derrubar anos de relacionamento, travar parcerias e expor a organização a riscos legais. Já um uso bem governado da IA acelera rotinas (redação, análise de dados, atendimento), sem abrir brecha para exposição de informações pessoais identificáveis, como nome completo, e-mail e número de documento.
Esse foi o recado central da sessão “Building a mission-aligned AI policy and implementation plan” (Sem manual, sem problema: como criar uma política de IA alinhada à missão e um plano de implementação), apresentada por Martin Bout (CFRE), Kim Reeves e David Schroeder, da organização estadunidense United Way of Central Indiana, durante o Fundraising.AI Global Summit: Amplify Impact, evento global focado no uso de IA por organizações sem fins lucrativos.
O que a organização fez
Uma das descobertas centrais do grupo foi o uso disseminado de ferramentas de IA entre os funcionários da organização: 46 diferentes formas de uso e 18 plataformas distintas, sendo o ChatGPT a mais popular. Diante disso, os riscos rapidamente se tornaram evidentes. “O uso da IA não pode comprometer nossos valores e missão. O principal risco identificado foi a privacidade, segurança e confidencialidade dos dados”, afirmou David Schroeder, diretor de Pesquisa e Análise de Captação da instituição.
A equipe destacou que lida com dados sensíveis de doadores e de representantes do poder público. Qualquer vazamento ou uso inadequado poderia afetar diretamente a reputação da entidade e, principalmente, comprometer a confiança dos doadores e parceiros. Por isso, uma das regras mais claras da política da organização é: nunca insira dados pessoais ou identificáveis de doadores em plataformas públicas como o ChatGPT gratuito.
A política adotada pelo United Way não se baseia em listas de “pode” e “não pode”, mas sim em uma estrutura com três níveis:
- Uso aceitável: em conformidade com leis e regulamentos. Aqui, a regra é clara: proteger a privacidade dos dados e manter informações pessoais sob sigilo absoluto.
- Uso responsável: vai além do legal e busca mitigar riscos como viés algorítmico, imprecisão e uso indevido de propriedade intelectual. Exige que todas as produções feitas com IA passem por revisão humana e que haja transparência — conteúdos gerados com IA são identificados como tal.
- Uso benéfico: é o mais avançado e aspiracional. Envolve aplicar a IA para ampliar o impacto da organização, com atenção à inclusão, sustentabilidade e inovação — sempre promovendo confiança, e não apenas evitando riscos.
Segundo Martin Bout, líder de grandes doações da entidade, esse modelo ajudou a engajar até mesmo colaboradores céticos. “Uma colega que era totalmente contra o uso de IA veio nos procurar com propostas para aplicá-la em seu trabalho. A política deu segurança para que ela acreditasse que estamos usando essas ferramentas com responsabilidade”, relatou.
Implementação com foco na cultura organizacional
A política foi construída com apoio do conselho da organização, comitês internos e uma força-tarefa multidisciplinar, composta por pessoas de todos os níveis hierárquicos — incluindo entusiastas da IA e colaboradores receosos. O objetivo era garantir uma visão ampla, realista e segura. A fase atual é de implementação da política de IA e de consolidação de uma nova cultura organizacional. Para isso, a organização apostou em três frentes: formação prática, experimentação segura e acompanhamento contínuo.
Dois programas-piloto foram iniciados: um com o ChatGPT, ferramenta já amplamente utilizada pela equipe, e outro com o Microsoft Copilot, por estar integrado ao sistema operacional da organização. Os testes envolvem colaboradores de diferentes departamentos, o que tem possibilitado identificar com mais precisão como cada área pode se beneficiar da IA — ou onde ela pode representar riscos. A diversidade de perfis tem sido estratégica para detectar tanto alertas quanto oportunidades.
Mentorias internas
Outro elemento central da estratégia de implementação foi a criação de um sistema de mentorias internas. Colaboradores com mais familiaridade e experiência em IA passaram a atuar como mentores de colegas de outras áreas, respondendo dúvidas, ajudando na estruturação de casos de uso e promovendo trocas práticas. A proposta, segundo os palestrantes, é criar uma rede de apoio horizontal, em que o aprendizado se dá de forma coletiva e contínua. Essa dinâmica tem gerado novas conexões dentro da organização, aproximando áreas que antes raramente colaboravam entre si.
Biblioteca de recursos e autoavaliação
A instituição disponibilizou uma biblioteca de recursos de capacitação com cursos gratuitos (como os da plataforma LinkedIn Learning) e trilhas formativas voltadas ao Terceiro Setor. Os conteúdos são compartilhados especialmente com o grupo chamado “Pioneers” — colaboradores que se voluntariaram para atuar como exploradores e embaixadores da IA dentro da instituição, fomentando o aprendizado mútuo e o uso responsável das ferramentas.
A organização também desenvolveu um instrumento de autoavaliação para orientar os colaboradores sempre que quiserem testar ou adotar uma nova aplicação de IA. O formulário contém perguntas objetivas sobre o uso de dados pessoais, risco de viés, necessidade de revisão humana e transparência na identificação de conteúdos gerados com IA. A proposta é que cada pessoa possa, com autonomia, verificar se está utilizando as ferramentas dentro dos parâmetros éticos da política institucional.
Encontros mensais
Por fim, a política de IA não foi pensada como um documento estático. Para acompanhar a velocidade das transformações tecnológicas, foram definidos encontros mensais para governança e revisões trimestrais da política. O objetivo é garantir que as diretrizes continuem atualizadas, adequadas às ferramentas disponíveis e alinhadas à missão da organização.
“A parte mais importante é o que acontece depois da aprovação. É isso que determina se a política vai mesmo proteger os dados dos doadores, orientar as decisões da equipe e fortalecer a confiança nas organizações sociais em tempos de transformação tecnológica acelerada”, afirmou Martin Bout.
O que organizações brasileiras podem aprender com isso?
Mesmo em um contexto legal e cultural diferente do Brasil, a experiência compartilhada pelo United Way de Central Indiana oferece diretrizes para organizações que queiram usar IA com responsabilidade:
- Coloque a missão e os valores da organização no centro da política.
- Garanta proteção dos dados dos doadores e jamais insira dados sensíveis em plataformas.
- Inclua diferentes pontos de vista no processo de construção da política (entusiastas e críticos).
- Ofereça treinamento, diálogo e governança contínua.
- Crie critérios éticos para avaliar o uso das ferramentas, independentemente de qual IA seja usada.
Leia também: Certificações aumentam confiabilidade do Terceiro Setor e ajudam a atrair financiadores
Texto publicado pela Captamos, editoria da ABCR de conteúdos aprofundados sobre mobilização de recursos para causas.