Durante o Fórum Interamericano de Filantropia Estratégica (FIFE) 2025, o Canal SabIAr, com apoio do Instituto Beja, da Escola de Administração de Empresas de São Paulo da Fundação Getúlio Vargas (FGV EAESP), lançou o estudo Como o Campo Social Brasileiro está usando a Inteligência Artificial: um estudo exploratório inédito sobre o uso e sobre oportunidades e desafios, que analisa como profissionais do setor social utilizam a Inteligência Artificial (IA), seus desafios e as ferramentas mais comuns. A ABCR foi parceira de disseminação da pesquisa que, entre os principais achados, identificou uma adoção desigual da tecnologia: 10% dos coletivos e movimentos sociais relatam o uso e apenas 6% têm um uso avançado das ferramentas. Negócios de impacto (35%) e institutos empresariais (33%) lideram o uso.
A apresentação da pesquisa foi feita pelo pesquisador Cassio Aoqui, fundador do Canal SabIAr e um dos autores do documento. Produzido ao longo de um ano, o estudo contou com mais de 460 respondentes de todos os estados brasileiros, resultando em 414 respostas consideradas válidas. O questionário levou em conta quatro principais dimensões, sendo o perfil do respondente e da organização que trabalha, incluindo dados demográficos; familiaridade com a IA, que buscou entender o nível de conhecimento em relação às ferramentas; uso de IA nas organizações, destacando áreas de aplicação e motivações para a adoção ou não adoção e por último os desafios e barreiras, incluindo as limitações enfrentadas.
A pesquisa destacou que, entre os tipos de organizações que menos utilizam a IA, estão os coletivos ou movimentos sociais, seguidos de institutos, fundos filantrópicos ou fundações empresariais. O tipo que mais utiliza são as dinamizadoras ou consultorias. Dentre as pessoas menos familiarizadas com a tecnologia estão mulheres e pessoas racializadas, o que demonstra uma desigualdade interseccional de adoção. Há também disparidades regionais: regiões com menor infraestrutura utilizam menos a IA em processos de gestão, comunicação e outras áreas.
“O estudo vai ser importante para o campo, principalmente por ser inédito. Tudo que aparece nele é o estado da arte de como o campo social está utilizando a IA hoje e de uma maneira bem abrangente. Mapeamos mais de 400 profissionais de organizações e, baseado nesses dados, também fizemos uma análise crítica e uma reflexão sobre como nós deveríamos nos apropriar para usar a IA de maneira mais adequada, os riscos que contém, as possibilidades e oportunidades”, explica Cassio .
O uso das ferramentas de IA tem sido tema frequente de debate, e entender como essa tecnologia caminha nos campos é importante, já que independentemente do setor de atuação, os programas e aplicativos já estão sendo utilizados para facilitar processos, automatizar tarefas e até na comunicação. No Terceiro Setor, por exemplo, a IA pode ser usada para escrever projetos, analisar editais, facilitar inscrições, fortalecer conexões com doadores e aumentar o impacto de campanhas de captação.
Capacitação é o principal desafio, especialmente no Terceiro Setor
Apesar da adoção da IA já ser uma realidade em diversas organizações e negócios sociais, seu uso ainda enfrenta barreiras, sendo a capacitação a principal destacada no estudo: 42% dos respondentes relataram a falta de conhecimento técnico, o que dificulta o uso; para 78%, os treinamentos são a solução prioritária para superar essa barreira. Dentro das Organizações da Sociedade Civil (OSCs), 74% das respostas indicaram que não possuem profissionais capacitados em IA ou que não sabem se possuem.
Os que destacaram que a falta de capacitação é um desafio, estão centralizados no Norte e no Centro-Oeste, as duas regiões do Brasil que mais afirmaram não utilizar a IA, sendo 36% e 35%, respectivamente. Por meio destes dados é possível identificar que a falta de conhecimento técnico se evidencia em regiões com infraestrutura limitada e reforça um ciclo de exclusão. O estudo destacou que não ter uma infraestrutura que permita o uso da tecnologia e pessoas capacitadas na equipe faz com que o sentimento de uso da IA não seja necessário persista.
Cerca de 300 respostas indicaram que a organização utiliza IA em algum momento de suas atividades, mas, do total, 58% estão em fases iniciais da integração e apenas 6% consideram a interação entre as atividades e a IA como avançadas. Quando se fala de familiaridade com as ferramentas, mais da metade dos profissionais entrevistados (55%) considera estar no nível básico e, a cada dez pessoas, mais de uma afirma não ter conhecimento nenhum.
O estudo também relata uma desigualdade racial referente ao conhecimento das ferramentas. Dos entrevistados, os profissionais pretos, pardos e indígenas possuem menos conhecimento em níveis intermediário ou avançado (28,7%) do que brancos (36%).
Falta de orçamento
Outro desafio é a falta de orçamento para investir em ferramentas de IA. Do total de respondentes, quase 40% alegam a falta de renda como uma barreira para o uso e mais da metade que utiliza durante o trabalho não possui uma verba destinada. Das que pagam, o valor destinado é limitado: 39% destina até R$ 120 ao mês, 20% até R$ 500 e 16% mais de R$ 500. Vale destacar também os 12% que pagam por ferramentas de IA para uso profissional com recursos próprios.
Para que a IA é utilizada?
A principal ferramenta utilizada e conhecida pelos profissionais é o ChatGPT, que lidera com 41%, seguida pelo Gemini (20%) e Copilot (17%), considerados modelos de linguagem de grande escala (LLMs). O Canva também está entre os principais e populares, utilizado por mais de 30% das pessoas entrevistadas. Há um maior uso dos modelos LLMs, mas com pouca diversidade de ferramentas, sendo citadas oito ferramentas com até 7% de uso cada e outras 16 que contabilizaram entre 1% e 4%.
Dentre as áreas de maior uso da tecnologia, estão a criação de conteúdo (75%), seguida de comunicação (70%) e análise de dados (55%). Apesar de ser bastante utilizada nestes setores, na parte estratégica ela é pouco aplicada. Na gestão financeira, por exemplo, apenas 10% a utilizam, e para a captação de recursos a porcentagem é menor ainda (8%). O menor uso nessas áreas pode se dar por conta de um outro achado do estudo: os profissionais da área financeira são os que menos utilizam a IA (22%). Nas áreas de marketing e comunicação, 4 a cada 5 profissionais usam ferramentas de IA. O baixo uso é passível de correlação com um potencial inexplorado da IA para fortalecer a sustentabilidade financeira das organizações.
O foco das organizações que utilizam as ferramentas também apresenta um cenário heterogêneo e temático. As que atuam com democracia, direitos dos animais e apoio às OSCs figuram com mais de 80%. Em contrapartida, setores como direitos humanos, esportes e voluntariado possuem um menor índice de uso, todos na casa dos 60%. O estudo ressaltou que a adoção da IA pode estar associada a temas de maior visibilidade ou retorno imediato e levando em consideração que os outros setores podem enfrentar barreiras adicionais para integrar essas tecnologias a suas rotinas.
Uso ético e responsável
Um assunto pautado durante as perguntas é o uso ético e responsável das ferramentas de IA. Embora apenas 17% dos profissionais mencionem preocupações éticas, como a discriminação algorítima e a privacidade, para institutos independentes e dinamizadores (50%), essas questões foram apontadas como um desafio e bastante relevantes. “Para cada tipo de organização fizemos uma série de recomendações com um único objetivo: conseguir se apropriar das novas tecnologias emergentes, mas de uma maneira qualificada, para que de fato possamos caminhar no sentido da justiça social e não do aumento das desigualdades. Esse é um risco que infelizmente existe”, finaliza o fundador do Canal SabIAr.
Apesar da grande parte acreditar que o uso da IA trará mais benefícios do que pontos negativos, o estudo pontua a importância de se atentar a esse assunto ao lidar com um setor que atende pessoas em situação de vulnerabilidade. É necessário garantir que as ferramentas sejam utilizadas para garantir a equidade, pois quando não há diretrizes claras e definidas, os grupos podem ficar vulneráveis. Ao adotar a IA, e à medida que a tecnologia se expande, a prática deve ser responsável, com ações alinhadas aos princípios éticos, ao contexto brasileiro e, principalmente, com a transparência dos dados, garantindo que os benefícios gerados não reforcem desigualdades ou criem novas vulnerabilidades.
No documento do estudo há oito dicas práticas para as organizações criarem suas próprias diretrizes éticas. Confira:
- Política de transparência de dados: o estudo sugere a criação de um documento para descrever quais dados serão armazenados e seus destinos, tendo a informação clara e em uma linguagem acessível;
- Revisão e auditoria de algoritmos: estabelecer um comitê para revisar os algoritmos e garantir que não haja exclusão e implementar métricas para analisar a justiça algoritma, buscando a representatividade;
- Protocolo de consentimento informado: criar um processo de consentimento claro para a coleta de dados e respeitar as particularidades culturais e regionais, além de ofertar a recusa da coleta sem prejudicar o acesso aos serviços;
- Plano de mitigação de riscos éticos: ter um manual que busca diminuir os riscos relacionados ao uso da IA e ter respostas imediatas em caso de falhas;
- Inclusão de diversidade no ciclo de desenvolvimento: possuir equipes para o desenvolvimento e aplicação da IA, garantindo que a diversidade de gênero, raça, etnia e experiências estejam refletidos no design da ferramenta e convidar representantes das comunidades atendidas para avaliarem;
- Diretrizes de uso restrito: proibir o uso de IA sem validação humana para decisões automatizadas críticas, como elegibilidade para benefícios por exemplo e limitar o uso de dados sensíveis a finalidades estritamente alinhadas com a missão social da organização;
- Relatórios de impacto ético e social: publicar relatórios dos impactos éticos e sociais do uso, identificando aprendizados e possíveis melhorias, além de compartilhar as lições aprendidas com outras organizações a fim de fortalecer o seu uso no setor socioambiental;
- Capacitação contínua: oferecer treinamentos para colaboradores com os temas de governança ética, uso responsável de IA e riscos associados e incluir discussões sobre casos reais de falhas éticas em IA como parte do treinamento, buscando sensibilizar a equipe referente aos desafios e principais responsabilidades.
Durante a apresentação, Cassio destrinchou os principais achados e finalizou com questionamentos para o futuro. Entre eles: como democratizar o acesso à IA, garantindo que organizações de todos os portes e regiões sejam beneficiadas?; Que estratégias podem integrar coletivos e movimentos sociais ao ecossistema tecnológico de forma sustentável? Como alinhar a inovação tecnológica aos valores éticos e sociais que norteiam o campo?
Festival ABCR terá Masterclasses sobre IA
Nos dias 14 e 15 de junho, às vésperas do Festival ABCR, será possível participar de Masterclasses e se aprofundar em diversos temas relacionados ao Terceiro Setor – entre eles, o uso da IA na Captação de Recursos. O encontro acontecerá no dia 14 (sábado), das 9h às 12h e será conduzido pelos palestrantes Cassio Aoqui e Mariana Pereira, mestre em Políticas Públicas pela UFABC e especialista em ESG pela FIA. O foco da aula será entender de que maneira a IA pode ajudar a analisar dados, automatizar processos e melhorar a comunicação com potenciais doadores.
As Masterclasses são uma tradição desde 2014 e, neste ano, acontecerão na FGV EAESP, em São Paulo (SP), com a participação de mais de 15 especialistas. Para realizar a inscrição ou mais informações sobre as aulas, clique aqui.
Leia também: Efeito ChatGPT: como a inteligência artificial pode facilitar o trabalho das OSCs
Texto publicado pela Captamos, editoria da ABCR de conteúdos aprofundados sobre mobilização de recursos para causas.