Inteligência artificial: confira 6 dicas para reduzir danos causados pela era digital

Uso de inteligência artificial levanta alertas éticos e revela a falta de preparo global para conter riscos crescentes

Especialistas apontam seis caminhos para reduzir danos e criar uma cultura de responsabilidade digital (Foto: Pixabay)

Com poucos cliques, qualquer pessoa com acesso à internet pode criar vídeos hiperrealistas usando inteligência artificial. Os deepfakes, que imitam com perfeição rostos, vozes e gestos, já são usados em fraudes, campanhas políticas, manipulação de mercado e assédio virtual. Enquanto governos correm para criar regras, a tecnologia avança num ritmo que supera leis, cultura e até a compreensão social.

Na cultura pop, o alerta veio antes. A série Black Mirror, conhecida por tratar de distopias tecnológicas, trouxe na sexta temporada o episódio “A Joan é péssima”. Nele, uma mulher descobre que sua rotina virou série sem autorização, com ajuda de IAs generativas. O enredo parecia exagerado até pouco tempo. Hoje, porém, já espelha riscos reais. Fora da tela, ferramentas como HeyGen e DeepFaceLab ganham espaço e já provocam prejuízos concretos.

Em 2024, a União Europeia aprovou o “AI Act“, obrigando empresas a rotularem conteúdos sintéticos e a prestarem contas sobre o uso de dados. Nos Estados Unidos, a Casa Branca divulgou diretrizes contra deepfakes eleitorais. Apesar disso, especialistas alertam que nem o setor público nem o privado estão prontos para lidar com o tamanho do desafio.

Startups brasileiras ignoram impactos das IAs

Relatório da empresa de segurança digital Sumsub mostra um crescimento alarmante de 700% nos casos de deepfake em fintechs entre 2022 e 2023. No Brasil, onde a tecnologia avança sem regulação específica, o risco é ainda maior. O CEO da FWK Innovation Design, Eduardo Freire, afirma que as empresas ainda tratam o tema com superficialidade. “A tecnologia de deepfake está avançando muito mais rápido do que nossa capacidade institucional, jurídica e até emocional de compreendê-la”, alerta.

A avaliação é compartilhada por Raphael Santos Marques, da Tech do Bem, que vê um risco crescente com a popularização da inteligência artificial. “Com as seguidas atualizações que essa tecnologia irá receber, a tendência é ela cada vez mais se popularizar, e o perigo mora justamente aí, pois a sociedade ainda não desenvolveu o letramento digital necessário para identificar e lidar com conteúdo sintético”, diz.

Para o estrategista-chefe Ângelo Vieira Jr., da Lúmen Strategy, há um descompasso grave entre o avanço da tecnologia e a evolução da consciência social. “A tecnologia avança exponencialmente, enquanto a cultura, as leis e até a educação seguem num passo linear”, destaca. Ele lembra que as consequências são humanas e envolvem conflitos sociais, crises identitárias e novas formas de desigualdade.

Inteligência Artificial: especialistas propõem ações urgentes e estratégicas

Frente a esse cenário, os especialistas apontam seis caminhos para reduzir danos e criar uma cultura de responsabilidade digital, confira:

1. Incluir ética desde o início dos projetos de tecnologia

Segundo Eduardo Freire, “a resposta não virá só com leis ou firewalls. A gente precisa de educação crítica, ética e um novo tipo de liderança: mais consciente dos riscos e mais conectado com o impacto real da inovação sobre as pessoas”.

2. Abandonar o piloto automático da inovação

“Boa parte das empresas ainda trata a ética como uma consideração secundária no desenvolvimento tecnológico. Vejo frequentemente que o ímpeto de criar produtos ‘inteligentes’ supera as considerações sobre privacidade e segurança”, declara Raphael Santos Marques.

3. Entender que o impacto da tecnologia é humano

Para Ângelo Vieira Jr., “essa defasagem gera um vácuo onde ocorrem conflitos sociais, crises de identidade e até novas formas de desigualdade. Isso porque a tecnologia e as inteligências não são ‘boas ou mais’, mas sim quem as cria, faz, usa, modera e legisla sobre elas, ou seja, os humanos”.

4. Definir liderança ética nas organizações

“A Ética não pode ser uma instância acessória. Ela precisa estar integrada ao núcleo das decisões estratégicas, e isso só é possível quando temos lideranças comprometidas com o impacto social da tecnologia”, reforça o cofundador da Tech do Bem.

5. Estabelecer outras formas de medir o sucesso

De acordo com Ângelo, “falar de ética não é papo romântico – é estratégia. É confiança, consistência e sustentabilidade. Não dá mais pra tratar impacto como uma aba do ESG ou um parágrafo no relatório anual”.

6. Desenvolver uma cultura de convivência com as IAs

“Estamos integrando máquinas ao cotidiano sem entender os efeitos sobre nossa subjetividade. A cultura da inovação precisa ser acompanhada por uma cultura de cuidado com o humano”, conclui o estrategista-chefe da Lúmen Strategy.

Receba as principais notícias diariamente em seu celular. Entre no canal de WhatsApp do portal Gazeta Culturismo clicando aqui.


Copyright © 2024 // Todos os direitos reservados.