Em meio a tantas discussões sobre o avanço cognitivo da inteligência artificial, sobre como ela está transformando o trabalho e os negócios, e até como ela parece ser capaz de nos substituir em qualquer coisa, a ética se sobressai como algo que ainda nos separa das máquinas. Por mais que a IA até simule convincentemente […]
Em meio a tantas discussões sobre o avanço cognitivo da inteligência artificial, sobre como ela está transformando o trabalho e os negócios, e até como ela parece ser capaz de nos substituir em qualquer coisa, a ética se sobressai como algo que ainda nos separa das máquinas. Por mais que a IA até simule convincentemente emoções, ela não as sente de fato.
A ética fica ainda mais distante dessa tecnologia. O problema é que, de uma década para cá, com as redes sociais, e mais acentuadamente agora, com a IA, cresce o número de pessoas que vivem sob o que chamo de “ética líquida”, que se flexibiliza e até desaparece para atingir objetivos pessoais. Se perdermos a nossa ética, abriremos mão daquele que é nosso maior diferencial frente às máquinas.
Nesta sexta, debati sobre isso com meu ex-professor de ética, o jornalista e escritor Jorge Tarquini. Em um encontro mais rico que qualquer conversa com uma plataforma de IA, analisamos essas transformações que o mundo digital promove em todos nós, em maior ou menor escala, e como isso pode criar problemas bem reais na sociedade.
Isso não pode ser um detalhe em nossas vidas. Nenhuma sociedade avança sem ética, ou as pessoas partiriam rumo à anarquia ou à bestialidade. Infelizmente, vemos o crescimento de ambos no nosso cotidiano, desembocando em violência, intolerância e egoísmo.
A IA pode nos ajudar muito pela sua execução eficiente. Mas não podemos nos comportar como ela, sob o risco de matarmos nossa humanidade.
Veja esse artigo em vídeo:
A ética não se resume a um conjunto de regras aplicadas mecanicamente. Ela nasce da experiência humana, do conflito entre valores, da consciência do outro e da capacidade de assumir responsabilidade por escolhas que afetam vidas reais. Ética envolve intenção, contexto, empatia e, sobretudo, a possibilidade de responder moralmente pelos próprios atos.
A inteligência artificial, por sua vez, calcula, otimiza, prevê e classifica com base em dados, objetivos e restrições definidos por pessoas. Mesmo ao executar padrões complexos, ela não compreende o sentido moral de suas ações. Um algoritmo não sente culpa, não reconhece injustiça e não pode ser responsabilizado pelo que executa.
Portanto, a IA não pode ser ética. Mas ela pode ser eticamente orientada, por desenvolvedores e usuários, esses sim, éticos. E aí mora o grande dilema atual. Com tanto poder que a IA e as redes sociais nos oferecem, pessoas antiéticas sequestraram o ambiente digital para distorcer a moral da sociedade e obter ganho próprio. E a população se deixa manipular por isso.
Como Tarquini disse, “as redes sociais são a nossa cachaça”, pois elas achatam nossos limites morais. Com isso, realizamos no ambiente digital práticas condenáveis que jamais faríamos “olho no olho”.
Ele lembrou também que reproduzir exaustivamente mantras e dogmas nas plataformas online diminuem o pensamento crítico. Esperar pelo contrário disso seria como “esperar que o ovo se transforme em omelete sozinho”, disse o professor.
Leia também: Proibição australiana de redes a menores expõe fragilidade social diante das big techs
Disso tudo, extrapolei os conceitos de vida líquida do filósofo polonês Zygmunt Bauman, criando a ideia da “ética líquida”. Valores que antes eram sólidos em nossas vidas (e precisam continuar sendo) se tornam fluidos, adaptáveis à conveniência de nossos objetivos, mesmo os mais simplórios, moldando-se ao formato do algoritmo para obtermos migalhas de atenção.
Essa dinâmica afeta a todos, mas é devastadora para os jovens, cuja identidade ainda está em formação. Além disso, esse fenômeno não se restringe aos indivíduos, contaminando instituições, empresas e governos.
Vemos isso claramente na Europa, que historicamente liderou a regulação de direitos digitais, mas que agora cede às pressões das big techs e flexibiliza suas leis. O medo de perder a corrida tecnológica está servindo de justificativa para afrouxar a ética do desenvolvimento responsável.
Essa corrida desenfreada ignora o alerta do filósofo belga Mark Coeckelbergh sobre acreditarmos em um “agenciamento moral” da IA. Estamos atribuindo a sistemas automatizados decisões que exigem sensibilidade humana, redefinindo nossa própria vulnerabilidade.
Uma tecnologia que aprende demais sobre nós e é usada sem freios éticos torna-se uma arma de manipulação comportamental sem precedentes. E assim esquecemos da importância da nossa ética.
É uma triste realidade ver líderes políticos e empresariais se tornarem os maiores motores dessa flexibilização moral. Eles utilizam a potência das plataformas digitais não para o bem comum, mas para atingir objetivos mesquinhos, normalizando a violência retórica e a polarização.
Em um mundo onde as redes sociais ensinaram todos a falar demais e a ouvir pouco, a ética termina por se tornar um obstáculo inconveniente. A situação se agrava quando isso extrapola os limites do digital, aumentando e normalizando a violência, a intolerância e outros comportamentos que crescem no noticiário.
Não se trata de demonizar a tecnologia, e sim de reconhecer que eficiência sem limites morais corrói a sociedade. A pergunta mais honesta, portanto, não é se a inteligência artificial pode ser ética, mas se nós estamos sendo, ao colocá-la para decidir temas cada vez mais sensíveis sem governança adequada, sem transparência real e sem debate público consistente.
A IA precisa ser eticamente controlada, o que exige habilidades que nenhuma máquina possui, como consciência moral, compromisso com o outro e coragem para assumir consequências. Somos os responsáveis, portanto, por “tornar a IA mais ética” e por nos cuidar para que sua “eficiência a qualquer custo” não mate esse nosso grande diferencial.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!