TV 247 logo
    Roberto Moraes avatar

    Roberto Moraes

    Engenheiro e professor titular "sênior" do IFF (ex-CEFET-Campos, RJ)

    130 artigos

    HOME > blog

    Alucinação da IA ou do capitalismo?

    "Não é a Inteligência Artificial que já está produzindo alucinações, e sim a sociedade e a civilização", escreve Roberto Moraes

    Letras iniciais de Inteligência Artificial (AI, na sigla em inglês) sobre placa-mãe de computador. Ilustração de 23 de junho de 2023 (Foto: REUTERS/Dado Ruvic)

    Alucinações são experiências em que uma pessoa percebe algo que não existe na realidade.

    Utilizarei, nessa reflexão, um pequeno trecho da matéria de O Globo (01/01/25), cujo título é: "Inteligência Artificial: Tecnologia terá como desafios dar lucros e manter ritmo da expansão", de Juliana Causin.

    Com esse título, a lógica expressa é a do investidor, e não das pessoas e da sociedade que convivem com essa tecnologia. Falarei disso ao final.

    No entanto, o destaque que faço, e que me chamou a atenção na reportagem, é quando especialistas na tecnologia de IA afirmam que "as empresas precisam ter cuidado com o tema da alucinação, ou seja, a IA pode estar sendo convincente, articulada, mas pode estar inventando, criando algo absurdo, o que pode causar danos de imagem às empresas".

    Antes de atingir as empresas (agentes), as pessoas e a sociedade já estão sendo impactadas. Penso que a preocupação deveria se dirigir à sociedade. Alguém já tinha lido ou ouvido, entre as várias maravilhas listadas por especialistas sobre o que a IA poderia produzir, que também incluiria alucinações e invenções absurdas fora da realidade?

    Usarei um paradoxo (nem tanto, sic), ao ver o que o ChatGPT, uma ferramenta de inteligência artificial (IA) da empresa de tecnologia OpenAI, que funciona como um chatbot permitindo a interação entre o usuário e a IA por meio de conversas, diz sobre o tema: "alucinações são erros que ocorrem quando um sistema de inteligência artificial gera informações incorretas ou inventadas, mas apresenta essas informações de maneira convincente. Esse fenômeno é uma limitação dos modelos atuais de IA, especialmente os modelos de linguagem, que ainda não possuem uma verdadeira compreensão do conteúdo que geram. Embora as alucinações de IA sejam um desafio, elas podem ser mitigadas com melhores práticas de treinamento, validação e supervisão humana, especialmente em aplicações críticas".

    Ou seja, ficamos sabendo que essa possibilidade exposta (alucinações) pela reportagem já era bem conhecida pelos especialistas da área. Tudo isso aumenta — e muito — a preocupação com o pensamento, as fake news em expansão e a dificuldade crescente que já se tem em separar o que é verdade ou mentira na sociedade atual. Essa realidade (alucinações), já em curso, aparece quase como um detalhe no meio de uma matéria sobre o retorno de capital nos investimentos na tecnologia de IA.

    O fato também permite observar o esforço dos técnicos em TIC (Tecnologia da Informação e Computação) em tentar "humanizar a tecnologia", ao afirmar que aquilo que é um erro estatístico e/ou de programação algorítmica dos dados pode também ser chamado de "alucinação", como se estivesse tratando de um humano e não da tecnologia, que assim ganha ares cada vez maiores de autonomia com a IA generativa e a IAG (Inteligência Artificial Geral).

    Como se sabe, alucinações são experiências em que uma pessoa percebe algo (em qualquer um dos sentidos, como visão, audição, olfato, paladar ou tato) que não existe e que, portanto, está fora da realidade. São experiências e fenômenos tratados pela psicologia e pela psiquiatria.

    Ou seja, os "absurdos" produzidos pela tecnologia da Inteligência Artificial Generativa seriam agora uma espécie de desvios de personalidade da técnica (sic).

    Uma naturalização da tentativa de humanizar o que não é humano, porque, nesse caso, a origem não é uma doença, mas um erro e a incapacidade da tecnologia de pensar e/ou agir como um humano em suas várias dimensões.

    Assim, os erros de programação seriam também interpretados como parte da falível natureza humana.

    O fato acabou me remetendo a Pierre Lévy e seu antigo e imprescindível livro As tecnologias da inteligência: o futuro do pensamento na era da informática, de 1990. Lévy afirmava, já há quase quatro décadas, que as transformações das sociedades contemporâneas estavam muito ligadas à técnica e que havia a necessidade de que sua configuração não estivesse apartada de um projeto social em meio às disputas pelo uso e destino do objeto técnico.

    Não há técnica neutra, nem faz sentido a oposição entre homem e máquina ou tecnologia, e sim o contexto social e a dimensão para a qual se dirigem essas potentes tecnologias controladas pelas grandes corporações digitais (GCDs), as Big Techs.

    Daí, volto ao título da reportagem, que foca na lógica do retorno dos investimentos do capital de risco e no conteúdo das preocupações voltadas para as empresas, por conta das alucinações da IA, e não para a sociedade.

    Não é a Inteligência Artificial que já está produzindo alucinações, e sim a sociedade e a civilização, que permitem que os homens, em suas relações de poder, deixem essa tecnologia continuar atuando de forma desregulada e a serviço basicamente dos interesses econômicos e do capital.

    * Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

    ❗ Se você tem algum posicionamento a acrescentar nesta matéria ou alguma correção a fazer, entre em contato com redacao@brasil247.com.br.

    ✅ Receba as notícias do Brasil 247 e da TV 247 no Telegram do 247 e no canal do 247 no WhatsApp.

    iBest: 247 é o melhor canal de política do Brasil no voto popular

    Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista: