HOME > Ideias

Especialistas pedem ação para mitigar "o risco de extinção causado pela IA"

De acordo com um novo comunicado assinado por dezenas de críticos e defensores da inteligência artificial, isso "deve ser uma prioridade global"

(Foto: Divulgação)

✅ Receba as notícias do Brasil 247 e da TV 247 no canal do Brasil 247 e na comunidade 247 no WhatsApp.

Por Kenny Stancil, no Commons Dreams

Na terça-feira, 80 cientistas de inteligência artificial e mais de 200 "outras figuras notáveis" assinaram um comunicado que afirma que "mitigar o risco de extinção causado pela IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear".

O aviso de uma frase, vindo de um grupo diverso de cientistas, engenheiros, executivos corporativos, acadêmicos e outros indivíduos preocupados, não entra em detalhes sobre as ameaças existenciais apresentadas pela IA. Em vez disso, busca "abrir a discussão" e "criar conhecimento comum sobre o número crescente de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada", de acordo com o Center for AI Safety, uma organização sem fins lucrativos sediada nos Estados Unidos, cujo site hospeda o comunicado.

O principal signatário, Geoffrey Hinton, frequentemente chamado de "padrinho da IA", vem soando o alarme há semanas. No início deste mês, o professor emérito de ciência da computação de 75 anos, da Universidade de Toronto, anunciou que havia renunciado ao seu cargo no Google para poder falar mais livremente sobre os perigos associados à IA.

Antes de sair do Google, Hinton disse à CBS News em março que o potencial impacto dessa tecnologia em rápida evolução é comparável à "Revolução Industrial, eletricidade ou talvez a roda".

Questionado sobre as chances de a tecnologia "eliminar a humanidade", Hinton alertou que "não é inconcebível".

Essa assustadora possibilidade não está necessariamente ligada às ferramentas de IA atualmente existentes, como o ChatGPT, mas sim ao que é chamado de "inteligência artificial geral" (AGI), que englobaria computadores desenvolvendo e agindo com suas próprias ideias.

"Até muito recentemente, eu achava que levaria uns 20 a 50 anos para termos IA de propósito geral", disse Hinton à CBS News.

"Agora, acho que pode ser 20 anos ou menos."

Pressionado pelo canal se isso poderia acontecer mais cedo, Hinton admitiu que não descartaria a possibilidade de a AGI chegar em até cinco anos, uma mudança significativa em relação a alguns anos atrás, quando ele "diria: 'de jeito nenhum'".

"Devemos pensar seriamente em como controlar isso", disse Hinton.

Questionado se isso é possível, Hinton afirmou: "Não sabemos, ainda não chegamos lá, mas podemos tentar."

O pioneiro da IA está longe de estar sozinho nessa opinião. De acordo com o Relatório de Índice de IA de 2023, uma avaliação anual da indústria em rápido crescimento publicada no mês passado pelo Stanford Institute for Human-Centered Artificial Intelligence, 57% dos cientistas da computação entrevistados afirmaram que "o progresso recente nos aproxima da AGI", e 58% concordaram que "a AGI é uma preocupação importante".

Embora os resultados tenham sido divulgados em meados de abril, a pesquisa da Stanford com 327 especialistas em processamento de linguagem natural - uma área da ciência da computação essencial para o desenvolvimento de chatbots - foi realizada em maio e junho do ano passado, meses antes do lançamento do ChatGPT da OpenAI, em novembro.

Sam Altman, CEO da OpenAI e signatário do comunicado divulgado na terça-feira pelo Center for AI Safety, escreveu em um post de blog em fevereiro: "Os riscos podem ser extraordinários. Uma AGI superinteligente desalinhada poderia causar danos graves ao mundo."

No mês seguinte, no entanto, Altman se recusou a assinar uma carta aberta que pede uma moratória de seis meses no treinamento de sistemas de IA além do nível do chatbot mais recente da OpenAI, o GPT-4.

A carta, publicada em março, afirma que "sistemas de IA poderosos devem ser desenvolvidos apenas quando tivermos confiança de que seus efeitos serão positivos e seus riscos serão gerenciáveis".

Elon Musk, CEO da Tesla e do Twitter, estava entre aqueles que pediram uma pausa há dois meses, mas, de acordo com o Financial Times, ele está "planejando lançar uma nova startup de inteligência artificial para competir com" a OpenAI, o que levanta a questão se sua preocupação declarada com os "riscos profundos para a sociedade e a humanidade" é sincera ou uma expressão de interesse próprio.

O fato de Altman e vários outros defensores da IA terem assinado o comunicado de terça-feira levanta a possibilidade de que pessoas com bilhões de dólares em jogo estejam tentando mostrar sua conscientização sobre os riscos apresentados por seus produtos, na tentativa de persuadir as autoridades sobre sua capacidade de autorregulação.

As demandas externas à indústria por uma regulamentação governamental robusta da IA estão aumentando. Embora formas cada vez mais perigosas de AGI possam estar a anos de distância, já existem evidências crescentes de que as ferramentas de IA existentes estão exacerbando a propagação de desinformação, desde chatbots disseminando mentiras até aplicativos de troca de rostos gerando vídeos falsos e vozes clonadas cometendo fraudes. A IA atual, não testada, está prejudicando as pessoas de outras maneiras, incluindo quando tecnologias automatizadas implantadas por seguradoras do Medicare Advantage decidem unilateralmente interromper os pagamentos, resultando no término prematuro da cobertura para idosos vulneráveis.

Críticos têm alertado que, na ausência de intervenções rápidas por parte dos formuladores de políticas, a IA não regulamentada pode prejudicar ainda mais os pacientes de saúde, minar o jornalismo baseado em fatos, acelerar a destruição da democracia e levar a uma guerra nuclear não intencional. Outras preocupações comuns incluem demissões generalizadas de trabalhadores, aumento da desigualdade e um aumento massivo na poluição de carbono.

Um relatório publicado no mês passado pela Public Citizen argumenta que "até que salvaguardas governamentais significativas estejam em vigor para proteger o público dos danos da IA generativa, precisamos de uma pausa".

"Empresas estão implantando ferramentas de IA potencialmente perigosas mais rapidamente do que seus danos podem ser compreendidos ou mitigados", advertiu o grupo progressista de defesa em um comunicado.

"A história não oferece motivos para acreditar que as empresas podem se autorregular em relação aos riscos conhecidos, especialmente porque muitos desses riscos fazem parte tanto da IA generativa quanto da ganância corporativa", continuou a organização de vigilância. "Empresas que se apressam em introduzir essas novas tecnologias estão apostando com a vida e o sustento das pessoas, e possivelmente com os próprios fundamentos de uma sociedade livre e um mundo habitável."

No início deste mês, o presidente da Public Citizen, Robert Weissman, saudou o novo plano da administração Biden para "promover a inovação americana responsável em inteligência artificial e proteger os direitos e a segurança das pessoas", mas também enfatizou a necessidade de "medidas mais agressivas" para "enfrentar as ameaças da IA corporativa descontrolada".

Em consonância com a Public Citizen, um grupo internacional de médicos advertiu há três semanas na revista revisada por pares BMJ Open Health que a IA "poderia representar uma ameaça existencial para a humanidade" e exigiu uma moratória no desenvolvimento dessa tecnologia, aguardando uma forte supervisão governamental.

A IA "representa uma série de ameaças para a saúde e o bem-estar humanos", escreveram os médicos e especialistas relacionados. "Com o crescimento exponencial da pesquisa e desenvolvimento de IA, a janela de oportunidade para evitar danos graves e potencialmente existenciais está se fechando".

iBest: 247 é o melhor canal de política do Brasil no voto popular

Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista: