banner
Lar / Notícias / Podemos parar a IA fugitiva?
Notícias

Podemos parar a IA fugitiva?

Aug 10, 2023Aug 10, 2023

Por Matthew Hutson

Cada vez mais, estamos cercados por pessoas falsas. Às vezes sabemos disso e às vezes não. Eles nos oferecem atendimento ao cliente em sites da Web, visam-nos em videogames e preenchem nossos feeds de mídia social; eles negociam ações e, com a ajuda de sistemas como o ChatGPT da OpenAI, podem escrever ensaios, artigos e e-mails. De forma alguma esses sistemas de IA estão à altura de todas as tarefas esperadas de uma pessoa de pleno direito. Mas eles se destacam em certos domínios e estão se ramificando.

Muitos pesquisadores envolvidos em IA acreditam que as pessoas falsas de hoje são apenas o começo. Na visão deles, há uma boa chance de que a atual tecnologia de IA se desenvolva em inteligência artificial geral, ou AGI – uma forma superior de IA capaz de pensar em nível humano em muitos ou na maioria dos aspectos. Um grupo menor argumenta que o poder da AGI pode aumentar exponencialmente. Se um sistema de computador pode escrever código - como o ChatGPT já pode - então ele pode eventualmente aprender a melhorar continuamente até que a tecnologia de computação atinja o que é conhecido como "a singularidade": um ponto em que escapa de nosso controle. No pior cenário imaginado por esses pensadores, IAs incontroláveis ​​podem se infiltrar em todos os aspectos de nossas vidas tecnológicas, interrompendo ou redirecionando nossa infraestrutura, sistemas financeiros, comunicações e muito mais. Pessoas falsas, agora dotadas de astúcia sobre-humana, podem nos persuadir a votar em medidas e investir em interesses que fortaleçam sua posição, e indivíduos ou facções suscetíveis podem derrubar governos ou aterrorizar populações.

A singularidade não é de forma alguma uma conclusão precipitada. Pode ser que a AGI esteja fora de alcance ou que os computadores não consigam se tornar mais inteligentes. Mas as transições entre IA, AGI e superinteligência podem acontecer sem que as detectemos; nossos sistemas de IA frequentemente nos surpreendem. E avanços recentes em IA tornaram os cenários mais preocupantes mais plausíveis. Grandes empresas já estão desenvolvendo algoritmos generalistas: em maio passado, a DeepMind, empresa controladora do Google, a Alphabet, apresentou o Gato, um "agente generalista" que usa o mesmo tipo de algoritmo do ChatGPT para realizar diversas tarefas, desde mensagens de texto e jogar videogames para controlar um braço de robô. "Cinco anos atrás, era arriscado em minha carreira dizer em voz alta que acredito na possibilidade de IA de nível humano ou sobre-humano", disse Jeff Clune, cientista da computação da University of British Columbia e do Vector Institute. meu. (Clune trabalhou na Uber, OpenAI e DeepMind; seu trabalho recente sugere que os algoritmos que exploram o mundo de maneira aberta podem levar à AGI) Agora, disse ele, à medida que os desafios da IA ​​"se dissolvem", mais pesquisadores estão surgindo do "armário de segurança de IA", declarando abertamente que a AGI é possível e pode representar um perigo desestabilizador para a sociedade. Em março, um grupo de tecnólogos proeminentes publicou uma carta pedindo uma pausa em alguns tipos de pesquisa de IA, para evitar o desenvolvimento de "mentes não humanas que podem eventualmente superar em número, ser mais espertas, obsoletas e nos substituir"; No mês seguinte, Geoffrey Hinton, um dos principais pioneiros da IA, deixou o Google para poder falar mais livremente sobre os perigos da tecnologia, incluindo sua ameaça à humanidade.

Uma área crescente de pesquisa chamada alinhamento de IA procura diminuir o perigo garantindo que os sistemas de computador estejam "alinhados" com os objetivos humanos. A ideia é evitar consequências não intencionais enquanto incutimos valores morais, ou seus equivalentes de máquina, em IAs. A pesquisa de alinhamento mostrou que mesmo sistemas de IA relativamente simples podem quebrar mal de maneiras bizarras. Em um artigo de 2020 intitulado "A Surpreendente Criatividade da Evolução Digital", Clune e seus coautores coletaram dezenas de anedotas da vida real sobre comportamento não intencional e imprevisto da IA. Um pesquisador pretendia projetar criaturas virtuais que se moviam horizontalmente, presumivelmente rastejando ou deslizando; em vez disso, as criaturas cresceram e caíram, cobrindo o chão através do colapso. Uma IA jogando uma versão do jogo da velha aprendeu a "vencer" solicitando deliberadamente movimentos bizarros, travando o programa de seu oponente e forçando-o a desistir. Abundam outros exemplos de desalinhamento surpreendente. Uma IA encarregada de jogar um jogo de corrida de barco descobriu que poderia ganhar mais pontos dirigindo em círculos fechados e pegando bônus em vez de completar o percurso; os pesquisadores observaram o barco de IA "pegando fogo, colidindo com outros barcos e indo para o lado errado" enquanto aumentava sua pontuação. À medida que nossos sistemas de IA se tornam mais sofisticados e poderosos, esses tipos de resultados perversos podem se tornar mais consequentes. Não queremos que as IAs do futuro, que podem calcular sentenças de prisão, dirigir carros ou projetar drogas, façam o equivalente a falhar para ter sucesso.