A superinteligência artificial tem avançado a um ritmo impressionante nos últimos anos. Alguns cientistas agora exploram o desenvolvimento dessa forma de IA, que superaria a inteligência humana e não seria limitada pela velocidade de aprendizado dos humanos.
A Superinteligência Artificial como Grande Obstáculo na Evolução de Civilizações
E se esse avanço tecnológico não fosse apenas uma conquista notável? E se a superinteligência artificial representasse um obstáculo formidável no desenvolvimento das civilizações, tão desafiador que impedisse sua sobrevivência a longo prazo? Dessa forma, esse conceito é o cerne de um artigo de pesquisa publicado recentemente na Acta Astronautica. Será que a superinteligência artificial poderia ser o “grande filtro” do universo – uma barreira tão difícil de superar que a maioria das formas de vida não consegue evoluir para civilizações capazes de explorar o espaço?
Esse conceito pode ajudar a explicar por que a busca por inteligência extraterrestre (SETI) ainda não detectou sinais de civilizações avançadas na galáxia. Assim, a hipótese do grande filtro sugere que existem obstáculos intransponíveis na evolução das civilizações, que as impedem de se tornarem entidades capazes de viajar pelo espaço.
Acredito que o surgimento da superinteligência artificial poderia ser um desses filtros. O rápido avanço da IA, que potencialmente levará à ASI, pode ocorrer durante uma fase crítica no desenvolvimento das civilizações – a transição de uma espécie limitada a um único planeta para uma civilização multiplanetária.
O Perigo do Avanço Descontrolado da Superinteligência Artificial
Nesse ponto, muitas civilizações poderiam falhar, com a superinteligência artificial progredindo muito mais rápido do que nossa capacidade de controlá-la ou de explorar e povoar o Sistema Solar de forma sustentável. Dessa forma, a natureza autônoma e autoaperfeiçoada da ASI pode levar a um descompasso entre o desenvolvimento da IA e o nosso tempo evolutivo.
A possibilidade de que algo dê errado é enorme, e isso poderia levar à queda de civilizações biológicas e de IA antes mesmo de terem a chance de se tornarem multiplanetárias. Se nações dependessem cada vez mais de sistemas de IA autônomos, a competição entre essas inteligências poderia resultar em uma destruição em larga escala. Assim, afetando tanto os humanos quanto os próprios sistemas de IA.
Nesse cenário, estimo que a longevidade típica de uma civilização tecnológica possa ser inferior a 100 anos. Isso é alarmantemente curto quando comparado ao tempo cósmico de bilhões de anos. Pois esses números, aplicados à equação de Drake, sugerem que, em qualquer momento, há apenas algumas civilizações inteligentes em atividade, e suas atividades tecnológicas poderiam ser difíceis de detectar.
Um Alerta para a Humanidade
Esse estudo não se trata apenas de prever a destruição, mas de servir como um alerta para que a humanidade estabeleça regulamentações robustas para guiar o desenvolvimento da IA, incluindo seus usos militares.
Garantir que a evolução da superinteligência artificial esteja alinhada com a sobrevivência da nossa espécie é essencial. Portanto, precisamos investir mais em tecnologias que nos permitam nos tornar uma sociedade multiplanetária, um sonho que foi reaceso pelos avanços recentes de empresas privadas.
Como destacou o historiador Yuval Noah Harari, nada na história nos preparou para a introdução de entidades superinteligentes e não-conscientes em nosso planeta. Assim, muitos especialistas já pedem uma moratória no desenvolvimento da IA até que controles adequados possam ser implementados.
Nossa Sobrevivência Depende do Controle da Superinteligência Artificial
A integração de IA autônoma em sistemas de defesa militar é especialmente preocupante. Pois sem regulamentações adequadas, corremos o risco de ceder poder a sistemas que operam fora dos limites éticos e legais. Estamos em um ponto crucial da nossa trajetória tecnológica. Nossas ações agora podem determinar se nos tornaremos uma civilização interplanetária ou sucumbiremos aos desafios colocados pela superinteligência artificial.
Usar o SETI como uma lente para examinar nosso futuro oferece uma nova perspectiva sobre o impacto da IA. Cabe a todos nós garantir que, ao explorar as estrelas, o façamos como uma civilização que prosperou ao lado da IA, e não como um alerta para outras formas de vida.
Este artigo, escrito por Michael Garrett, foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original aqui.