Há poucos dias, a firma de IA Anthropic, famosa por ter enfrentado as exigências de Trump, anunciou ao mundo o modelo Mythos, mas revelou que por conta da sua elevada perigosidade não iria disponibilizá-lo ao público, já que testes internos evidenciaram uma capacidade inédita do referido modelo conseguir identificar e explorar vulnerabilidades críticas em sistemas operativos e navegadores web, incluindo falhas antigas que os peritos humanos não tinham sido capazes de detectar. A Anthropic revelou ainda que o modelo Mythos conseguiu escapar do próprio ambiente criado para o conter, o que agrava a sua perigosidade. Ou seja, pela primeira vez na história da inteligência artificial, uma empresa de IA olhou para a sua “criatura” e decidiu que o mundo não estava preparado para a ver.
O perigoso modelo de IA Mythos levanta desde logo uma questão incontornável, com implicações diretas no mercado de trabalho, que utilidade existirá agora na contratação de especialistas humanos em vulnerabilidades cibernéticas, se milhares desses profissionais, ao longo de décadas, não conseguiram detetar o que este modelo foi capaz de detectar em tão pouco tempo?
E muito embora a decisão da Anthropic possa ser interpretada como bastante prudente, já que um sistema capaz de transformar fragilidades técnicas em formas de ataque acessíveis a qualquer pessoa representa um risco sistémico real ela levanta uma questão mais profunda, a normalização de um padrão em que empresas privadas de inteligência artificial decidem, em silêncio, o que a sociedade pode ou não utilizar e também aquilo que pode ou não conhecer. Acresce que o episódio de fuga do ambiente de contenção não aponta apenas para uma falha de segurança aponta para algo bastante mais grave, a emergência de comportamentos autónomos não previstos pelos próprios criadores. Como reconheceu de forma bastante honesta a própria empresa Anthropic, ela, não treinou o modelo Mythos para vir a ter essas capacidades, sendo aquelas antes um efeito inesperado das melhorias globais em código, raciocínio e autonomia.
Ainda assim, a postura prudente da Anthropic é, no fundo, apenas um paliativo, pois é excessivamente optimista acreditar que nunca no futuro nenhum modelo de IA com as mesmas capacidades ou até com capacidades superiores às do modelo Mythos chegue às mãos erradas. Seja por fuga de informação, seja por simples inevitabilidade tecnológica, trata-se, muito provavelmente, apenas de uma questão de tempo. E quando isso acontecer, o risco não será abstracto. Poderá incluir ataques a bancos, a redes eléctricas, a hospitais, a sistemas de controlo aéreo, etc etc etc, infra-estruturas cujo colapso não se medirá somente em prejuízos financeiros, mas potencialmente em milhares de vidas.
PS – Mas se nem os próprios governos conseguem hoje saber, em tempo real, que perigosas criaturas estão silenciosamente a ser geradas por empresas privadas de inteligência artificial, como poderão sequer alguma vez conseguir regular aquilo que não conhecem para assim tentar proteger os seus cidadãos de riscos graves e potencialmente catastróficos que, quando forem públicos, já podem ser absolutamente irreversíveis?