Durante uma entrevista ao jornalista Ezra Klein do The New York Times na sexta-feira (12), Dario Amodei, CEO da startup Anthropic e ex-vice-presidente de Pesquisa da OpenAI, fez um alerta preocupante sobre o futuro da inteligência artificial (IA), que parecia saído de um filme.
Amodei prevê que entre 2025 e 2028, as IAs poderão atingir um nível de autonomia que lhes permitirá sobreviver e se reproduzir, representando um grande risco para a segurança geopolítica e militar global.
A Anthropic atualmente classifica os níveis de segurança das IAs, conhecidos como ASL. Amodei indica que estamos atualmente no nível 2, onde os modelos de linguagem podem fornecer informações perigosas, como instruções para a construção de armas biológicas. No entanto, ele ressalta que essas informações ainda são pouco confiáveis e representam um risco relativamente baixo.
A preocupação aumenta com a possibilidade de alcançar o nível 3, que pode ocorrer já no próximo ano. Neste estágio, o risco de uma catástrofe seria consideravelmente maior, com a potencial utilização dessas tecnologias em armas biológicas e cibernéticas.
Amodei também destaca que o nível 4, ainda teórico, poderia trazer características como autonomia, incluindo a capacidade independente de reprodução de sistemas e habilidades de persuasão. Ele prevê que modelos com essa classificação podem surgir entre 2025 e 2028, levantando sérias questões sobre a segurança global diante do possível uso militar dessas tecnologias.
Diante desse cenário, o CEO enfatizou a importância de monitorar de perto o desenvolvimento e aplicação das IAs, especialmente considerando o potencial de alguns estados em ampliar suas capacidades militares com essa tecnologia.
A Anthropic, com investimentos de gigantes como Amazon e Google, lançou seu próprio modelo de linguagem, o Claude, afirmando desenvolver a tecnologia de maneira mais responsável que a OpenAI. A IA da Anthropic já está em sua terceira versão desde março deste ano.