- Vitalik Buterin sugere limitar o poder de computação global para desacelerar a IA de risco.
- Ele propõe autorização semanal para hardware de IA por órgãos globais.
Vitalik Buterin, cofundador da Ethereum, sugeriu uma possível estratégia para lidar com os riscos associados à inteligência artificial (IA) superinteligente. Em uma publicação no blog em 5 de janeiro, Buterin propôs limitar o poder de computação global por até dois anos como uma medida de último recurso para desacelerar o desenvolvimento de sistemas de IA potencialmente perigosos.
Uma “pausa suave” no poder de computação
A proposta de Buterin envolve restringir temporariamente o hardware de computação em escala industrial para reduzir os recursos computacionais disponíveis em até 99%. Essa medida visa dar à humanidade mais tempo para se preparar para o possível surgimento de sistemas de IA superinteligentes que sejam significativamente mais avançados do que os humanos mais inteligentes em todos os domínios.
De acordo com Buterin, essa pausa poderia funcionar como uma salvaguarda se ficar evidente que os riscos de IA são muito significativos para serem gerenciados por meio de estruturas regulatórias tradicionais. No entanto, ele enfatizou que essa abordagem só seria considerada se outras medidas, como regras de responsabilidade que responsabilizem os desenvolvedores de IA por danos, se mostrarem insuficientes.
Como lidar com os riscos de IA com o aceleracionismo defensivo
As recomendações de Buterin estão alinhadas com seu conceito mais amplo de “aceleracionismo defensivo” (d/acc), que defende o avanço tecnológico cauteloso e estratégico. Essa abordagem contrasta com o “aceleracionismo efetivo” (e/acc), que apoia o progresso tecnológico rápido e irrestrito.
Em sua última publicação, Buterin expandiu a introdução do d/acc em novembro de 2023, oferecendo ideias concretas para cenários em que a IA apresenta riscos significativos. Entre suas propostas está a implementação de um sistema de monitoramento para hardware de IA em escala industrial.
Um método sugerido envolve exigir que os chips de IA se registrem em órgãos internacionais. Buterin também delineou um possível mecanismo para garantir a conformidade, como equipar dispositivos com chips que necessitam de autorização semanal de organizações globais. Esse processo poderia aproveitar a tecnologia blockchain para aumentar a transparência e a segurança.
O debate sobre os riscos da IA se intensificou recentemente, com vários pesquisadores e líderes do setor expressando preocupações sobre o potencial da tecnologia de prejudicar a humanidade. Em março de 2023, mais de 2.600 especialistas assinaram uma carta aberta pedindo uma pausa no desenvolvimento da IA para abordar o que eles descreveram como “riscos profundos para a sociedade”.
Buterin reconheceu essas preocupações, observando a incerteza em torno dos resultados da IA superinteligente. Ele argumentou que medidas proativas, incluindo uma interrupção temporária do poder de computação, poderiam servir como etapas críticas para garantir que a IA se desenvolva de uma maneira benéfica para a humanidade.
Uma abordagem preventiva de Buterin
Embora a proposta de Buterin tenha provocado discussões, ele continua cauteloso ao endossar medidas drásticas. Ele ressaltou que uma “pausa suave” só seria defendida se os riscos da inação superassem as desvantagens da implementação de tais restrições.
À medida que o desenvolvimento da IA se acelera, as ideias de Buterin contribuem para uma conversa mais ampla sobre o equilíbrio entre inovação e segurança. Suas sugestões ressaltam a importância de se preparar para cenários em que sistemas avançados de IA possam representar ameaças existenciais.
Buterin pretende abordar os desafios do desenvolvimento da IA promovendo uma abordagem comedida e colaborativa sem sufocar totalmente o progresso tecnológico. Ainda não se sabe se suas propostas ganharão força, mas elas destacam a urgência crescente de lidar com as preocupações éticas e de segurança que envolvem a IA.