- Vitalik Buterin propose de limiter la puissance de calcul mondiale pour ralentir l’IA à risque.
- Il propose une autorisation hebdomadaire du matériel d’IA par des organismes mondiaux.
Vitalik Buterin, cofondateur d’Ethereum, a suggéré une stratégie potentielle pour faire face aux risques associés à l’intelligence artificielle superintelligente (IA). Dans un billet de blog daté du 5 janvier, M. Buterin a proposé de limiter la puissance de calcul mondiale pendant une période pouvant aller jusqu’à deux ans. Et ce, en guise de mesure de dernier recours pour ralentir le développement de systèmes d’intelligence artificielle potentiellement dangereux.
Une « pause douce » sur la puissance de calcul
La proposition de M. Buterin consiste à restreindre temporairement le matériel informatique à l’échelle industrielle afin de réduire les ressources informatiques disponibles jusqu’à 99 %. Cette mesure vise à donner à l’humanité un délai supplémentaire pour se préparer à l’émergence éventuelle de systèmes d’IA superintelligents nettement plus avancés que les humains les plus intelligents dans tous les domaines.
Selon M. Buterin, cette pause pourrait servir de garde-fou s’il s’avère que les risques liés àl’IA sont trop importants pour être gérés par les cadres réglementaires traditionnels. Il a toutefois souligné que cette approche ne serait envisagée que si d’autres mesures, telles que des règles de responsabilité obligeant les développeurs d’IA à répondre des dommages subis, s’avéraient insuffisantes.
S’attaquer aux risques liés à l’IA par l’accélérationnisme défensif
Les recommandations de M. Buterin s’inscrivent dans son concept plus large d' »accélérationnisme défensif » (d/acc), qui préconise un progrès technologique prudent et stratégique. Cette approche s’oppose à l' »accélérationnisme efficace » (e/acc), qui soutient un progrès technologique rapide et illimité.
Dans son dernier billet, Buterin a développé son introduction du d/acc en novembre 2023 en proposant des idées concrètes pour des scénarios dans lesquels l’IA pose des risques importants. Il propose notamment de mettre en place un système de surveillance pour le matériel d’IA à l’échelle industrielle.
L’une des méthodes suggérées consiste à exiger que les puces d’IA s’enregistrent auprès d’organismes internationaux. M. Buterin a également décrit un mécanisme potentiel pour garantir la conformité, par exemple en équipant les appareils de puces qui nécessitent une autorisation hebdomadaire de la part d’organisations mondiales. Ce processus pourrait s’appuyer sur la technologie blockchain pour plus de transparence et de sécurité.
Le débat sur les risques liés à l’IA s’est récemment intensifié, de nombreux chercheurs et dirigeants d’entreprises ayant exprimé leurs inquiétudes quant au potentiel de cette technologie à nuire à l’humanité. En mars 2023, plus de 2 600 experts ont signé une lettre ouverte appelant à une pause dans le développement de l’IA pour faire face à ce qu’ils décrivent comme des « risques profonds pour la société ».
M. Buterin a reconnu ces préoccupations, soulignant l’incertitude qui entoure les résultats de l’IA superintelligente. Il a fait valoir que des mesures proactives, y compris un arrêt temporaire de la puissance de calcul, pourraient constituer des étapes essentielles pour garantir que l’IA se développe d’une manière bénéfique pour l’humanité.
L’approche de précaution de Buterin
Bien que la proposition de M. Buterin ait suscité des discussions, il reste prudent quant à l’adoption de mesures draconiennes. Il a souligné qu’une « pause douce » ne serait préconisée que si les risques de l’inaction l’emportaient sur les inconvénients de la mise en œuvre de telles restrictions.
Alors que le développement de l’IA s’accélère, les idées de M. Buterin contribuent au débat plus large sur l’équilibre entre l’innovation et la sécurité. Ses suggestions soulignent l’importance de se préparer à des scénarios dans lesquels les systèmes d’IA avancés pourraient poser des menaces existentielles.
M. Buterin souhaite relever les défis du développement de l’IA en promouvant une approche mesurée et collaborative, sans pour autant étouffer complètement le progrès technologique. Il reste à voir si ses propositions seront retenues, mais elles soulignent l’urgence croissante de s’attaquer aux problèmes d’éthique et de sécurité qui entourent l’IA.