- Vitalik Buterin sugiere limitar la potencia de cálculo mundial para frenar la arriesgada IA.
- Propone que los organismos mundiales autoricen semanalmente el hardware de IA.
Vitalik Buterin, cofundador de Ethereum, presentó una propuesta para contrarrestar los posibles riesgos de la inteligencia artificial (IA) superinteligente. El 5 de enero, mediante una entrada en su blog, Buterin explicó la necesidad de establecer límites a la capacidad de cálculo global durante un período máximo de dos años como última opción para controlar el desarrollo de sistemas de IA que podrían resultar peligrosos.
Restricciones temporales en hardware
La propuesta de Buterin busca limitar temporalmente el hardware informático industrial para disminuir los recursos computacionales disponibles hasta un 99%. Esta medida busca otorgar tiempo adicional a la humanidad para prepararse ante la posible creación de sistemas de IA superinteligentes que superen las capacidades humanas en todas las áreas.
El cofundador de Ethereum mencionó que esta pausa serviría como medida preventiva si los riesgos de la IA sobrepasan la capacidad de control mediante regulaciones tradicionales. Sin embargo, aclaró que esta opción solo se consideraría cuando otras medidas, como las normas que responsabilizan a los desarrolladores de IA por daños causados, no sean suficientes.
Control estratégico del avance tecnológico
Las recomendaciones de Buterin se relacionan con su propuesta de «aceleracionismo defensivo» (d/acc), que promueve un desarrollo tecnológico controlado y planificado. Este método se diferencia del «aceleracionismo efectivo» (e/acc), que busca un avance tecnológico veloz y sin control.
En su reciente publicación, Buterin amplió su concepto de d/acc presentado en noviembre de 2023, proponiendo soluciones para casos donde la IA presenta riesgos. Entre sus sugerencias está crear un sistema de monitoreo para el hardware de IA industrial.
Una de las propuestas requiere registrar los chips de IA en entidades internacionales. Buterin describió un mecanismo de verificación que incluye equipar los dispositivos con chips que necesiten autorización semanal de organizaciones globales. Este proceso podría utilizar blockchain para mejorar el control y la seguridad.
Las discusiones sobre los peligros de la IA aumentaron recientemente. En marzo de 2023, 2,600 expertos firmaron una carta solicitando detener el desarrollo de la IA para evaluar lo que calificaron como «riesgos profundos para la sociedad».
Buterin abordó estas preocupaciones, señalando la falta de certeza sobre los efectos de la IA superinteligente. Explicó que las medidas preventivas, incluyendo una pausa temporal en la capacidad de cálculo, podrían ser necesarias para asegurar que la IA beneficie a la humanidad.
Un enfoque preventivo de Buterin
La propuesta de Buterin generó debates en el sector. El cofundador mantiene una postura prudente sobre medidas extremas, indicando que la «pausa suave» solo se aplicaría si los riesgos de no actuar superan las desventajas de implementar estas restricciones.
El avance continuo de la IA mantiene vigente la discusión sobre el equilibrio entre desarrollo y seguridad. Las propuestas de Buterin resaltan la necesidad de preparación ante posibles amenazas de sistemas avanzados de IA.
El cofundador de Ethereum busca resolver los desafíos del desarrollo de IA mediante un enfoque mesurado y conjunto, sin detener el avance tecnológico. La aceptación de sus propuestas está por verse, pero estas exponen la necesidad urgente de atender las cuestiones de seguridad y ética en torno a la IA.