Menu

El desarrollo de la IA debe priorizar la intención humana para obtener resultados positivos, no solo la maximización de beneficios, dice Buterin.

Jason Nelson
Emerge - 29 de noviembre de 2023

El lunes, el creador de Ethereum, Vitalik Buterin, reflexionó sobre su propia visión de "tecnoptimismo", inspirado por Marc Andreessen, quien opinó sobre la IA en su "Manifiesto Tecnoptimista" en octubre. Si bien Buterin estuvo de acuerdo con la perspectiva positiva de Andreessen, también señaló la importancia de cómo se desarrolla la IA y la dirección futura
de la tecnología.

Buterin reconoció el riesgo existencial de la inteligencia artificial, incluida la posibilidad de causar la extinción de la raza humana.

"Esta es una afirmación extrema: podrían causar tanto daño como el peor escenario posible del cambio climático, una pandemia artificial o una guerra nuclear, hay muchas islas de civilización que permanecerían intactas para recoger los pedazos", dijo.

"Pero una IA superinteligente, si decide volverse en nuestra contra, podría no dejar sobrevivientes y acabar con la humanidad para siempre", dijo Buterin. "Incluso Marte puede que no sea seguro".

Buterin señaló a una encuesta de AI Impacts realizada en 2022, que indicaba que entre el 5% y el 10% de los participantes creen que los seres humanos enfrentan la extinción debido a la IA o debido a la incapacidad de controlar la IA, respectivamente. Dijo que un movimiento de código abierto centrado en la seguridad es ideal para liderar el desarrollo de la IA en lugar de corporaciones cerradas y propietarias y fondos de capital de riesgo.

Lee aquí la nota completa

Go Back