Eliezer Yudkowsky no tiene una perspectiva muy positiva del futuro de la IA
Esteban García Marcos
La Vanguardia - 245 de febrero de 2024
Algunas IAs como GPT-4 están suponiendo un avance exponencial en la productividad de muchas personas. Para otras, es un riesgo que subraya las profesiones que podrían desaparecer por culpa de la adopción de esta tecnología. Así, existe una visión bastante dual en el mundo de la tecnología: los que piensan que la IA está avanzando demasiado rápido y aquellos que defienden que hay que avanzar todavía más.
Eliezer Yudkowsky, un importante bloguero y experto en inteligencia artificial, fundador del Instituto de Investigación de Inteligencia de Máquinas en California, ha expresado recientemente una visión marcadamente pesimista sobre el futuro de la humanidad en relación con el desarrollo de la IA en una entrevista para el periódico The Guardian.
Yudkowsky, conocido por sus contribuciones críticas acerca de la IA y su adopción tan vertiginosa, sugiere que el tiempo restante para la humanidad podría ser alarmantemente corto, estimando que estamos más cerca de los cinco años que de los cincuenta, aunque admite que el plazo podría oscilar entre dos y diez años.
Esta visión apocalíptica se centra en la posibilidad de que las máquinas, impulsadas por una Inteligencia Artificial General podrían tarde o temprano, causar la destrucción del planeta. Yudkowsky critica la rapidez con la que la sociedad ha adoptado la IA sin una consideración cuidadosa de los potenciales efectos adversos que esta tecnología podría tener. Según él, los riegos son enormes si no llevamos a cabo un uso ético y responsable de la Inteligencia Artificial.
Lee aquí la nota completa
- August 2024 (2)
- July 2024 (26)
- June 2024 (27)
- May 2024 (24)
- April 2024 (27)
- March 2024 (24)
- February 2024 (27)
- January 2024 (23)
- December 2023 (17)
- November 2023 (21)
- October 2023 (29)
- September 2023 (20)
- August 2023 (25)
- July 2023 (4)
- June 2023 (25)
- May 2023 (17)
- April 2023 (48)