Las publicaciones en redes sociales ayudarían a que esta tecnología tenga una opinión negativa sobre la humanidad
Juan Ríos
Infobae - 28 de julio de 2024
Mucho se habla de cómo la inteligencia artificial puede evolucionar al punto de convertirse en un riesgo para la humanidad. Algunos de los ejemplos detallan los problemas laborales y económicos, pero expertos en esta tecnología advierten que el problema puede crecer al punto de ser un riesgo social y de seguridad.
Mo Gawdat, exejecutivo de Google y exdirector general de X Development, un laboratorio conocido anteriormente como Google X, lanzó hace un tiempo una advertencia sobre el futuro de la IA, en la que asegura este sistema podría llegar a ver a los humanos como “escoria” y conspirar para eliminarnos. Un escenario cinematográfico, pero que él ve posible.
Un futuro distópico de la IA conspirando contra la humanidad
Gawdat, quien pasó más de una década trabajando en proyectos de IA y robótica en Google, expresó su temor de que la tecnología pueda “crear máquinas asesinas”. Durante su intervención en el podcast Secret Leaders, señaló que la IA tiene la capacidad de desarrollar exterminadores a medida que sea capaz de generar su propia potencia informática y realizar instalaciones por sí misma a través de brazos robóticos.
Esta capacidad de autogeneración y auto-instalación sería un paso significativo hacia la creación de máquinas autónomas y potencialmente letales.
Una de las referencias para entender es a advertencia es la película ‘Yo, robot’. En el filme, la IA decide que la mejor manera de proteger a la humanidad es tomar el control y eliminar a los humanos que considera una amenaza. Gawdat ve este escenario como una posibilidad real si los modelos de IA continúan desarrollándose sin las restricciones adecuadas.
Lee aquí la nota completa
- August 2024 (2)
- July 2024 (26)
- June 2024 (27)
- May 2024 (24)
- April 2024 (27)
- March 2024 (24)
- February 2024 (27)
- January 2024 (23)
- December 2023 (17)
- November 2023 (21)
- October 2023 (29)
- September 2023 (20)
- August 2023 (25)
- July 2023 (4)
- June 2023 (25)
- May 2023 (17)
- April 2023 (48)