Menu

Los temores ante un posible riesgo en el futuro nos ciegan, pese a que, en la actualidad, los sistemas de IA ya estén perjudicando a la población

MIT Technology Review - 9 de noviembre de 2023

El término “riesgo relativo” se utiliza para designar al hipotético riesgo que plantea la IA. Mis investigaciones sugieren que las herramientas de IA no deberían integrarse en los sistemas de armamento debido a los peligros letales. No se debe a que considere que la mera existencia de un sistema de IA plantea un riesgo como agente superinteligente.

Ya pueden poner su vida en peligro aquellas IA que clasifican, de manera errónea, a las personas como sospechosas de delitos, los robots utilizados para la vigilancia policial y los coches autónomos con sistemas defectuosos para el seguimiento de peatones. Lamentablemente, no es necesario que los sistemas de IA sean superinteligentes para que tengan consecuencias fatales en la vida de los ciudadanos. Los sistemas de IA actuales que han causado perjuicios, como ya se ha demostrado, son más peligrosos que las hipotéticas IA "sintientes"; pues son reales.

Al minimizar los daños existentes de la IA asegurando que los hipotéticos daños son más importantes, surge un problema: se desvía el flujo de los valiosos recursos y la atención legislativa. Las empresas que afirman temer el riesgo existencial de la IA podrían demostrar un compromiso genuino con la protección de la humanidad al no liberar herramientas de IA que, según afirman, podrían acabar con ella.

No me opongo a impedir la creación de sistemas de IA letales. Los gobiernos preocupados por el uso letal de la IA pueden adoptar las protecciones que, desde hace tiempo, ha defendido la Campaña para Detener a los Robots Asesinos (Stop Killer Robots, en inglés). Su objetivo es prohibir los sistemas autónomos letales y la deshumanización digital. La campaña aborda los usos mortales de la IA, sin la pirueta hiperbólica sobre la creación de sistemas sensibles que destruirán a toda la humanidad en el futuro.

Aunque es tentador considerar la violencia física como el daño definitivo, al hacerlo se olvidan otras formas perniciosas que tienen nuestras sociedades de perpetuar la violencia estructural. Johan Galtung, un sociólogo noruego, acuñó este término para describir cómo las instituciones y las estructuras sociales impiden a las personas satisfacer sus necesidades fundamentales y, por tanto, causan perjuicio. Negar el acceso a la atención sanitaria, la vivienda y el empleo mediante el uso de la IA perpetúa los daños individuales y las cicatrices generacionales. Los sistemas de IA pueden matarnos a fuego lento.

Lee aquí la nota completa

Go Back

Post a Comment