Menu

Roberto Blum
La Hora  (Guatemala) - 1 de diciembre de 2023

En la mitología judía medieval, el Gólem era una criatura hecha de barro o arcilla, animada por la palabra “emet» – verdad en hebreo – inscrita en su frente. Su propósito inicial era proteger a la comunidad judía de amenazas externas, pero su descontrolado poder resultaba a menudo en consecuencias graves e imprevistas. Hoy, el término «Gólem» ha adquirido un nuevo significado en el ámbito de la inteligencia artificial y la robótica, representando modelos digitales avanzados, cuyo papel es cada vez más prominente en nuestras sociedades. Habrá que preguntarse: ¿cómo evolucionarán los modelos «Gólem» digitales y cuál será su impacto en la sociedad humana?

Los modelos «Gólem», por su nombre en inglés – Generative Large Language Models, – en este contexto, se refieren a los sistemas automatizados que, mediante el aprendizaje automático y la inteligencia artificial (IA), pueden realizar tareas complejas y tomar decisiones sin intervención humana directa. Estos modelos se están volviendo omnipresentes en diversos campos, desde la atención médica, la conducción autónoma de vehículos o la toma de decisiones de vida o muerte en la guerra. Sin embargo, igual que el Gólem de la mitología medieval judía, tales sistemas de Inteligencia Artificial (IA) generan desafíos éticos y sociales significativos.

Por ejemplo: en el ámbito de la inteligencia artificial, la metáfora del Gólem destaca la preocupación sobre la autonomía y la responsabilidad de tales mecanismos. A medida que delegamos decisiones importantes en los algoritmos, surge la pregunta sobre quién es responsable en caso de que algo salga mal. Los sistemas de aprendizaje automático, al entrenarse con grandes conjuntos de datos, heredan sesgos y reflejan prejuicios existentes en la sociedad. Esto plantea la cuestión de la equidad y la justicia, ya que tales modelos pueden perpetuar y amplificar desigualdades preexistentes.

 

Estamos todavía a tiempo de considerar los aspectos éticos vinculados a la creación y uso de modelos «Gólem». A medida que desarrollamos sistemas más avanzados, surge la responsabilidad de garantizar que estos sean utilizados de manera ética y para el beneficio de los individuos y de la sociedad en su conjunto. La transparencia en los algoritmos y la toma de decisiones automatizada se vuelve esencial para construir la confianza pública y evitar los posibles abusos de agentes humanos o corporativos, que logren obtener el control monopólico de los “Gólem” digitales.

Lee aquí la nota completa

Go Back