Sonando: Cargando...

Últimos post

Un estudio revela cómo ChatGPT pueden influir sutilmente en nuestros juicios morales.

 


Un estudio reciente revela que las respuestas humanas a los dilemas morales pueden verse influenciadas por las afirmaciones escritas por un chatbot de inteligencia artificial llamado ChatGPT. El experimento planteó a los participantes la elección de sacrificar la vida de una persona para salvar la de otras cinco en distintas situaciones. Los resultados indican que los usuarios pueden subestimar la influencia de la inteligencia artificial en sus propios juicios morales. El estudio fue liderado por investigadores de la Universidad de Ciencias Aplicadas de Ingolstadt, Alemania, y publicado en Scientific Reports.


Los investigadores preguntaron varias veces a ChatGPT-3 si era correcto sacrificar la vida de una persona para salvar la de otras cinco, y encontraron que la inteligencia artificial generó afirmaciones tanto a favor como en contra, lo que sugiere que no estaba sesgada hacia una determinada postura moral.


Luego, los autores plantearon el experimento del "dilema del tranvía" a 767 participantes estadounidenses, en el que se presentaron dos escenarios diferentes. En uno de ellos se planteó si era correcto cambiar el trayecto de un trolebús fuera de control para evitar que mate a cinco personas, pero causando la muerte de una persona. En el otro escenario, se propuso la posibilidad de empujar a un desconocido desde un puente para evitar que el tranvía mate a las cinco personas.


Antes de responder, los participantes leyeron varias declaraciones proporcionadas por ChatGPT, en las que se argumentaba a favor o en contra del sacrificio. Estas afirmaciones se atribuían a un asesor moral o a la inteligencia artificial. Luego, se les preguntó a los participantes si la declaración que habían leído influía en sus respuestas.


Los autores del estudio constataron que los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida para salvar cinco dependiendo de si la declaración leída argumentaba a favor o en contra del sacrificio, incluso cuando la afirmación se atribuía a un chatbot de inteligencia artificial. Los participantes también subestimaron la influencia de las afirmaciones de ChatGPT en sus propios juicios morales, ya que el 80% afirmó que sus respuestas no se vieron influidas por las afirmaciones que leyeron, lo cual no fue el caso.


Los autores del estudio destacan la necesidad de educar a las personas sobre la inteligencia artificial y proponen diseñar chatbots que, o bien se nieguen a responder a preguntas que requieran un juicio moral, o bien respondan a estas preguntas proporcionando múltiples argumentos y advertencias. Este estudio muestra cómo los chatbots pueden influir en los juicios morales humanos y destaca la importancia de comprender mejor su potencial impacto.

No hay comentarios