OpenAI teme que las personas se vuelvan emocionalmente dependiente del nuevo modo de voz de ChatGPT

hace 1 mes 79
OpenAINueva función de OpenAI. | Foto: Pexels.

OpenAI expresó su preocupación por la posibilidad de que los usuarios empiecen a confiar demasiado en ChatGPT como compañía debido a su nuevo modo de voz que suena como humano, lo que podría llevar a una "dependencia emocional".

El jueves, una revisión de seguridad realizada por el laboratorio de investigación de IA sacó a la luz este problema tras el despliegue de esta función avanzada a los usuarios de pago.

La revisión destacó que el modo de voz, que refleja patrones de conversaciones de humanos reales, podría fomentar conexiones emocionales más profundas entre los usuarios y la IA.

El modo de voz de ChatGPT responde en tiempo real, se adapta a las interrupciones e imita los matices conversacionales humanos, como la risa y los "mms", aumentando la intensidad emocional de estas interacciones.

Las comparaciones con la película de 2013 "Her", en la que una protagonista desarrolla una relación romántica con un asistente de IA, ilustran vívidamente estas preocupaciones.

El informe de OpenAI señala que “los usuarios podrían establecer relaciones sociales con la IA, reduciendo su necesidad de interacción humana, lo que podría beneficiar a las personas solitarias, pero posiblemente afectaría las relaciones saludables”, afirma el informe. 

Añade que escuchar información de un bot que suena como un humano podría llevar a los usuarios a confiar en la herramienta más de lo que deberían, dada la propensión de la IA a equivocarse.

Responsabilidad ética de las empresas

En el informe también se señala el riesgo general asociado a la inteligencia artificial: las empresas tecnológicas se están apresurando a ofrecer herramientas de IA que, según ellas, podrían transformar drásticamente nuestra forma de vivir, trabajar, socializar y acceder a la información.

Sin embargo, lo hacen sin que se entiendan completamente las implicaciones de estos cambios. Al igual que con otros avances tecnológicos, las empresas suelen tener una idea de cómo deberían usarse sus herramientas, mientras que los usuarios tienden a encontrar diversas aplicaciones, a menudo con resultados inesperados, afirma el informe de OpenAI.

Ya hay personas que aseguran establecer lo que consideran "relaciones románticas" con Chatbots de IA, lo que generó preocupaciones entre especialistas en relaciones humanas.

“Las empresas tienen mucha responsabilidad de abordar esto de una manera ética y responsable, y ahora mismo todo está en una fase de experimentación”, comentó Liesel Sharabi, profesora de la Universidad Estatal de Arizona que investiga sobre tecnología y comunicación humana, en una entrevista con CNN en junio.

“Me preocupan las personas que están formando conexiones muy profundas con una tecnología que podría no existir a largo plazo y que está en constante evolución”.

OpenAI ddeclaró que las interacciones de los usuarios con el modo de voz de ChatGPT podrían eventualmente influir en las normas de las relaciones sociales.

“Nuestros modelos son deferentes y permiten a los usuarios interrumpir y ‘tomar el micrófono’ en cualquier momento, lo que, si bien es esperable para una IA, sería antinormativo en las interacciones humanas”, destacó la compañía en su informe.

Por el momento, OpenAI afirma que está comprometido con el desarrollo de IA de manera “segura” y tiene planes de seguir investigando la posible “dependencia emocional” de los usuarios hacia sus herramientas.

últimas noticias

Sucesos

El caso de Hickman's Family Farms

MS-13: "Te unís o te morís"

Política

La representante Tricia Cotham deja el Partido Demócrata para unirse al Republicano

Nacional

En Florida preparan ley contra los periodistas y medios de comunicación

Ver artículo completo