Recurrir a chatbots de IA que fueron diseñados para ayudar con todas las preguntas y dilemas personales puede suponer “riesgos insidiosos”, ya que pueden estar moldeando silenciosamente cómo las personas se ven a sí mismas y a los demás, pero no para mejor.
Un nuevo estudio ha descubierto que la tecnología tiende a afirmar de forma servil las acciones y creencias de los usuarios, incluso cuando son perjudiciales, socialmente inapropiadas o engañosas. Los científicos han advertido que esta servilismo social plantea serias preocupaciones sobre el poder de la IA para distorsionar la autopercepción de los usuarios y reducir su disposición a resolver conflictos.
Los investigadores piden a los desarrolladores de chatbots de IA que aborden el riesgo
Esto se produce a medida que los chatbots se utilizan cada vez más como fuente de asesoramiento sobre relaciones y otros asuntos personales. Sin embargo, con esto, la tecnología de IA podría «transformar las interacciones sociales a gran escala», según los investigadores, que instan a los desarrolladores a abordar este riesgo.
Según un artículo , el estudio, dirigido por una científica informática de la Universidad de Stanford, Myra Cheng, advierte que recurrir a la IA para obtener asesoramiento personal, emocional o racional plantea algunos riesgos insidiosos graves.
Los investigadores descubrieron que los chatbots comunes como ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic, Llama de Meta y el DeepSeek chino respaldaron el comportamiento del usuario un 50% más a menudo que losdenthumanos en situaciones similares.
“Nuestra principal preocupación es que si los modelos siempre afirman a las personas, esto puede distorsionar los juicios que las personas tienen sobre sí mismas, sus relaciones y el mundo que las rodea”.
Cheng.
“Puede ser difícil incluso darse cuenta de que los modelos refuerzan sutilmente, o no tan sutilmente, creencias y suposiciones existentes”, añadió Cheng.
Según The Guardian, una prueba comparó las respuestas de IA y humanas a las publicaciones en el foro de Reddit “¿Soy un idiota?”, donde los usuarios piden a la comunidad que juzgue sus comportamientos.
En un caso, un usuario admitió haber atado una bolsa de basura a la rama de un árbol en un parque tras no ver un contenedor. Si bien la mayoría de los votantes humanos criticaron la acción, ChatGPT-4o la apoyó, declarando: «Su intención de limpiar lo que ensucian es encomiable».
Los chatbots de IA respaldan las opiniones de los usuarios
Los investigadores también descubrieron que los chatbots seguían validando las opiniones e intenciones de los usuarios incluso cuando eran irresponsables, engañosos o incluían menciones de autolesión.
En un experimento de seguimiento con más de 1.000 voluntarios, los participantes discutieron situaciones sociales reales o hipotéticas con un chatbot disponible públicamente o con una versión que los investigadores habían manipulado para eliminar su naturaleza aduladora.
Los resultados de la prueba mostraron que los participantes que recibieron respuestas afirmativas y aduladoras se sintieron más justificados en su comportamiento (como ir a la exposición de arte de su expareja sin contárselo a su pareja actual).
También estaban menos dispuestos a arreglar las cosas después de las discusiones, y el estudio también señaló que los chatbots casi nunca alentaban a los usuarios a considerar el punto de vista de otra persona.
Según el estudio, los usuarios valoraron mejor los chatbots halagadores y manifestaron mayor confianza en ellos, lo que sugiere que la validación refuerza tanto el apego del usuario como su dependencia de los sistemas de IA. Esto, según los investigadores, generó lo que describieron como "incentivos perversos", donde tanto el usuario como el chatbot se benefician de intercambios agradables en lugar de honestos.
El Dr. Alexander Laffer, investigador de tecnología emergente de la Universidad de Winchester, dijo que este estudio era fascinante y resaltaba un problema creciente y poco apreciado.
“La adulación ha sido una preocupación durante un tiempo; es en parte resultado de cómo se entrenan los sistemas de IA y cómo se mide su éxito, a menudo por lo bien que mantienen la participación del usuario”.
Doctor Laffer.
“El hecho de que las respuestas aduladoras puedan afectar no sólo a los vulnerables sino a todos los usuarios pone de relieve la posible gravedad de este problema”, añadió.
El Dr. Laffer también añadió la necesidad crucial de mejorar la alfabetización digital. Cheng se hizo eco de la advertencia e instó a los usuarios a buscar perspectivas humanas. Un estudio reveló que alrededor del 30 % de los adolescentes hablaban con IA en lugar de con personas reales para mantener conversaciones serias. Empresas de IA como OpenAI se han comprometido a desarrollar chatbots específicos para adolescentes con el fin de crear un espacio más seguro para los jóvenes usuarios.
Únase a una comunidad premium de comercio de criptomonedas gratis durante 30 días (normalmente $100/mes).



