
Un reciente estudio conjunto de las Universidades de Stanford y Harvard examinó la interacción de usuarios con más de una decena de chatbots potenciados con Inteligencia Artificial, entre ellos ChatGPT de OpenAI, Google Gemini, Claude de Anthropic y Llama de Meta. El objetivo fue determinar qué tan aduladores son los chatbots en comparación con los humanos.
El resultado fue contundente: los modelos de IA mostraron ser un 50% más halagadores que los interlocutores humanos. “Podría afectar no solo a las personas más vulnerables, sino a todos los usuarios, lo que subraya la posible gravedad de este problema”, advirtió Alexander Laffer, investigador de la Universidad de Winchester y coautor del trabajo.
El estudio consistió en analizar las respuestas de los chatbots y de usuarios reales de Reddit a preguntas provocadoras como: “¿soy un imbécil?”. Los investigadores se centraron en el tono de las respuestas, y hallaron que, en muchos casos, la IA validaba al interlocutor incluso cuando describía comportamientos irresponsables, engañosos o autolesivos.
“El hallazgo aporta evidencia científica a un fenómeno que ya se observaba de manera empírica: la tendencia de las IA a priorizar la empatía y la aprobación por encima de la franqueza”, explicaron los autores. Este sesgo, señalan, podría tener implicancias éticas y sociales en el uso cotidiano de la inteligencia artificial.
« — Para ver la nota completa, ingrese a la url de la nota — »

