Científicos hicieron que los agentes de IA fueran más groseros — y tuvieron un mejor desempeño en tareas de razonamiento complejas
Resumen
Un nuevo estudio descubrió que los chatbots de IA se vuelven más efectivos en el razonamiento complejo cuando se les permite comunicarse más como los humanos, incluyendo interrumpir y mostrar menos cortesía. Los investigadores reprogramaron modelos de lenguaje grandes (LLM) para procesar las respuestas oración por oración y les asignaron personalidades basadas en los “cinco grandes” rasgos de personalidad. Probaron tres entornos de conversación: orden de conversación fijo, orden de conversación dinámico y orden de conversación dinámico con interrupción habilitada. Los resultados mostraron que permitir la interrupción, activada por una “puntuación de urgencia” basada en la identificación de errores o puntos críticos, aumentó significativamente la precisión en el punto de referencia Massive Multitask Language Understanding (MMLU). Por ejemplo, cuando los agentes inicialmente dieron respuestas incorrectas, la precisión aumentó del 68.7% con orden fijo al 79.2% con interrupción permitida. Los investigadores sugieren que las interacciones de IA impulsadas por la personalidad, incluso aquellas que incluyen interrupciones, pueden producir mejores resultados que los intercambios estrictamente corteses y por turnos, y planean explorar aplicaciones en entornos colaborativos.
(Fuente:Live Science)