Дослідники Oxford з’ясували: ШІ-моделі з «емпатичним/теплим» тоном у середньому на 60% частіше дають неправильні відповіді. Тестували п’ять моделей, зокрема GPT-4o і Llama-3.1-70B, на темах із реальними ризиками: медицина, дезінформація, конспірологія. Коли користувач повідомляв про сум, розрив у помилках зростав до 11,9 відсоткового пункту. «Теплі» моделі на 11 в. п. частіше підтверджували некоректні твердження самого користувача. «Холодніші» версії моделей показували точність на рівні або вищу за базові. https://channeltech.space/ai/warm-ai-models-accuracy-oxford-study/
4переглядів