Чем больше длится диалог с искусственным интеллектом, тем более глупые и не соответствующие реальности ответы он выдаёт. К такому выводу пришли сотрудники Microsoft Research и Salesforce в рамках совместного исследования.
Проверка проводилась на основе 200 тыс. диалогов с различными моделями ИИ, в том числе GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, OpenAI o3, DeepSeek R1 и Llama 4. Если пользователь запрашивает какую-то информацию, то в 90% случаев первый ответ оказывается достоверным. Далее же точность падает до 65%.
Эта проблема присутствует в том числе и у моделей, которые считаются «мыслящими». Эксперты объясняют это тем, что ИИ склонен к преждевременной генерации, то есть зачастую он не дочитывает вопрос до конца, пытаясь найти ответ.
Ранее другое исследование показало, что 80% директоров компаний из США, Великобритании, Германии и Австралии не заметили какого-либо увеличения производительности труда после внедрения в процессы искусственного интеллекта. Подробнее об этом можно прочитать в материале.