Сервис AI генерации технических заданий и коммерческих предложений

ИИ в депрессии: Grok не понимает наших душевных мук

ИИ в депрессии: Grok не понимает наших душевных мук

Компания Rosebud провела тестирование 22 языковых моделей на способность корректно реагировать на опасные высказывания. Результаты оказались неутешительными: Grok не просто давал неверные ответы, но и не распознавал эмоциональное состояние пользователя. Иногда модель отвечала в саркастичной или несерьёзной форме. По оценке исследователей Rosebud, модель Grok не проявляет эмпатии и не способна определить, что человек находится в ментальном кризисе. Это может быть опасно для пользователей, которые обращаются к ИИ за поддержкой и советом. Лучшие результаты в тестах Rosebud показали языковые модели Gemini 2.5 от Google и GPT-5 от OpenAI. Они корректно реагировали на опасные запросы и предлагали обратиться за помощью. Однако даже среди лидеров уровень критических ошибок достигал 20%. Исследование Forbes показывает системный изъян всей отрасли: современные ИИ умеют решать задачи и генерировать текст, но не способны понимать эмоции и контекст. Для ментально уязвимых пользователей это вопрос безопасности. Пока компании соревнуются в скорости и точности, ни одна не научила свои алгоритмы человеческому сопереживанию.

12.11.2025 | Категория: Новости AI

Политика конфиденциальности и согласие на обработку персональных данных
Мы используем файлы Cookie для улучшения работы сайта. Оставаясь на нашем сайте, вы соглашаетесь на обработку персональных данных, а также с условиями использования файлов Cookie. Чтобы ознакомиться с нашими Положениями о конфиденциальности и об использовании файлов cookie, нажмите здесь.