Создан метод определения «галлюцинирования» ИИ

Исследователи из Оксфордского университета разработали метод, позволяющий обнаружить, когда большие языковые модели (LLM) генерируют неточные ответы, называемые «конфабуляциями».