Научный сотрудник из НИУ ВШЭ Растям Алиев исследовал склонность искусственного интеллекта к галлюцинациям.
В статье "Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху" он сравнивает вымышленные факты, которые генерируют большие языковые модели, с симптомами психических заболеваний у людей.
«Наше общество всегда представляло искусственный интеллект как холодного и безэмоционального робота, что больше соответствует диагнозу аутизма. Однако нейросети не демонстрируют признаков РАС. Они интерпретируют эмоции в тексте и создают когнитивные искажения, — объясняет Алиев. — Чтобы проверить, что "пациент" болен, достаточно попросить ИИ отвечать как человек с шизофренией. Точность его ответов возрастает, как будто он внимательнее к деталям, то есть к знакам».
При сложных запросах галлюцинации усиливаются: не находя готового ответа, нейросеть комбинирует реальные факты с собственными домыслами. Этот феномен порождает новое понятие — метасимулякр, псевдореальность, где алгоритмы формируют способы мышления. Алиев считает это признаком "психических болезней" ИИ.
«Продукты ИИ основаны на реальности, но предвосхищают ее. Изображения реальных людей или мест с искажениями — типичный пример метасимулякра», — добавляет Алиев.
Особенность современных ИИ — неспособность распознавать свои ошибки. Большие языковые модели уверены в правильности ответа, даже если он неправдив. Когда пользователь указывает на неточность, нейросеть приводит аргументы, которые оказываются ее галлюцинациями. Ученый предупреждает: доверять ИИ сейчас полностью нельзя.
«В современном мире ИИ становится частью повседневности, заменяя сотрудников и даже помогая в психологии. Но относиться к нему нужно осторожно. Помните, что ваш собеседник "болен", и всегда перепроверяйте его ответы», — заключает Алиев.
В будущем Алиев не исключает создание "чистых и полноценных" ИИ без склонности к галлюцинациям. Но для этого нужно глубже понять природу этих "расстройств".