polishchuk 0 194 02.06.2023
OpenAI предложила способ бороться с «галлюцинациями» ChatGPT
![OpenAI предложила способ бороться с «галлюцинациями» ChatGPT](https://joprblob.azureedge.net/site/news/756bebda-6afa-4e02-bc50-39b7e46b0e9f/503bf464-da38-4050-adb8-3ccc27f6ab82.png)
Для заведомо ложной информации создали отдельный термин — «галлюцинации». По словам OpenAI, это возникает в том случае, когда ИИ начинает верить, что оперирует реальными фактами.
Компания заяявляет, что одной логической ошибки достаточно, чтобы поставить бота в неопределённость и превратить всю последующую информацию в ложную цепочку.
Даже современные ИИ-модели склонны выдавать ложные сведения. Они демонстрируют тенденцию выдумывать факты в моменте неопределенности. Эти галлюцинациС и вызывают много проблем в областях, требующих многоступенчатых рассуждений, поскольку одной логической ошибки достаточно, чтобы переврать остальное,
С отчета OpenAI.
OpenAI разработала новую стратегию, согласно которой ИИ будет вознаграждать себя за правильные рассуждения. Исследователи назвали этот подход «контроль процесса». По их мнению, он может привести к созданию более логичного ИИ, поскольку эта стратегия побуждает модели следовать «цепочке мыслей», подобной человеческой.