character.ai может настойчиво выдавать недостоверную инфу или может не выдавать достоверную.
Создал там себе "советника" и это самый мягкий пример того, какой выдумщик эта модель. Даже когда поправляешь, он говорит: "да, я ошибся, действительно это так", но в следующем уточняющем ответе все равно наврет
увы, он даёт то, что ты хочешь получить. даже если это неправда
Прямо как злой джинн из "исполнителя желаний".