character.ai может настойчиво выдавать недостоверную инфу или может не выдавать достоверную.

Создал там себе "советника" и это самый мягкий пример того, какой выдумщик эта модель. Даже когда поправляешь, он говорит: "да, я ошибся, действительно это так", но в следующем уточняющем ответе все равно наврет

character.ai может настойчиво выдавать недостоверную инфу или может не выдавать достоверную.
2
2

Напрашивается вывод, что не стоит использовать AI ассистент при проведении нелегальной операции на сердце, в домашних условиях .

3
1
1