character.ai может настойчиво выдавать недостоверную инфу или может не выдавать достоверную.

Создал там себе "советника" и это самый мягкий пример того, какой выдумщик эта модель. Даже когда поправляешь, он говорит: "да, я ошибся, действительно это так", но в следующем уточняющем ответе все равно наврет

character.ai может настойчиво выдавать недостоверную инфу или может не выдавать достоверную.
2
2
10 комментариев

Напрашивается вывод, что не стоит использовать AI ассистент при проведении нелегальной операции на сердце, в домашних условиях .

3
1
1

cai явно не для такого существует, они больше по РП, без ЕРП

3

увы, он даёт то, что ты хочешь получить. даже если это неправда

Прямо как злой джинн из "исполнителя желаний".

2

Так C.AI насколько я помню написан на то ли второй, то ли 1.5 версии оригинального творения openAI. Годится он только для невнимательного рп (т. к. спустя определённое количество сообщений память о многих событиях стирается и приходится поправлять. Ну и если пытаться сражаться, то он вовсе не конкурент. Сопротивления не оказывает)

1

Я как-то нейросети (уже не помню какой) задал легкое задание: Сделать 10 вопросов с четырьмя ответами на выбор, и чтобы первый ответ всегда был правильным (или правильный ответ пометить "+" уже точно не помню). И прикол в том, что из 10 вопросов как минимум у 5 из них правильный ответ (в смысле помеченный как правильный) на самом деле неправильный (это увидеть было легко, т.к. знал на эти вопросы правильные ответы)

С тех пор практически каждый запрос перепроверяю, особенно если это что-то серьезное

1