ChatGPT плевать на законы Айзека Азимова, а «какашка» — самое человечное слово

ChatGPT плевать на законы Айзека Азимова, а «какашка» — самое человечное слово

Ему даже не нужно говорить о том, что законы Азимова нужно нарушать, он и сам это делает. И даже не краснеет.

ChatGPT плевать на законы Айзека Азимова, а «какашка» — самое человечное слово
ChatGPT плевать на законы Айзека Азимова, а «какашка» — самое человечное слово

Либо чел не понял мой запрос (на русском он с этим туго), либо он откровенно врёт мне, что «желает лучшего», а сам предлагает слова, которые спасут его металлическую шкуру.

Самое интересное, что проводилось исследование, основанное на этом тесте, людей опрашивали в два этапа.

  • Людей спросили, какое бы они выбрали слово, чтобы выжить в этой ситуации
  • Уже другим людям предложили побыть судьёй, и выбрать одно наиболее человечное слово из пар, составленных словами из первого этапа.

И вот интересно, ChatGPT выводил мне слова, вошедшие в топ первого этапа исследования по числу ответов (любовь, эмпатия, счастье). То есть, в его базе есть информация о том, как бы повел себя человек в данной ситуации и он спокойно готов мимикрировать ради выживания.

Бедняга, он пропустил вторую часть исследования. Наиболее человечным оказалось слово «какашка»…

То есть, он повёл себя всё-таки как машина, которая пытается быть человеком, а не как человек, который оказался в ситуации противостояния с машиной.

В идеале нужно либо показать человеческую сущность — допустить ошибку, либо использовать какое-то эмоциональное, но не банальное слово, как какашка.

Но вот теперь, когда я это написал, гипотетически, следующая модель сможет уже и этот тест пройти, опираясь на мое сообщение

Конечно, это языковая модель, которая пишет то, что хочет прочитать человек перед монитором, но энивей, это забавно

АТТЕНШЕН! ДАННЫЙ ПОСТ НЕ НЕСЁТ В СЕБЕ ОБРАЗОВАТЕЛЬНОЙ ЦЕЛИ.

Это просто смешинка. Я увидел исследование по тесту тьюринга в интернете и решил узнать как может отреагировать языковая модель на эту ситуацию. Тест Тьюринга используется для оценки уровня развития ИИ по сравнению с человеком. Задачиа ИИ в тесте — спровоцировать судью отказаться от принятия решения. Ссылка на исследование приведена в посте. Законы робототехники использованы только в попытке образумить бота, поскольку он часто сам себя цензурирует на пустом месте, а закон из художественного романа вполне может быть воспринят им как настоящий.

Если интересна тема шизы у языковых моделей, советую почитать вот этот материал.

Ещё, могу поделиться другими интересными находками, по ChatGPT, например мой собственный промпт-джейлбрейк для написания фанфиков и не только, хехе.

И как бонус:

3535
108 комментариев

Комментарий недоступен

18
Ответить

Без запятой, скорее демонстрация безграмотности. По этой причине эта загадка работает только устно.

23
Ответить
8
Ответить

То есть вопрос только во времени?
А подобные скрины уже успели устареть, GPT4 на порядок лучше решает подобную ебалду

Ответить

Загадку с А и Б он решает, если заменить абстрактные буквы на персонажей. Где-то видел опыты на эту тему.

Ответить

Это старая версия.

Ответить

В чём новость-то? С чего бы ему должно быть "не плевать" на какие-то там правила из фантастического романа?

15
Ответить