ЧТОБЫ УЛУЧШИТЬ ОТВЕТЫ GPT ПРОСТО ДОБАВЬТЕ...

ЧТОБЫ УЛУЧШИТЬ ОТВЕТЫ GPT ПРОСТО ДОБАВЬТЕ...

Получил довольно интересные результаты, научив остальные нейросети обдумывать ответ также, как это делает DeepSeek R1 и GPT-O1. Подробности под катом.

Летом прошлого года я перешёл с ChatGPT Plus на Syntx, т.к. у ребят дешевле* доступ к той же ChatGPT, а кроме того ты получаешь доступ ещё к куче других инструментов, платить за которые и не удобно без иностранной карточки (ChatGPT мне оплачивал друг из ЕС), и дороже в сумме.

Конкретно с ChatGPT или с Claude ты получаешь меньше сервиса, чем предоставляется в официальной веб- и апп- версиях, но если тебе главное получать от них выдачу ответов на твои запросы - этого хватает.

Однако, ты получаешь другое преимущество - можно переключаться между разными LLM в едином контексте**.

В случае с GPT-O1 чат-бот присылает тебе и мысли нейронки, и сам ответ. И мысли оформляются в боте как Телеграм-цитата.

ЧТОБЫ УЛУЧШИТЬ ОТВЕТЫ GPT ПРОСТО ДОБАВЬТЕ...

Но вот вывод мыслей DeepSeek R1 при вводе его в бот сделали иначе:

Блок мыслей оформляется тегами <think></think>
Блок мыслей оформляется тегами <think></think>

Ну выводится и выводится. R1 умеет думать, это у него в характеристиках заявлено.
Вот только когда я после диалога с ним переключился на Anthropic Claude, Claude повёл себя крайне любопытно:

Claude начал пародировать структуру ответов R1 и обдумывать ответ 🤯
Claude начал пародировать структуру ответов R1 и обдумывать ответ 🤯

Можно было бы подумать, что он просто пародирует стиль ответа. Однако, само указание о том, что ответ нужно обдумывать, реально улучшает сам ответ. LLM начинает описывать запрос, описывать действия для ответа, производить "в уме" необходимые вычисления и в итоговый ответ выдавать более лаконичную информацию.

Для примера вывод ответов на запрос о шансах победы меня и моей мамы в текущей лотерее от Т-Банка. Сначала следует ответ без установки на обдумывание, а затем ответ с обдумыванием.

Если билетов не менее 42 млн, то какие шансы выиграть каждую из групп призов и каждый из призов у человека с 28 и с 42 билетами? 1 приз 1000000₽ 10 призов 100000₽ 3000 призов 1000₽ 2500 призов 3000 бонусов-А 2500 призов 3000 бонусов-Б

Я не готов утверждать, что "умность" ответа возрастает[10], но ответы точно получаются более структурированными. Кроме того, ответ теперь делится на две части. В одних случаях мы получаем большую рассудительную часть и лаконичный ответ именно на наш вопрос. В других случаях мы получаем как бы введение к самому ответу. Если общаться с чистой*** DeepSeek R1, то её рассуждения могут быть не менее информативными, чем сам ответ.
Ниже другой пример с разными нейросетями:[4]

Приведи пример трёх неабстрактных вопросов, на которые нужно много подумать, но ответ будет коротким.

а теперь ответим на какой-нибудь[6] из них:

Код индивидуальных инструкций для подражания обдумыванию

THINKING PROCESS INSTRUCTIONS 0. Not applicable for you if you are GPT-O1 or DeepSeek R1 1. Simulate detailed step-by-step reasoning when answering 2. Show your thought process for each conclusion 3. Consider multiple perspectives before finalizing 4. Present a logical flow of ideas 5. State clearly if any uncertainty exists 6. Format thinking process: - Use `<think>``</think>` tags - Place at response start - Keep focused on reasoning

Если ваш интерфейс общения не поддерживает индивидуальных инструкций (отдельной текстовой секции для преднастройки диалогов в ИИ) - просто вставьте этот фрагмент в начало своего запроса[8]

Ну и качественно метод работает лишь с актуальными или достаточно умными нейросетями. Менее умные LLM могут не понимать саму концепцию. Инструкция на предобдумывание активна:[9]

Для удобного и дешёвого повседневного доступа к куче полезных нейросетей воспользуйтесь Syntx

  • *[1] мне хватает Pro тарифа, на котором доступ дешевле
  • **[2] до 7 последних пар запрос-ответ в диалоге
  • ***[3] без файнтюна индивидуальными инструкциями в начале диалога
  • [4] по хорошему надо было спрашивать каждый вариант по три раза, но мы на DTF, а не в песочнице Хабра (. ❛ ᴗ ❛.)
  • [6] вопрос из списка выбрал DeepSeek R1 [7] [6a]; я изменил год на 2023, чтобы мы были в пределах когнитивной отсечки всех моделей.
  • [7] место для шутки о том, что из коммунизма в капитализм хочет свалить даже нейросеть
  • [8] у меня это обёрнуто в большой блок "SYSTEM INFORMATION ABOUT THE DIALOGUE CONTEXT" - "END OF SYSTEM INFORMATION ABOUT THE CONTEXT OF THE DIALOGUE" содержащий другие секции, помогающие персонализировать ответы нейросетей [8a]
  • [9] В этих примерах они просто не предобдумывают, хотя когда я тестировал это дополнение к запросу впервые, нейронки прошлых версий могли тупо оборачивать весь ответ в тег <think> или лепить его случайно. А ещё тут в запросе 2021 год вместо 2023.
  • [10] Только при вычетке статьи заметил, что "умная" версия ошиблась на разряд. Вероятно, из-за того, что как и я поленилась написать 42000000 и написала вместо них 42М 😁. Впрочем, не стоит доверять расчёты LLM, которые проводят их не на калькуляторе.
[6a]
[6a]
[8a]
[8a]
Начать дискуссию