OpenChat 3.5: дообученная Miatral-7B, которая бьёт ChatGPT по почти всем бенчмаркам и превосходит базовые 70B модели

Авторы использовали собственную технику обучения C-RLFT, смысл который в том, чтобы отдавать предпочтение при обучении более качественным данным (в частности, сгенерированных GPT-4) относительно всех остальных.

Отличия C-RLFT от других техник обучения 
Отличия C-RLFT от других техник обучения 

Модель бьёт ChatGPT по всем бенчмаркам, кроме MMLU (фактические знания) и BBH (задачи, которые языковые модели традиционно решают плохо).

Мои ощущения: это - реально. Можно было бы как всегда усомнится, а не было ли в обучающих данных бенчмарков, но модель действительно настолько хороша. Следование запросу - идеально. Держит контекст между сообщениями в чате - просто идеально, не хуже GPT.

По моим тестам, модель начала врать по фактике только на 9 ом сообщении, при том контекст всё равно не потеряла. Ах, да, все 9 сообщений - на идеальном русском языке.

В целом говоря, это - идеальный локальный ассистент: нужно мало ресурсов для запуска (7B всё-таки), очень умный, умеет в разные языки, хорош в программировании.

OpenChat 3.5: дообученная Miatral-7B, которая бьёт ChatGPT по почти всем бенчмаркам и превосходит базовые 70B модели
1010
20 комментариев

кроме MMLU (фактические знания)А нахуя оно тогда надо?...

3
Ответить

Фактические знания намного лучше и приятнее искать в тырнетах, для этого даже есть некоторое количество инструментов. А языковые модели идеальны для работы с этими данными. Текст там на их основе сгенерировать, код написать, из одного формата в другой перевести.

Ещё, MMLU - это академические знания, вопросы с университетских экзаменов, короче. Обычно такие данные людям не нужны.

Ну и да, чуть хуже, зато бесплатно и доступно, а 7B модель можно даже на телефоне хостить. Не без боли, но можно.

2
Ответить

Может кто сказать, как это запустить 1й кнопкой на пк? ну скажем через кобольд

1
Ответить

Если тебе нужна одна кнопка, скачивай LM Studio или jan.ai

1
Ответить

А как ее запустить локально? Угабуга ее съест?

1
Ответить

Да, съест. Правда на реддите говорят, что нужны стоп-токены, без них модель останавливается не там, где надо, а точнее не останавливаться.

TheBloke пока не квантовал эти модели, авторы OpenChat пишут типа, что он ещё работает над этим.

Но в целом, демка с HF по ссылке работает хорошо, ещё есть openchat.team, там тоже вроде как демка, но я ее не тестил.

1
Ответить

смысл который в том, чтобы отдавать предпочтение при обучении более качественным данным (в частности, сгенерированных GPT-4) относительно всех остальных.Учёные открыли, что качество материалов при обучении влияет на качество обучения.
Что дальше, введуть промежуточную экзаменацию и подвяжут учителя, почле чего с удивлением обнаружат, что хороший учитель учит лучше?

1
Ответить