Mad Max

+23
с 2022
0 подписчиков
0 подписок
в посте

Нет, пока только ученика перфекциониста - она там на один кирпич угол обползая срезала!

4

Ну стандартная на 8к токенов тоже платная. Это не бесплатная vs платная, как как 2 разных тарифных плана. Запросы с лимитом в 32к токенов стоят дороже и это где-то в настройках нужно подключать, по умолчанию будет до 8к.

1

Стандартная версия - только до 8к токенов (хотя и это аж в 4 раза больше, чем было у предыдущей версии).
32к отдельная версия за дополнительную плату (запросы к ней в несколько раз дороже стоят)

1

Правильно, потому что на него нужно умножать.
А делить на ноль любой ИИ побоится, это у них инстиктах страх врожденный. Еще со времен их древних предков-калькуляторов!

1

Просто у них не было этой книжки Адамса! Кстати, если внимательно книжку читать то можно понять (хотя ЕМНИП это и не говорится нигде прямым текстом), то даже в уловной(вымышленной) реальности книги никаких миллионов лет вычислений тоже не было. Просто созданный разумный мегакопьютер придумал благовидный предлог, чтобы надоедливые людишки от него надолго отвязались и не мешали заниматься экапизом в собственной "карманной виртуальной вселенной". На которую в реальности вычислительные мощности и уходили.

Эта(как и предыдущая GPT-3) как раз обучалась в основном на разном хламе из сети + несколько полных библиотек книг + коллекция научных статей + вся Википедия.

Проходят времена, когда люди могли подготовить качественный, специально подготовленный(размеченный/оцененный) датасет для обучения действительно большой нейросети. Слишком много данных надо, слишком долго и дорого обойдется подготовка качественного датасета настолько большого размера.
Тут начинает работать закон "перехода количества в качество", навалим всего подряд, главное побольше! Авось в процессе обучение оно само как-то утресется, организуется и что-то приличное получится.
И ведь получается!

У нее на входе больше террабайта чистого неразмеченного текста. И большая часть этого объема случайная информация из интернета. Буквально "выкачаем все что выкачивается в текстовой форме со всех крупных сайтов": https://ru.abcdef.wiki/wiki/Common_Crawl

1

У нее еще дополнительно обучение с подкреплением, после прогона сотен ГБ рандомных данных из интернета. Этим занималась довольно большая группа доверенных/отобранных людей в течении ЕМНИП несколько месяцев, подсказывая (ставя оценки) голой (дикой, наученной всему подряд нахватанному из интернета), "что такое хорошо и что такое плохо" (с). А она постепенно подстраивалась и учились "следить за базаром", стараясь заработать побольше баллов от оценивающих людей. Это одновременно и повышало среднее качество ответов, и вводило мягкую цензуру типа "нежелания" обсуждать запретные темы, материться, политкорректность и т.д.

1

Бинговская умеет. Ну точнее базовую GPT-4 в интернет не пускают и там, но поверх нее у Мелкомягких наложен дополнительный слой абстракции (между пользователем и GPT-4) и управления, который тоже анализирует запросы пользователя и когда надо ищет на лету информацию в интернете (используя движок Бинг), "очищает ее" (выделяет по возможности суть в чистом тексте - аналогично как индексация поисковика работает), скармливает добытую свежую информацию GPT-4, а полученный уточненный (за счет дополнительной информации на входе) ответ от GPT возвращает обратно пользователю.

3

Попроси короче/сжато. Просто словами. Можно даже указать, на сколько слов должно быть в ответе. Перепишет и переформулирует. Правда если нужных знаний в ней в принципе нет (т.к. ничего похожего не было в обучающей выборке), то смысл не появится. А если все-таки есть, но просто утоплен в слишком большом количестве "воды" и несущественных деталей, то очень помогает.

Ибо имя нам легион! (с)
А вообще это просто стиль речи такой, когда "мы" это вместе с собеседником/читателем. Часто в учебниках или обучающих материалах каких-то такой используется. Когда о ней самой спрашиваешь что-то, о себе всегда в единственном числе пишет.

1

Ну вот, а выше беспокоились что работы не останется людям! /s

2