Ну, поэтому мы сделали теперь веб чат для онлайн доступа
Ну в случае Daku, gpt-4-32k так просто на сайте бесплатно не получишь.
Добавил вариант в формате файла. Что то iCloud тоже чудит
Странные приколы какие то, то есть то нет
В РФ она не доступна по умолчанию, я лично скачать не могу. Да и опять же, VPN все дела.
На Android тоже будет, но позже, пока ищу наиболее подходящее приложение
А?
На гитхабе есть NeuroGPT - логическое продолжение прошлого проекта. Я много чего перелопатил под капотом за это время.
А я как раз Гугл драйв добавил, ну ничего, пригодится
Гружу на Мегу сейчас, На гугл диске места нет, но попробую найти
На самом деле все эти ключи не обязательны, если хватает ChatGPT-3.5, но если хочется большего и чуть чуть быстрее то можно подключить эти провайдеры.
Это по факту все для резерва
А еще у Claude 2 контекстное окно больше, чем у GPT4. По тестам из моего чата, при работе с кодом на C# он показал себя местами лучше чем GPT4. Но вот в Python он порой отказался что либо делать, врубив цензуру.
Вчера в чате как раз такой вопрос подняли. Пока нет, но ищу подходящий форк как точку опоры, чтобы заработало. Самостоятельно разобраться в коде autogpt навыков не хватает
На гитхабе есть список коммитов. Также там указано, форк какого это проекта. Также есть ссылки на проекты первоисточники.
Ну и, если на данный момент изменения есть абсолютно во всех файлах проекта, полностью изменена логика работы многих функций, а многое и вовсе реализовано впервые - весь список выкатывать?)
Тогда changelog будет больше, чем основной текст статьи.
Прочти последнюю строчку того что сам прислал.
Все запросы людей идут через из локальный прокси, а затем на сайты «провайдеры» из списка. У меня ни на каком этапе доступа к данным пользователя нет. Код открыт, всегда можно проверить.
Слышал про то что такое форк?
Покажи мне в оригинале режим работы эндпоинта, раз я просто своровал?
Посмотрим. На DTF - возможно да. На других площадках реакция другая.
Юзеры, которые делают свои игры - тоже спамят рекламой?
Юзеры, которые в ветке по нейронкам пишут гайды или пилят модельки/лоры - тоже спамят своей рекламой?
Ладно бы я просто говорил "Шок, волосы будут расти как в 16, стоит лишь установить в ChatGPT...", я же рассказываю про способы работы с инструментом, который полезен многим в работе.
С таким подходом лучше вообще остерегаться любой программы на плюсах, там же тоже экзешники.
Здравствуйте, там сейчас новый должен быть.
@em1t_ai
Хм, мультиязычность планирую в версии 2.0 добавить, уйдя на другой фронтэнд
И ограничение на длину чата в 30 сообщений
Нет, там используются различные сайты, предоставляющие у себя доступ к chatgpt, и через http запросы мы используем их, тем самым получая (методом реверс инжиниринга) доступ к OpenAI API.
Список сайтов можно глянуть на гитхабе, в g4f/Provider/Providers
Я пользуюсь next, но цепляюсь через endpoint к free gpt.
Я думаю над тем как это дело встроить, но то что там не python меня пугает
Попробуем)
С веб доступом работает веселее.
С четверкой из за дороговизны использования, сложно найти сервис, который бы ее бесплатно предоставлял и без регистрации. Бинг если только но там сложности с его прокруткой.
Папка venv появляется после первого запуска, по умолчанию ее нет
Если я отвечу что первая переменная отвечает за то, сколько потоков может использовать библиотека numpy, станет понятнее?
Про вторую я же написал:
Запрещает torch разбивать блоки, превышающие этот размер (в МБ). Это может помочь предотвратить фрагментацию и может позволить выполнять некоторые пограничные рабочие нагрузки без нехватки памяти.
Если есть желание можно поиграться с ним, но в целом это стандартное и оптимальное значение, используемое большинством пользователей.
Не, фильм полная чушь. Если только в компании друзей и во всех сценах сменить лицо Марка Уолберга на Сэма Лэйка, тогда хотя бы смешно будет