Nvidia представила Chat with RTX - свой аналог ChatGPT, который работает локально.

Демо модели весит 35 ГБ и доступно бесплатно всем владельцам видеокарт RTX 3000 или 4000 серии.

Пользовательский интерфейс модели
Пользовательский интерфейс модели

Перевод заголовка со страницы презентации Chat with RTX:

Что такое Чат с RTX?

Чат с RTX — это демонстрационное приложение, которое позволяет вам персонализировать GPT large language model (LLM), подключенную к вашему собственному контенту - документам, заметкам, видео или другим данным. Используя генерацию с расширенным поиском (RAG), TensorRT-LLM и ускорение RTX, вы можете спрашивать чат-бота, и быстро получать контекстуально релевантные ответы. А поскольку все это выполняется локально на вашем ПК с Windows RTX или рабочей станции, вы получите быстрые и безопасные результаты.

Скачать и ознакомиться с системными требованиями можно здесь:

@Granger не спи!


#нейросети

153153
194 комментария

Даже не эксклюзив 5000 серии, Хуанга похитили

69
Ответить
Комментарий удалён автором поста

А что кроме генерации кадров эксклюзив? Буквально все технологии nvidia работают на всех картах rtx, самый последний dlss 3.5 работает на всех картах, лучи работают на всех картах.
То есть миллион разных версий, технологий, которые работают на всех картах, но стоит вспомнить генерацию кадров, обвести её огромным кружком и плясать вокруг этого.
Сейчас единственный локальный ИИ работает через установку паскаля и прочие костыли, и при этом весьма долго грузит независимо от системы, причём исключительно картинки и в низком разрешении, а тут полноценный ИИ, который работает локально, причём шерстит по всему интернету. В данный момент это крайне прорывная версия ИИ, дак ещё и действительно мощности твоего пк будут влиять на скорость результата. И поверь на 50й серии результат будет намного лучше как собственно и должно быть

5
Ответить

Комментарий недоступен

Ответить

А есть скриншоты сравнения с RTX и без?
А то так не понятно.

43
Ответить
5
Ответить

тоже интересует этот вопрос

Ответить