На фоне шумихи вокруг китайской DeepSeek-R1 я захотел тоже опробовать эту модель, да и в принципе разные LLM для понимания темы инфоциганщины вокруг AI-чатов. Если вы ищете гайд, как именно использовать DeepSeek-R1, то можете просто пройти по ссылке. После регистрации вы сможете использовать их бесплатную версию в браузере или скачать её на телефон. Мне лично такой метод не шибко интересен, так как я хочу потратить время и «потанцевать с бубном» возле компа.
А LM Studio чем-то хуже? Там просто совсем легко, установил программу, выбрал модель, скачал и готово.
Поддержка видеокарт и больше моделей разных, просто этот гайд о том как использовать ollama
Запиши в минусы ещё что локальная модель хуже работает чем та что на сайте
Смотря какую модель ты скачаешь. Я взял легкую версию на 10 гигов. На сайте может быть использована на 40 или 400 гигов. По сути это лишь минус уже системы пользователя
На сайте как я понял версия на 16b, на пк ты поможешь поставить версию на 70+b