Не все разработчики моделей делятся их размером, особенно OpenAI, но достаточно грубая оценка размера еще престарелой GPT-3 - 175B (175 миллиардов коэффициентов). Размер модели в миллиардах и вес в гигабайтах величина пропорциональная. Грубый вес модели на 27B - 16 Гб. То есть для работы, скажем, GPT-3 от OpenAI нам нужен ПК со 128 Гб ОЗУ. Llama 3.1 на 405B весит 229 Гб. GPT-4 значительно больше, а это уже ставит крест на любом домашнем использовании, даже если бы нам давали её в руки.
Надо было тестировать llama3.1 - самая популярная модель. Модель 8B спокойно работает на домашней rx 6600, а вот 70B запускается со скрипом тк Ollama нехватку vram компенсирует оперативой. В теории если свап файл сделать большой можно запустить что угодно но это уже надо упоротым быть
У меня 16 Гб ОЗУ. Запускал 27B со swap на SSD - за полчаса сгенерила 2 предложения. Я упоротый :)
Аххааха, смешная шутка про "Яшу" попроси ее рассказать сказку о жабке Азазина, все поймёшь что нету там никакого ИИ, а вот GPT4 top
Во фразе "искусственный интеллект" в контексте LLM есть две ошибки - это не искусственный, и не интеллект :) У ChatGPT тоже интеллекта нет, что уж)
Китайцев с qwen 2.5 еще забыли. Тоже релизнули кучу моделей, в том числе мелких. Достаточно неплохие.
И допущена(?) ошибка взять лламу 3.2 на самом деле.
Там 3б модель еще и квантированная.
В идеале бы лламу 3.1. Там 8б и это куда лучше. Во всяком случае таких ошибок как смешивание инглиша и русского она почти не допускает.
Llama 3.1 пробовал, но они пяткой в грудь себя бьют, что 3.2 лучшая.
А qwen забыл, да. Смотрю все на китайцев, но что-то не пробовал пока.