1. Технологический рывок в плане энергоэффективности. Скажу лишь ориентировочно, разброс до 50%, но для такой модели нужно порядка 256гб оперативной памяти. Терабайт-полтора жесткого диска. Локально на компике вызывать нейросеть каждый раз не получится. Возможно ответ кроется в эволюционных нейросетях, похоже что они намного более лёгкие. Но это не точно. Как бы то ни было, им надо стать легче. 2. Компания-оверлорд OpenAI, которая якобы «open», – должна опенсорсить свои модели. Сейчас она это не делает, либо делает с какими-то очень старыми версиями которые уже никому не нужны, как это было с DALLE. Альтернативно, кто-то должен сделать лучше чем OpenAI и выложить в опен-сорс. Но пока что лучше чем OpenAI говорилок никто не сделал, и мало кто выкладывает модели.
Нейросетям уровня чатгпт нужно:
1. Технологический рывок в плане энергоэффективности. Скажу лишь ориентировочно, разброс до 50%, но для такой модели нужно порядка 256гб оперативной памяти. Терабайт-полтора жесткого диска. Локально на компике вызывать нейросеть каждый раз не получится. Возможно ответ кроется в эволюционных нейросетях, похоже что они намного более лёгкие. Но это не точно. Как бы то ни было, им надо стать легче.
2. Компания-оверлорд OpenAI, которая якобы «open», – должна опенсорсить свои модели. Сейчас она это не делает, либо делает с какими-то очень старыми версиями которые уже никому не нужны, как это было с DALLE. Альтернативно, кто-то должен сделать лучше чем OpenAI и выложить в опен-сорс. Но пока что лучше чем OpenAI говорилок никто не сделал, и мало кто выкладывает модели.
Без этого быстрых локальных ответов не будет.