Alex

+1958
с 2024
4 подписчика
0 подписок

И на её место придут тысячи новых уже через года три, и будут создавать конкурентные фильмы. А над твоим комментом будут потешатся. Даже сохраню тред, чёб прийти через несколько лет и поглумиться над такими как ты.

1
1

Всё так. Как я сказал в прошлом треде, если я захочу нормальный иммерсив-сим, то включу Скайрим, Фолыч, Киберпанк или Кингдом Кам. Вот чел который норм простебал любителей классических иммерсив-симов https://www.youtube.com/watch?v=wmp49OPI9sU

Чел... иммерсив-симы никуда не исчезли, они перекочевали в масштабные игры, такие как скайрим, киберпанк, Kingdom Come: Deliverance. Понятно, что на фоне таких монструозных иммерсив-симов, классические мелкие иммерсив-симы стали неконкурентными.

Тарков? Дайнг Лайт 2? Субнатика? Им столько раз по шапке прилетало здесь, на дтф, именно потому что они были не согласны с аудиторией своей. Их чаще всего тут и хейтят когда их мнение не совпадает с толпой

2

мне кажется они больше всех на вк наезжали

Не согласен с аудиторией - продался.
Согласен с аудиторией - лизоблюд без своего мнения.

Классика дтф

3

Ты хочешь сказать, что во втором сталкере нет масштаба?

Сталкер недавно выходил. Но да, такие ААА-игры редкость от других студий.

8
2

У Соннета 3.5 v2 крайне складный язык, пусть тот же Гемини 2 умней, но он допускает множество стилистических ошибок, их иногда допускает и 4о, чего почти никогда не делает Соннет. Однако, в переводах соннет похуже 4о, были забавные случаи, когда GPT-4o делал правильный перевод несмотря на ошибку в оригинальном тексте, как на картинке:

5

если прямиком на официальных сайтах, то вместо сброса кнопка "начать новый чат", недавно добавленную функцию запоминания фактов из общения отключаем, чёб опять же, не засорять контекст.

1

Кстати, вычитку тоже делайте логическими блоками, не скидывайте текст целиком, если он большой. Не забываем делать сброс после каждого логического блока.

5
1

Как человек плотно работающий с переводами текста (делаю контент на разных языках) могу гарантировать, что для лучшего перевода с русского на английский (и наоборот) требуется связка из GPT-4о и Соннета 3.5 v2. В GPT-4о делаем перевод текста (перед этим разбиваем его на логические блоки, потому что слишком большие тексты лучше нейронке не давать, после перевода каждого блока делаем сброс, чёб не засорять контекст), а потом переведённый текст заставляем вычитать соннет 3.5 v2, пишем ему такой промпт: I am Russian. I wrote a script in English for a YouTube video, but my English isn't very good, so I need you to proofread it and correct anything that might sound unnatural to native speakers. I might have made lexical, spelling, punctuation and stylistic mistakes. If you find any, please fix them.
I'm aiming for a smoother and more natural flow for native speakers. Write a corrected version.
Make it so that nothing gives away that I'm not a native English speaker, but don't use complex phrases because I want my video to be understandable even to people for whom English is not their native language: "тут идёт ваш текст" На выходе получаем качество перевода на уровне топовейших живых переводчиков.

30
4

Хорошая статья. Как с языка снял. Однако, если игру осовременят, сделают интересные механики (можно некоторые подрезать у Watch Dogs и Киберпанка 2077), то поиграю с удовольствием. Но я представляю какой будет ахуй, если игра по механикам останется примерно такая же как пятая часть. После того как сильно нас разбаловал Киберпанк, игру смешают с говном.

1
1

лимиты, да, когда они заканчиваются, модель переключается на 4o-mini

В этот мир, где инопланетяне, живность и постройки буквально на каждом шагу на любой планете

А лором это не обыграли? Типа древняя цивилизация терраформировала все планеты которые могла, и наводнила их жизнью

Только часть статьи - это раз,
Силошная сама статью перепостила - это два.

Обучение обходится в 20 раз дешевле ($5 млн вместо $100 млн).

Обучение оригинальной гпт-4 тоже столько стоило, если мы не считаем расходы на создание датацентра. Ведь Дипсик не считают. А вот обучение моделей нового поколения и правда, по слухам, уже обходится в более 100 миллионов за прогон одного трейна, например грядущий Орион. Но опять же, только по слухам. И это модели нового поколения, которые получше дипсика будут.

Модель можно запускать даже на игровых видеокартах.

Можно, но только маленькие версии, которые даже близко не будут уровня гпт4о и o1

Требуется в 50 раз меньше GPU

Возможно. Ждём когда кто-нибудь другой воспроизведёт этот метод.

Затраты на API падают на 95%.

Это в статье разбиралось.

Для Nvidia это тревожный сигнал: если мощный ИИ можно запускать на обычных GPU, их сверхприбыльный бизнес по продаже дорогих видеокарт оказывается под угрозой.

С чего бы это должно быть тревожным сигналом для Nvidia? Если мощный ИИ смогли создать на слабом железе, то ещё более мощный ИИ смогут создать на мощном железе.

DeepSeek добилась всего этого с командой менее 200 человек. В то время как Meta тратит на зарплаты больше, чем DeepSeek на всё обучение, и при этом не получает столь же качественные модели.

Это да, но это компенсируется тем, что американские корпорации добывают более дешёвые чипы в перерасчёте цена/производительность, им не приходится платить за обходные пути добычи чипов, плюс пошлины и прочие транспортные надбавки. Если верить слухам, они даже по рекомендованным ценам их не покупают, им Хуанг хорошие оптовые скидочки даёт.

Молодец, окей, отредактировал.

1

такие ошибки модели делают не из-за своей тупизны, а из-за проблем с токенизацией

Вместо одного монолитного ИИ DeepSeek использует "систему экспертов" – специализированные модели, активирующиеся только при необходимости. Это снижает нагрузку: вместо 1,8 трлн параметров, работающих постоянно, у DeepSeek всего 37 млрд активных в конкретный момент.

Этот подход используется и в GPT-4, и в других топ нейронках. Называется MoE (Mixture of Experts). Автор статьи выдаёт это как за нечто инновационное, что говорит о его уровне познания темы.

Так уверенно писать что китайская нейронка - это бесполезная чушь я бы не стал.

Никто этого не говорил. Модель и правда хорошая, хоть и не топ.

1

Ты афигел? Я всё собрал воедино. Тут смешение разных статей, их дополнение, и добавление всяких мелких постов с твиттера. Так что тоже работа, благодари давай

1

Так карты H800 тоже принадлежат NVIDIA

1

Если верить Ашенбреннеру, то NVIDIA будет стоить триллионов 15-30 через 10 лет. Сегодня в такие цифры тяжело поверить, но это из-за маленького размера нынешней экономики Штатов и планеты, по сравнению с тем какой её сделает AGI